Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV670, RV660, RV635, RV620 - Teil 2 (s. #1!)
komisch nur das Crysis nur so scheisse aussehen tut auf ner 8800 GT, auf meiner Ultra sieht das alles sehr schön aus.
Aber geht das überhaupt das man nur ne GT "cheaten" lassen kann um sie besser dastehen zu lassen ?
Weil wenn man auf MEdium stellt liefert die GT ca 22-24 FPS, und ne XT alles MAX auf 30, also ist die XT ja doch schneller^^
-/\-CruNcher-/\-
2007-11-12, 11:33:54
Eine garantierte Übertaktung ist sicherlich keine "Verarschung".
Ärgerst dich wohl, dass ATis Karten immer so nah am Maximum laufen, so dass die AIBs hier keine vernüftigen Werks-OC-Versionen anbieten können. :tongue:
Dann sieh mal bei Referenz 8800 GTs die Realität ich würd jetzt mal behaupten fast alle laufen mit 700 stable so wie die Zotac AMP oder EVGA SSC, das ist beim G92 nix bessonderes.
lol hier mal von ner XT.
Win XP alles auf High
1680x1050
16xAF
cat. 7.10
GPU Benchmark
http://www.abload.de/img/vistaxox.jpg (http://www.abload.de/image.php?img=vistaxox.jpg)
Auch auffällig: Bei Nvidia ist der erste Durchlauf deutlich langsamer, AMD gibt von Beginn an Vollgas.
Dann siehst du da wohl andere Zahlen als ich. Der erste Durchlauf ist auf allen Karten immer niedriger, vermutlich weil da die Caches noch nicht befüllt sind oder auch mal noch auf die Festplatte zugegriffen wird.
seahawk
2007-11-12, 11:39:01
... und hier machen sich die 2 Fps durch den neuen Treiber dann wohl doch bezahlt.
Auch auffällig: Bei Nvidia ist der erste Durchlauf deutlich langsamer, AMD gibt von Beginn an Vollgas.
Bug oder Feature ? :biggrin:
Okay, also lassen wir mal die Performance Diskussion ruhen.
Wie ist denn der aktuellste Stand was die Preise betrifft? Sind Versionen mit 1024MB geplant? Ist schon bekannt ob Werks-OC erlaubt ist? Was für ein Speicher (ns) wird denn da zum Einsatz kommen?
PCGH_Carsten
2007-11-12, 11:51:40
Dann siehst du da wohl andere Zahlen als ich. Der erste Durchlauf ist auf allen Karten immer niedriger, vermutlich weil da die Caches noch nicht befüllt sind oder auch mal noch auf die Festplatte zugegriffen wird.
Ich lasse mal die Bilder sprechen:
HD3870: First run avg: 14,2
http://iax-tech.com/video/3870/3870crysis2.png
8800GT: First run avg: 12,5
http://iax-tech.com/video/3870/8800crysis2.png
Wenn ich zocke, möchte ich auch nicht erst einmal durch ein neues Gebiet "probelaufen" müssen, damit's beim zweiten Durchgehen weniger ruckelt.
MadManniMan
2007-11-12, 12:03:26
Meine Freundin reißt mir die Eier ab, wenn ich meinen Schniedel hier lasse ;(
8xAA 8216 < 10358 4xAA
Ich hab ja auch bei 8*/1* vs. 8*/16* geguckt, ich Doof ich!
wie bingo...mir gings darum das der Vorsprung der 8800GT kleiner wird je höher das AA. und 8xAA greift sonst würde der Vorsprung ja nicht kleiner werden
...und 4* war in meinen Augen 2*...
Probleme mit den Augen? Dann mal her mit dem Schniedel.;)
...entweder mit den Augen, oder mit dem Denken. Wie verteilen wir ihn jetzt?
mmh...dein Schniedel ist wohl weg...die GT verliert sehr wohl bei 8*AA, allerdings verliert sie nahezu nix beim hinzuschalten von 16*AF...da kann vom reviewer was verpatzt worden sein, aber es könnte auch an der riesigen Füllrate der 8800GT liegen
Reichts, wenn ich ne Oktave höher denke?
Da is nix verpatzt, die GT hat einfach viel zu viel Füllrate, um mit AF was zu verlieren.
Super Grobi
2007-11-12, 12:04:55
Bei den neuen Karten wird wohl genauso abgezockt, wie bei der Geforce GT. Nun gibts gar schon einen zweiten Händler, der die 70er anbietet, aber gleich ein batzen mehr Asche sehen will:
http://geizhals.at/deutschland/a293842.html
SG
-/\-CruNcher-/\-
2007-11-12, 12:05:00
@PCGH_Carsten
Vergiss nicht die News auf eure Seite zu stellen ;)
@Super Grobi
clever-tech <- der name sagts ja auch die sind clever LOL ;)
Die Bilder widerlegen meine Aussage nicht.
140.84s der erste Durchlauf auf ATI, 135,4x Sekunden die weiteren Durchläufe.
BTW, scheint der Crysis Bench selbst buggy zu sein.
Negative Werte für Tri/Frame and Tri/Sec ?
Min./Max. fps Werte praktisch immer bei exakt demselben Frame mit exakt derselben fps?
Wer's glaubt.....
MadManniMan
2007-11-12, 12:09:44
Thema AA
Da die 3870 bei Zuschalten im Rahmen der GT Performance zu verlieren scheint, deutlich aber vor allem nicht mehr so drastisch, wie die 2900, können wir ja nun mutmaßen:
a) der Shaderresolve wurde brutal verbessert
b) der Shaderresolve ist Geschichte
Jedenfalls dürfte der noch geringere Verlust als bei der GT mit der höheren Bandbreite zu erklären sein.
Die Crysis benchs kann man schonmal vergessen. Das sieht man schon auf den ersten Vergleichsscreen, dass da wieder nVs Treiber mit fehlenden Spiegelungen glänzt.
Die Screenshots wurden auch aus verschiedener "Höhe" gemacht, da blendet Crysis das eine oder andere Detail weg.
Nana - könnte passen...
AT ist seriös!
http://geizhals.at/eu/a293842.html
http://geizhals.at/eu/a293843.html
Nakai
2007-11-12, 14:26:59
Okay wenn der Rv670 weniger als die Geforce 8800GT verbraucht und der AA-Bug einigermaßen behoben ist, dann ist die Karte meins.^^;)
mfg Nakai
AnarchX
2007-11-12, 14:34:48
Okay wenn der Rv670 weniger als die Geforce 8800GT verbraucht und der AA-Bug einigermaßen behoben ist, dann ist die Karte meins.^^;)
Und auf nahezu kostenloses AF, SSAA-Hybrid-Modis für ältere Games und den MSAA-Hack für UE3-Games(mit D3D10.1 mag es auch bei ATi gehen, aber bei dem Dev-Support...) verzichten? ;)
Nakai
2007-11-12, 14:37:36
Und auf nahezu kostenloses AF, SSAA-Hybrid-Modis für ältere Games und den MSAA-Hack für UE3-Games(mit D3D10.1 mag es auch bei ATi gehen, aber bei dem Dev-Support...) verzichten?
Mhh, verdammt...;D
So ne schwere Entscheidung...:confused:
mfg Nakai
MartinRiggs
2007-11-12, 14:37:59
Naja,
wenn der folgende Link zum Inquirer auch nur halbwegs stimmt dann kann einem die Karte doch gestohlen bleiben.
Inquirer (http://www.theinquirer.net/gb/inquirer/news/2007/11/11/nvidia-mystery-thermal-analysis)
NV hält die 8800 GT scheinbar extra zurück und wollte ATI nur die Show stehlen, super!!!
Mittlerweile haben sie wohl eingesehen das sie sich den Markt für GTX/Ultra kaputt machen.
AnarchX
2007-11-12, 14:44:38
So ne schwere Entscheidung...:confused:
Naja, viel spricht imo nicht für die HD3800-Serie:
- UVD: bis auf die erste Stufe bei VC-1 beherrscht der VP2 der 88GT auch alles
- PowerPlay: Light-Gaming ist imo uninteressant, wenn dann wird doch versucht die GraKa möglichst am Limit zu betreiben mit BQ-Settings. Der Idle-Verbrauch ist zwar nett, aber hier liegen nicht unbeding Welten zwischen 3870 und 8800GT. Zudem kommt ja bald hSLI...
- Dual-Slot-Kühler: bieten bald einige AIBs bei NV auch
Einzig kann für mich ein Vorteil beim Preis bestehen, der dann aber wirklich überzeugen müsste(wenn es die 8800 GT ab 200€ gibt Ende November, sollte die 3870, dann bei 150€ liegen ;)).
Nakai
2007-11-12, 14:48:17
Der Preis ist eben bei mir das entscheidene.
Ich habe mir 2,5 Jahren eine X800Xt für 299€ gegönnt und die will wieder abgeköst werden, jedoch nicht für mehr als 200€.
Nur der RV670 bietet das derzeit an, jedoch ist das Featureset des G92 dementsprechend besser.
mfg Nakai
Der Preis ist eben bei mir das entscheidene.
Ich habe mir 2,5 Jahren eine X800Xt für 299€ gegönnt und die will wieder abgeköst werden, jedoch nicht für mehr als 200€.
Nur der RV670 bietet das derzeit an, jedoch ist das Featureset des G92 dementsprechend besser.
mfg Nakai
das Featureset des G92 ist veraltet. Ausser dem langsamen SSAA ist Featureset des RV670 in DX10 Titeln ueberlegen, und ermoeglicht natives FSAA ohne Hacks und Bildfehler.
Der Preis ist eben bei mir das entscheidene.
Ich habe mir 2,5 Jahren eine X800Xt für 299€ gegönnt und die will wieder abgeköst werden, jedoch nicht für mehr als 200€.
Nur der RV670 bietet das derzeit an, jedoch ist das Featureset des G92 dementsprechend besser.
mfg Nakai
Wie bitte? die ATI bietet DX10.1, hat Powerplay, einen sehr geringen Idle Verbrauch und das wichtigste für mich: Einen Dual-Slot Kühler, bessere Videoperfomance bei nahezu gleicher 3D-Leistung. Sogar der Last-Verbrauch dürfte geringer sein. Meiner Meinung nach ist die HD3870 auch von den Features her klar besser. Für mein HTPC klar die bessere Wahl.
Nakai
2007-11-12, 15:18:21
Wie bitte? die ATI bietet DX10.1, hat Powerplay, einen sehr geringen Idle Verbrauch und das wichtigste für mich: Einen Dual-Slot Kühler, bessere Videoperfomance bei nahezu gleicher 3D-Leistung. Sogar der Last-Verbrauch dürfte geringer sein. Meiner Meinung nach ist die HD3870 auch von den Features her klar besser. Für mein HTPC klar die bessere Wahl.
Was bringt Dx10.1 wenn die Karte eben nicht so leistungsstark ist.
Ich bin eben gerade am überlegen...
mfg Nakai
MadManniMan
2007-11-12, 15:23:12
Was bringt Dx10.1 wenn die Karte eben nicht so leistungsstark ist.
Entscheidend ist wirklich, daß die Karte preisgerechte Leistung auf die Straße bringt.
Was mir Sorgen macht: die AF-Performance ist angesichts der Füllrate erwartungsgemäß immer recht gering - da sollte einiges an Filter"optimierungen" auf uns zukommen ;(
Naja, viel spricht imo nicht für die HD3800-Serie:
- UVD: bis auf die erste Stufe bei VC-1 beherrscht der VP2 der 88GT auch alles
- PowerPlay: Light-Gaming ist imo uninteressant, wenn dann wird doch versucht die GraKa möglichst am Limit zu betreiben mit BQ-Settings. Der Idle-Verbrauch ist zwar nett, aber hier liegen nicht unbeding Welten zwischen 3870 und 8800GT. Zudem kommt ja bald hSLI...
- Dual-Slot-Kühler: bieten bald einige AIBs bei NV auch
Einzig kann für mich ein Vorteil beim Preis bestehen, der dann aber wirklich überzeugen müsste(wenn es die 8800 GT ab 200€ gibt Ende November, sollte die 3870, dann bei 150€ liegen ;)).
Was spricht für die 8800GT? Die Leistung wird vermutlich im Schnitt geringfügig höher sein, aber deshalb wird sie wohl auch etwas teurer bleiben. Die Hybrid-Modi können zwar ganz nett sein, wenn man Uraltspiele spielt, aber so wichtig sind die dann auch nicht. Zumal man dank AAA auch schon auf einer Radeon SSAA auf bestimmte Texturen bekommt und man sich im Notfall auch mit dem DX-Tweaker helfen kann. AA in UE3-Titeln ist eine reine Treibergeschichte, die hoffentlich auch AMD bald anbieten wird. Zumal das ohenhin erst in D3D10.1 richtig funktionieren kann.
Bleibt nurnoch der Single-Slot-Kühler, der schlechtere Videoprozessor, der fehlende D3D10.1 (auch wenn sicher kein "must have", aber allemal "nice to have"), und der wohl höhere idle-Verbrauch. Ne, so schlecht steht die 3870 nicht da, zumal sich auch bei der 8800GT schon wieder Probleme mit dem Speichermanagement gezeigt haben. Aber viel interessanter wird wohl die 3850 im Segment unter 200€ sein, denn dort hat nV schlicht nichts vergleichbares.
reunion
Was bringt Dx10.1 wenn die Karte eben nicht so leistungsstark ist.
mfg Nakai
Dass das noch immer in den Köpfen herumschwirrt. Ein höheres Tech-Level kann gerade bei nicht so leistungsfähigen Karten von Vorteil sein. Ein Spiel wird im D3D10.1 Modus bei gleichen Details sicher nicht langsamer sein als unter D3D10 oder 9 sondern höchsten schneller.
reunion
und ermoeglicht natives FSAA ohne Hacks und Bildfehler.
Das stimmt natürlich nicht, weil es bislang keine D3D10.1 Anwendungen gibt.
Entscheidend ist wirklich, daß die Karte preisgerechte Leistung auf die Straße bringt.
Was mir Sorgen macht: die AF-Performance ist angesichts der Füllrate erwartungsgemäß immer recht gering - da sollte einiges an Filter"optimierungen" auf uns zukommen ;(
In Sachen AF ist NV wirklich klar besser. Bei ATI ist im Prinzip bei 8x AF Schluss. Der 16x Modus macht auch optisch kaum einen Unterschied zu 8x. Dafür aber einen AA Vorteil zu haben finde ich nett.
Das stimmt natürlich nicht, weil es bislang keine D3D10.1 Anwendungen gibt.
wetten dass es A/A nicht nehmen lassen wird patches mitzuentwickeln, um anschliessend die Vorteile der eigenen HW umso mehr hervorheben zu koennen
In Sachen AF ist NV wirklich klar besser. Bei ATI ist im Prinzip bei 8x AF Schluss. Der 16x Modus macht auch optisch kaum einen Unterschied zu 8x. Dafür aber einen AA Vorteil zu haben finde ich nett.
Ich nutze genrel nur 8af.Zwischen 8af und 16 af gibts kein unterschied.
MadManniMan
2007-11-12, 16:02:00
In Sachen AF ist NV wirklich klar besser. Bei ATI ist im Prinzip bei 8x AF Schluss. Der 16x Modus macht auch optisch kaum einen Unterschied zu 8x. Dafür aber einen AA Vorteil zu haben finde ich nett.
Ich bin wirklich gespannt, wieviel Leistung CFAA zieht, wenn das AA generell gefixt ist...
Ich nutze genrel nur 8af.Zwischen 8af und 16 af gibts kein unterschied.
...aber daß zwischen 8* und 16* AF kaum ein bzw. kein Unterschied festzustellen ist, ist eine entweder höchst subjektive, oder aber recht alberne Feststellung - seis wie es sei, damit zu argumentieren ist kurzsichtig.
wetten dass es A/A nicht nehmen lassen wird patches mitzuentwickeln, um anschliessend die Vorteile der eigenen HW umso mehr hervorheben zu koennen
Bei DEM miesen Developer Support von A/A würde ich da nicht drauf wetten.
J0ph33
2007-11-12, 16:16:04
och naja, sie haben auch nen schönen SM2.0-Patch für Splinter Cell 3 entwickelt...gut, dass hat ewig gedauert, aber die prinzipielle Bereitschaft ist da...und diesmal gehts ja nicht nur um ein Spiel...
...und diesmal gehts ja nicht nur um ein Spiel...
d.h. es wird diesmal etwa Anzahl Spiele * Ewig dauern? ;)
Ati setzt noch einen drauf:
AMD cuts RV670 chip price
http://digitimes.com/mobos/a20071112PD204.html
Ich nutze genrel nur 8af.Zwischen 8af und 16 af gibts kein unterschied.
Beim Geforce schon, bei den ATIs kaum oder besser nur bei den 4 meistgenutzten Winkeln. Ich nutz bei meiner Radeon auch nur 8x (und vermisse 16x nicht sonderlich ;) aber das ist eh sehr subjektiv). Wer unbedingt besseres AF möchte, ist bei der NV Fraktion besser aufgehoben, das ist nunmal z.Z. einfach so.
Die Hybrid-Modi können zwar ganz nett sein, wenn man Uraltspiele spielt, aber so wichtig sind die dann auch nicht. Zumal man dank AAA auch schon auf einer Radeon SSAA auf bestimmte Texturen bekommt und man sich im Notfall auch mit dem DX-Tweaker helfen kann.
Wie will man denn bitte mittels AAA das Shaderaliasing bekämpfen?
Bei DEM miesen Developer Support von A/A würde ich da nicht drauf wetten.
Es geht ja nicht darum, sondern um SM4.1 umzusetzen. Alle grossen Engines werden ziemlich sicher 4.1 Unterstützung erhalten (oder beinhalten das sogar schon). Die Frage ist nur, inwieweit das beim Endnutzer ankommt. Es wird sicherlich den ein oder anderen Entwickler geben, der die generell verbesserte AA Fähigkeiten gerne nachreichen möchte, auch im Hinblick auf NVs D9x und ATIs R700.
Es geht ja nicht darum, sondern um SM4.1 umzusetzen. Alle grossen Engines werden ziemlich sicher 4.1 Unterstützung erhalten (oder beinhalten das sogar schon).
Es gilt wie immer:
Cheffe fragt: was kostet und das und was nutzt uns das.
Meist begrenzt das Budget, wieviele unterschiedliche Renderpfade eine Engine unterstützt.
Und da aktuelle Titel mit DX9 und D3D10 schon zwangsweise mindestens 2 Pfade haben (und auch behalten müssen), sehe ich da eher schwarz für einen SM4.1 Pfad. Zu gering ist die unterstützte Hardware-Basis.
laser114
2007-11-12, 16:33:58
Zwischen DX10 und DX10.1 sollte es kaum Unterschiede geben. Viel eher wird dafür die Unterstützung für SM 2.0 weiter sterben. Aktuell haben damit Konsolenportierungen ja vor allem angefangen, dafür gibts noch einige Spiele mit DX 10/DX 9.0c und DX 9.0a/b. Damit rechne ich nicht mehr sonderlich lange.
mapel110
2007-11-12, 16:37:07
Zwischen DX10 und DX10.1 sollte es kaum Unterschiede geben. Viel eher wird dafür die Unterstützung für SM 2.0 weiter sterben. Aktuell haben damit Konsolenportierungen ja vor allem angefangen, dafür gibts noch einige Spiele mit DX 10/DX 9.0c und DX 9.0a/b. Damit rechne ich nicht mehr sonderlich lange.
Allein schon wegen der Unterstützung von Windows XP muss Directx9 noch weiter unterstützt werden.
So schnell wird das OS nicht abgesägt, vorallem nicht nach dem Vista-Desaster.
laser114
2007-11-12, 16:43:10
Allein schon wegen der Unterstützung von Windows XP muss Directx9 noch weiter unterstützt werden.
So schnell wird das OS nicht abgesägt, vorallem nicht nach dem Vista-Desaster.
Ja, aber da nur DirectX 9.0c. Ist jedenfalls meine Vermutung. ;)
Dadurch haben die der ATI-X-Serie aber ein Problem ... tja, so ist das eben manchmal.
Ati setzt noch einen drauf:
AMD cuts RV670 chip price
http://digitimes.com/mobos/a20071112PD204.html
Das finde ich interessant:
"In an update to a previous report, the Radeon HD 3850 supports 256/512MB GDDR3 memory with a core frequency of 750MHz and memory frequency of 1.8GHz, while the Radeon HD 3870 adopts 512MB GDDR4 with a core frequency of 825MHz and memory frequency of 2.4GHz"
Entweder pennt DT, oder es findet malwieder ein Verwirrspiel.
Gibt es hier schon neues zu Preisen? Meinem Bruder hat man heute beim Hardwareladen um die Ecke gesagt die Karte sei schon bei Großhändler gelistet und werde wohl ab Anfang Dezember für 209€ an den Endkunden verkauft. Wenn man den üblichen Preisaufschlag gegenüber den Online-Händlern mit einrechnet hieße das Preise von maximal ca. 200€ bei Geizhals. Aber andererseits will ich nicht ausschließen, dass der Kerl im Laden sich nur wichtigtun wollte - denn online konnte ich noch nix von derartigen Preisen lesen.
Super Grobi
2007-11-12, 18:10:36
Hier nochmal eine News auf deutsch von Winfuture zu den gesenkten Preis: http://www.winfuture.de/news,35706.html
Ich bin auf die Preise gespannt! Hoffentlich gibts genügen Karten zu beginn, so das die Händler nicht abzocken können.
SG
Ich bin wirklich gespannt, wieviel Leistung CFAA zieht, wenn das AA generell gefixt ist...
...aber daß zwischen 8* und 16* AF kaum ein bzw. kein Unterschied festzustellen ist, ist eine entweder höchst subjektive, oder aber recht alberne Feststellung - seis wie es sei, damit zu argumentieren ist kurzsichtig.
Ich sehe auch so gut wie überhaupt keinen Unterschied zwischen 8AF und 16AF.
MadManniMan
2007-11-12, 19:16:08
Ich sehe auch so gut wie überhaupt keinen Unterschied zwischen 8AF und 16AF.
OK, Du hast gewonnen, ich mach nen Fred auf :upara:
Wurde das schon gepostet?
http://iax-tech.com/video/3870/38701.htm
From 3Dmark06 and Crysis, it looks like nVidia 8800GT is better than HD3870. However, there is one thing we need to tell you
We found ATi HD3870 is actually has better picture process while Crysis benching.
Specially the light refraction from water, HD3870 is very smooth but 8800GT is not. It is around frame 500 to 1000.
If you have chance, compare it. You will know what are we talking about.
Super Grobi
2007-11-12, 19:35:15
Die 70iger langsamer, als die GT. Schade, aber das würde den Preisnachlass bei Ati erklären.
SG
Es ging mir um die angeblich bessere BQ.
laser114
2007-11-12, 20:12:12
Es ging mir um die angeblich bessere BQ.
Ja, die liegt in einem Bug im Nvidia-Treiber begründet, der die Karten zwar leicht schneller macht, dafür aber die Bildqualität absenkt. Mit Umbenennen der Exe kann man das umgehen.
Edit: Ach ne, das waren nur Scheibenreflektionen. Ziehe meine Aussage zurück.
Wobei man sagen muss: Wenn es wirklich einen Bildqualität-Nachteil für die 8800GT bei Crysis gibt liegt die 3870 doch ganz gut! Mit Optimierungen sind diese 2-3 FPS sicher locker drin. Gleiches gilt für 3DMark. 500 3DMarks sind durch Treiberoptimierungen sicher noch rauszuholen. ;)
Schlammsau
2007-11-12, 20:56:36
also meine Entscheidung ist gefallen. Entweder die HD3850 mit 512MB oder die HD3870!!!! ;)
Aber ich dachte die 50´ sollte früher erscheinen!? Laut denen (http://www.e-shop24.com/oxid/index.php?cl=details&cnid=&anid=51a47355df762b521.72193526&campaign=hws&mc=2#) hier ist sie erst ab dem 03.12 verfügbar und die 70´ schon/erst ende November!:|
James Ryan
2007-11-12, 20:59:53
also meine Entscheidung ist gefallen. Entweder die HD3850 mit 512MB oder die HD3870!!!! ;)
Aber ich dachte die 50´ sollte früher erscheinen!? Laut denen (http://www.e-shop24.com/oxid/index.php?cl=details&cnid=&anid=51a47355df762b521.72193526&campaign=hws&mc=2#) hier ist sie erst ab dem 03.12 verfügbar und die 70´ schon/erst ende November!
Naja, dass Du keine Gf 8800 GT in deinen PC steckst, war doch schon vorher klar! ;)
Ansonsten wir die HD 3870 sicher ein nettes Kärtchen, die Frage ist nur, ob AMD damit endlich mal Geld verdient! Nur das zählt momentan!
Schon vor Release wieder den Preis zu senken ist kein gutes Zeichen ehrlich gesagt...
MfG :cool:
laser114
2007-11-12, 21:00:09
Das ist doch nur ein Shop. Die Liefertermine nach dem Launch dürften realistischer sein, dann sind sicher auch die seriöseren Shops dabei.
Super Grobi
2007-11-12, 21:01:08
also meine Entscheidung ist gefallen. Entweder die HD3850 mit 512MB oder die HD3870!!!! ;)
Aber ich dachte die 50´ sollte früher erscheinen!? Laut denen (http://www.e-shop24.com/oxid/index.php?cl=details&cnid=&anid=51a47355df762b521.72193526&campaign=hws&mc=2#) hier ist sie erst ab dem 03.12 verfügbar und die 70´ schon/erst ende November!:|
Die wissen garnichts, die wollen nur Vorkasse abzocken. Woher sollen die das wissen? Das weiss bis jetzt nur Ati.
SG
Schlammsau
2007-11-12, 21:03:01
Naja, dass Du keine Gf 8800 GT in deinen PC steckst, war doch schon vorher klar! ;)
Ansonsten wir die HD 3870 sicher ein nettes Kärtchen, die Frage ist nur, ob AMD damit endlich mal Geld verdient! Nur das zählt momentan!
Schon vor Release wieder den Preis zu senken ist kein gutes Zeichen ehrlich gesagt...
MfG :cool:
schon vorher klar? Nicht wirklich......hab bevor ich diese spielereien beim Treiber mitbekommen habe....schon ziemlich mit der 8800GT geliebäugelt! Scheint ja auch ne recht potente Graka zu sein! Nur lacht mich jetzt die ATI ein wenig mehr an! Preis/Leistung ist mir das wichtigste, auch wenn sie ein wenig langsamer als die 8800GT ist!!
Adam D.
2007-11-12, 21:10:55
Ich denke schon, dass die HD3870 überzeugen kann. Nur warte ich lieber erstmal die ersten Tests ab. Da mir AA&AF sehr wichtig sind, bin ich noch etwas skeptisch.
sklave_gottes
2007-11-12, 21:16:27
Einer 8800GT geht spaetestens ab 1600*1200 die Z-Fuellrate/Bandbreite und Speicher aus. Was soll da bei einer RV670 mit 512MB Speicher und um einiges weniger Z-Fuellrate gerade besser sein?
Ich hab mich lediglich auf die Analogie der Bandbreite auf andere Werte bezogen und Du wirst wohl ausrechnen koennen wieviel Bandbreite jegliche GPU pro GPixel genau braucht. Keiner der beiden IHVs stattet praktisch ihre GPUs mit zu viel oder zu wenig Bandbreite aus; jeder der beiden legt den Bandbreiten-Bedarf fest und stattet jegliche GPU mit demenstprechenden Speicher aus.
Es gibt auch fuer diesen Fall eine logische Erklaerung.
Ich glaube wir reden bischen an einnander vorbei. Ich wollte nur sagen das meiner Meinung nach der g92/g80 mehr mit höherer Speicherbandbreite anfangen kann als ein rv670/r600. Gerade wegen den Gründen die du gerade auch genannt hast. Also sind wir jetzt doch einer meinung oder wie :smile:
Somit finde ich es alles andere als schlimm das der rv670 "nur" over 70gb/sec hat. Das reicht ihm. G92 hat mehr mit seiner Bandbreite zu Kämpfen, der Chip ist in dem Bereich(TMUs,ROPs) einfach Mächtiger als rv670
Kein Einwand; aber um auf's Thema zurueckzukommen, glaubst Du dass eine RV670@=/>850MHz mit gleich so hoch oder hoeher getaktetem GDDR4 ankommen wuerde?
Kommt drauf an für welchen Preisbereich. Will man auch damit auf leicht über 200€ kommen kann man nicht viel schnelleren Speicher verbauen weil der Preis muss ja auch stimmen. Sollte die Karte aber mit 850-900mhz an der 8800 vorbei ziehen, könnte man auch 250€ verlangen und vieleicht auch 1300-1400mhz GDDR4 verbauen. Aber wie gesagt 1200mhz reichen, die Karte wird sowieso viel besser über den GPU takt Skalieren, dafür verwette ich meinen......:biggrin:
mfg martin
Das finde ich interessant:
"In an update to a previous report, the Radeon HD 3850 supports 256/512MB GDDR3 memory with a core frequency of 750MHz and memory frequency of 1.8GHz, while the Radeon HD 3870 adopts 512MB GDDR4 with a core frequency of 825MHz and memory frequency of 2.4GHz"
Entweder pennt DT, oder es findet malwieder ein Verwirrspiel.
DT pennt. Oder AMD weiß selbst noch nicht, wie seine eigenen Samples getaktet sein sollten und schiebt die echten, höheren Taktraten per BIOS-Update einen Tag vor Launch nach.
Was klingt wahrscheinlicher?
MadManniMan
2007-11-12, 21:40:01
Warum wird eigentlich noch von 1200 MHz geredet? Alle Leaks zeigen auf den Screenshots 1125 MHz :|
laser114
2007-11-12, 22:20:22
Spricht eigentlich das anscheinend gefixte AA/AF-Problem dafür, dass AMD noch eine Weile mit der Architektur hantieren wird (sprich der R700 diese hauptsächlich auch nutzen wird)?
War ja wohl der Hauptkritikpunkt. Jetzt müsste man sich noch ans Ziel setzen die Shader unabhängig wie bei Nvidia takten zu können, und dann könnte man mit mehr anderen Funktionseinheiten kommen.
mapel110
2007-11-12, 22:32:19
Erstmal muss man sich um die Texturfüllrate kümmern und das geht nur über die Breite des Chips bei ATI. Taktraten sind ja schon hoch (zu hoch).
Und dann kommt dabei die Frage auf, ob man das Design einfach so verbreitern kann ohne große Verluste bei der Taktung einzubüßen. Also derzeit sieht für mich zumindest die R6xx-Architektur nach einer Sackgasse aus. Aber ATI hatte ja genügend Zeit, um das alles zu überdenken.
sry4offtopic ;(
Und gefixte AF-Performance? Kann man das irgendwo nachlesen?
laser114
2007-11-12, 22:47:58
Und gefixte AF-Performance? Kann man das irgendwo nachlesen?
Nun, die Tests der 3870 sprechen dafür, die verliert mit AF kaum. Ein Problem bleiben natürlich die Füllraten, zaubern können die Ingenieure bei AMD auch nicht.
Nun, die Tests der 3870 sprechen dafür, die verliert mit AF kaum.
Sie verliert in dem einen Test mehr Leistung beim Zuschalten mit AF als die 8800GT...
Sie verliert in dem einen Test mehr Leistung beim Zuschalten mit AF als die 8800GT...
Sie verliert weniger als die 8800GT. Relativ gesehen.
J0ph33
2007-11-12, 23:26:02
AF!
die 8800GT verliert bei dem letzten test nichts bei hinzuschalten von AF, die 3870 gleich mal zweistellige Prozente...
das AA scheint zumindest im 3dm06 erstmal recht gut im griff...aber auch das ist alles bisher nur spekulation
MadManniMan
2007-11-12, 23:26:35
Nun, die Tests der 3870 sprechen dafür, die verliert mit AF kaum. Ein Problem bleiben natürlich die Füllraten, zaubern können die Ingenieure bei AMD auch nicht.
Bei der AF-Performance mußte nix "gefixt" werden, weil wenig Füllrate nunmal unmittelbar in mäßiger Leistung resultiert, wenn man die Qualität ganz hoch schraubt.
Wenn AF mit AA zusammen dann aber doch mal schneller sein sollte - ja dann liegts am eventuell gefixten AA.
AF!
die 8800GT verliert bei dem letzten test nichts bei hinzuschalten von AF, die 3870 gleich mal zweistellige Prozente...
das AA scheint zumindest im 3dm06 erstmal recht gut im griff...aber auch das ist alles bisher nur spekulation
"Relativ" übersehen?
Das Problem ist, dass 4 Quad-TMUs einfach zu wenig sind, um mit den 7 "Octo"-TMUs der 8800GT mitzuhalten, man greift zu "Optimierungen", die einfach nerven.
Hvoralek
2007-11-13, 01:10:21
So sicher ist das nicht. Die nie erschienene "Dragons Head 2" aka XTX sollte eine TDP von 240W haben, die OEM-Version "Dragons Head" mit full-size Design sogar 270W. Die niedriger getaktete "Catseye", also die XT wurde damals ebenfalls mit 240W angegeben, läuft allerdings auch mit zwei 6-Pin Stromstecker, kann also schonmal prinzipiell nicht mehr als 225W TDP haben.Hast Du mal irgendeine TDP- Angabe von 200W oder weniger gesehen? Ich bin nur welchen begegnet, die darüber lagen. Oft auch 240W gerade von Dir, wenn es darum ging, was für große Spielräume ATI da einplant :wink:
Allerdings kommen mir 200W auch ausgehend von den Xbit- Messungen zu wenig vor. Wenn dieser 3DMarktest wirklich nicht optimal ist und selbst unter realen Bedingungen mehr als die dort gemessenen 160W erreichbar sind, kann man unter Laborbedingungen eigentlich nicht nur auf 200W kommen.
lol sicher nicht aber das Overclocking ist somit stabiler und besser :) und das ist wieder im Preis mit drin nicht wie bei Nvidia eine andere Karte lol ;) man munkelt ja von 1.2GHz Coretakt die schon ereicht worden sind :DAMD muss erst noch die Taktraten um 50 MHz senken, aber dann sollen ohne weiteres 400MHz Übertaktung drin sein? Du arbeitest nicht zufällig bei Flagship, oder? :|
das Featureset des G92 ist veraltet. Ausser dem langsamen SSAA ist Featureset des RV670 in DX10 Titeln ueberlegen, und ermoeglicht natives FSAA ohne Hacks und Bildfehler.AA bei verzögertem Shading scheint ja der einzige nennenswerte Vorteil von D3D10.1 zu sein. Wie sieht es damit eigentlich aus? In GoW gibt es im ganz normalen D3D10- Pfad hochoffiziell AA. Gibt es dabei Bildfehler?
"Relativ" übersehen?
Das Problem ist, dass 4 Quad-TMUs einfach zu wenig sind, um mit den 7 "Octo"-TMUs der 8800GT mitzuhalten, man greift zu "Optimierungen", die einfach nerven.Relativ zu was? Relativ zur Leistung ohne AF verliert, wie auch gesagt wurde, die GT nichts und die 3870 16%. Das Problem ist die viel zu knappe Filterleistung, klar.
-/\-CruNcher-/\-
2007-11-13, 02:45:02
AMD muss erst noch die Taktraten um 50 MHz senken, aber dann sollen ohne weiteres 400MHz Übertaktung drin sein? Du arbeitest nicht zufällig bei Flagship, oder? :|
Nein arbeite nicht bei Flagship hehe, und ja ich bin auch überascht das es so gekommen ist und wieso das weiss der Geier (Marketing mal wieder?) mit Yield hat es jedenfalls nix zu tun (glaub ich nicht dran), die 825MHz waren angepeilt und sind für jede 3870er Karte die in den Handel kommen wird ereichbar (es wird aber auch nur begrenzte Stückzahl geben Anfangs wie bei Nvidia da man sich auf die HD3850 konzentriert), was allerdings dadrüber geht weiss ziemlich so niemand (860MHz bisher laut VR-Zone test via Overdrive stable und 885MHz werden von Overdrive selbst als Ende ausgespuckt in den Screens) aber bei der mal am Anfang angegebenen TDP von 135W kann man damit rechnen das der Chip und das Referenz PCB noch einiges an reserven übrig hat und 1GHz sind da sicher machbar im Vergleich zum R600. Wird auch alles Dynamisch gesteuert und ATI scheint in Overdrive nicht über die 105W TDP zu gehen obwohl 135W möglich sein sollten, liegt ganz klar am CNQ ansatz, würde bei höherem Overclocking mächtig Probleme geben wenn die Karte plötzlich mit den GPU volt runter geht, deshalb müssen wir Manuele tests abwarten mit abgeschaltetem Powerplay.
Beim G92 weiss man das Max 850MHz @ 1.3V drin sind (geht natürlich über die 110W TDP, wegen Overvolt).
http://www.hwbot.org/cewolf/?img=2012685974&width=600&height=300&iehack=.png
Noch mehr Mehrwert (Alarm)
Man bekommt sogar noch ne PowerDVD 7 Lizenz "gratis" (bei Sapphire) und die bekommt nun jeder "gratis" (Reviewer sollten schon etwas besser aufpassen LOL) :D
http://s2.directupload.net/images/071113/s7gq74nt.jpg
http://infomars.fr/forum/index.php?showtopic=1023
Bei Asus gibts dafür 2 Spiele dazu Company of Heroes Opposing Fronts und Call of Juarez + alle Asus hausinternen Tools, bei Sapphire und His nur Call of Juarez.
die Asus Karte hat dieses Spiel klar unter ihrem Motto der Kühler wird genau das gleiche Motiv haben wie schon die 8800 GT zuvor
http://s3.directupload.net/images/071113/ykp6odlh.jpg
Der Sapphire Aufkleber sieht doch ein wenig anders aus als wie auf den vorab veröffentlichten Website Daten hier (die roten linien im Hintergrund fehlen (wieder Kostenoptimierung) wie schon bei der Reviewkarte ersichtlich)
http://s2.directupload.net/images/071113/nh26lm6a.jpg
His verzichtet gänzlich auf einen Aufkleber (maximale Kostenoptimierung?)
http://s1.directupload.net/images/071113/ewendffv.jpg
seahawk
2007-11-13, 07:03:15
Schöne Bilder einr tolle Karte. Die Gerüchteküche vermeldet 900+ Mhz als Standardoverclock.
BlackBirdSR
2007-11-13, 07:15:03
Kurz vor dem Release eines Hype-Produkts steigen die Erwartungen immer ins Unermessliche ;)
Ich würde einfach noch ein wenig warten und ganz nüchtern an die Sache rangehen. ATI vollbringt keine Wunder, und der größte Pluspunkt bei OEMs und anderen Herstellern ist die niedrigere Verlustleistung. Ob die Karte jetzt 10 oder 20% hinter einen 8800GT liegt, ist denen egal. Hauptsache billiger, leiser und weniger Verbrauch. Und diesen Weg könnte ATI eingeschlagen haben...
seahawk
2007-11-13, 07:39:40
Ob die KArte wirklich langsamer ist muss man abwarten.
MadManniMan
2007-11-13, 07:40:46
Wann gibt es wohl nächste Leaks? ;( Ich werd hier ganz kirre... nicht, daß ich was kaufen möchte, aber ich brenne doch sehr!
MartinRiggs
2007-11-13, 08:20:03
dann solltest dich löschen, wenn du brennst:biggrin:
Was soll ich sagen? Wollte die 8800GT kaufen was mangels verfügbaren Karten nicht möglich ist, jetzt dauert es nur noch wenige Tage bis zur HD3870, was tun sprach Zeus:frown:
-/\-CruNcher-/\-
2007-11-13, 08:21:36
Endlich ein Crysis vergleich ohne Nvidia Treiber Fehler :) (VISTA)
HD3870 @ 777MHz
http://www.iax-tech.com/video/3870/3870crysis2.png
8800 GT @ 600MHz mit Performance Driver (Reflection Bug 196.04)
http://www.iax-tech.com/video/3870/8800crysis2.png
8800 GT @ 600MHz (renamed Crysis.exe->1234.exe)
http://www.iax-tech.com/video/3870/8800crysis6.png
Jetzt fehlt nurnoch ein Graph der die gesamte Laufzeit beinhaltet :)
Mensch wieso hab ich die Karten nicht hier ich würd das in Null komma nix anfertigen *grml*
AnarchX
2007-11-13, 08:24:17
R680(HD3870 X2) runs at close to 800 MHz, surprisingly small and slated for early February (http://www.nordichardware.com/news,7038.html)
Da will man wohl das 1 TFLOP knacken.:D
Laut PCinlife soll sie zudem 12" lang sein und immernoch auf die PLX-Bridge setzen.
Endlich ein Crysis vergleich ohne Driver Cheating :) (VISTA)
[...]
Wohl eher ein Bug als Cheating, wenn sie hier schneller ist mit der Exe-Umbenennung... ;)
-/\-CruNcher-/\-
2007-11-13, 08:34:00
R680(HD3870 X2) runs at close to 800 MHz, surprisingly small and slated for early February (http://www.nordichardware.com/news,7038.html)
Da will man wohl das 1 TFLOP knacken.:D
Laut PCinlife soll sie zudem 12" lang sein und immernoch auf die PLX-Bridge setzen.
Wohl eher ein Bug als Cheating, wenn sie hier schneller ist mit der Exe-Umbenennung... ;)
Hat nicht viel zu sagen, weil sich nun die Sache verschiebt nur ein Graph kann Aufschluss drüber geben was wirklich los ist. (Anderes Games Benchmarking ist unseriös, und sollte verboten werden)
übrigens die 2 FPS die dort fehlen sollten mit 825MHz ereichbar sein und wenn ich mir das genauer anschaue und mit meinen alten Vorabkalkulationen vergleiche sogar drüber gehn (so wie die HD3870 ja eigentlich auch released werden sollte aber aus bisher noch nicht bekannten Gründen nicht wurde/wird, wieso künstlich hinter die GT platzieren???)
seahawk
2007-11-13, 09:45:22
Cooler Cheat, wenn er langsamer ist.
AnarchX
2007-11-13, 10:01:43
Hat nicht viel zu sagen, weil sich nun die Sache verschiebt nur ein Graph kann Aufschluss drüber geben was wirklich los ist. (Anderes Games Benchmarking ist unseriös, und sollte verboten werden)
übrigens die 2 FPS die dort fehlen sollten mit 825MHz ereichbar sein und wenn ich mir das genauer anschaue und mit meinen alten Vorabkalkulationen vergleiche sogar drüber gehn
Und wie soll das gehen:
14.77 -> 16.77FPS : 13% mehr Leistung
777 -> 825MHz: 6.2% mehr Leistung
btw.
Hat IAX überhaupt AF aktiv? Ist jedenfall nicht erkennbar...
(so wie die HD3870 ja eigentlich auch released werden sollte aber aus bisher noch nicht bekannten Gründen nicht wurde/wird, wieso künstlich hinter die GT platzieren???)
Nunja, man brauch halt ein gutes Yield für einen Preis von $239 anstatt der ganz früher geplanten $299 und zudem soll ja auch Overdrive verfügbar sein. ;)
Cooler Cheat, wenn er langsamer ist.
Es ist nicht langsamer, das würde ja schon bestätigt. keine Ahnung, was hier zusammengemessen wurde. Vielleicht wurden die Bilder schlicht vertauscht.
Spider Platform mit vier RV670 CF:
http://blog.yam.com/hardwareclub/article/12562032
-/\-CruNcher-/\-
2007-11-13, 10:27:14
Und wie soll das gehen:
14.77 -> 16.77FPS : 13% mehr Leistung
777 -> 825MHz: 6.2% mehr Leistung
btw.
Hat IAX überhaupt AF aktiv? Ist jedenfall nicht erkennbar...
Nunja, man brauch halt ein gutes Yield für einen Preis von $239 anstatt der ganz früher geplanten $299 und zudem soll ja auch Overdrive verfügbar sein. ;)
R670 +50MHz sind + 2 FPS (voraussichtlich) +100MHz = + 4 FPS
G92 +50MHz = + 3 FPS + 100MHz = + 6 FPS
Und ich werd sicher nicht 270 Euro zahlen wenn ich für 240 Euro + Mehrwert Spiel + PowerDVD 7 Lizenz - 10% Leistung die eh nix bringen, selbst wenn wir darüber noch tagelang diskutieren, ist doch wohl logisch oder nicht :D mit der HD3870 spar ich sogar noch ca 40 Euro (Mehrwert) und das sind mir 10% 1 FPS locker wert, und dafür hab ich dann ein Leises Produkt was auch nochmal weniger Strom verbraucht aber das selbe Spielgefühl gibt und wenn ich mehr Power brauch kann ich mir später noch ne dann billigere HD3850 oder HD3870 dazu holen. Ich versteh einfach nicht wo man da noch diskutieren muss die jetzigen 8800 GT Preise sind und bleiben für mich überteuert. Ich sage ja auch nicht das Nvidia (noch den das kann sich ganz schnell ändern jetzt wo AMD/ATI perfekt Symbionieren) nicht die bessere Architektur besitzt, sondern einfach das sie zuviel Geld für einen Performance Gewinn wollen der das nie und nimmer rechtfertigen kann, aber bessonders die Gamer lassen sich von diesen 2 fps blenden.
Wenn die 8800 GT mit einem schönen Bundle im 250 Euro bereich verfügbar gewesen wäre, hät ich nie was gesagt aber die schlechte verfügbarkeit ist und bleibt ein Armutszeugniss und das werden viele andere auch so sehen die Analysten sehen es schon als einen verlust für Nvidia und diesen Comeback Krieg hat AMD/ATI schon gewonnen in deren augen, es sei denn zum Retailstart der HD3870 erscheinen genügend 8800 GT mit Bundles zu akzeptablen preisen (und meine Vermutung ist genau das haben sie vor deswegen die ganzen Verzögerungen).
Am fairsten finde ich immernoch im 8800 GT bereich MSIs OC Angebot aber das ist eben nicht verfügbar.
AnarchX
2007-11-13, 10:32:17
R670 +50MHz sind + 2 FPS (voraussichtlich) +100MHz = + 4 FPS
G92 +50MHz = + 3 FPS + 100MHz = + 6 FPS
:|
Naja, im Endeffekt ist die HD3800-Serie durchaus gelungen.
Aber ich tendiere doch momentan mehr zu einer 8800GT, wegen wie schon erwähnt der besseren AF-Leistung, UE3-MSAA-Hack und eben H-SSAA, was wohl doch öfters nutzbar ist als manche hier eingestehen wollen.
Aber die Reviews warte ich natürlich noch ab und da ich es nicht so eillig habe, wohl auch noch die Custom-Designs der AIBs mit Dual-Slot-Kühler und je nach Aufpreis vielleicht auch mit 1GiB.
Also ich tendiere klar zur HD3870, weil sie ungefähr die gleiche Leistung liefert, weil sie unter Idle deutlich weniger Strom zieht (für mich das KO Kritterium), weil sie unter Last weniger Strom zieht, weil sie einen Dual-Slot Kühler bietet (der die warme Abluft aus dem Gehäuse befördert- auch das ein KO Kritterium für mein HTPC), weil sie den besseren Videoprozessor hat, weil der Lieferumfang in Form von PowerDVD 7 und einem Spiel einfach besser ist.
Gruß
3DoMan
Ich finde immer noch, dass es zu früh ist, irgendwelche "Kriterien" aufzustellen. Noch wissen wir fast gar nix. Erst sollten mal einige Reviews abgewartet werden. Denn AMD-Folien und 1-2 Bilder als verlässliche Quelle zu sehen, halte ich für fahrlässig.
Adam D. @ work
StevenB
2007-11-13, 11:06:46
Fakt is aber auch
gegenüber zur alten 2900pro/XT is der HD3870 ein meilen stein. So hat man viel leistung im bereich von 250 euro, wo wir vor 2 jahren noch 400 euro wohl gezahlt haben.
Sorry aber so ist es doch immer, klar in 2 Jahren hab ich wieder ein Produkt was schneller ist, und weniger Geld kostet. Und das jedesmal eine neue Grafikkarte ein Fortschritt ist, ist doch normal....
Ich werde die Tests abwarten, denn momentan hab ich noch eine GTS640MB drin, und bin voll zufrieden.
DrFreaK666
2007-11-13, 11:11:19
Gibt es schon Infos über die lautstärke?
Sorry aber so ist es doch immer, klar in 2 Jahren hab ich wieder ein Produkt was schneller ist, und weniger Geld kostet. Und das jedesmal eine neue Grafikkarte ein Fortschritt ist, ist doch normal....
Ich werde die Tests abwarten, denn momentan hab ich noch eine GTS640MB drin, und bin voll zufrieden.
Ich meine ja auch die HD3870 und 8800GT in dem bereich 250 eus. Wo wir früher bei der leistung wohl um die 400 gezahlt hätten oder haben. Und soalt is der 2900er noch nich. Achja, und du mit deiner 640GTS brauchst dir garkeine gedanken machen was leistung angeht. Wenn dann lohnt sich schon eher der sprung zur G92 GTS mit 1GB :) Lass dir net irre machen von PowerDVD und Co. ;D
Beide Karten haben ihre Argumente, das ist doch jetzt schon klar. Spekuliert wird, dass die HD3870 insgesamt langsamer ist als die 8800GT. Gut, dafür kostet sie weniger, verbraucht wohl weniger, bleibt kühler. Aber: wir wissen über die Performance zu wenig. Es kann immer noch sein, dass sie die Kinderkrankheiten des R600 geerbt hat. Sind ja nur noch einige Tage, dann wissen wir mehr ;)
Adam D. @ work
Die Vorteile der HD sind klar mehrmals aufgezählt worden. Es geht hier auch nicht um "Absolut High End", sonder um bezahlbares High-End für die Massen. Die paar GTX@Ultra User sind nicht der Rede wert.
ATi hat keine High-End Karten mehr, hast du das immer noch nicht begriffen?
Performance-Segment != High-End.
-/\-CruNcher-/\-
2007-11-13, 11:49:49
Was willst von so Kindern wie -/\-CruNcher-/\- verlangen? Was der für eine scheisse zusammen labert is krass³. Wie kann man sich, über eine karte so freuen dieEndlich die 8800GTS 640 voll im griff hat. Und dafür wollen die 240 euro? Die locken ja schon die Dämlichen fanboys mit PowerDVD und co. damit die überhaubt gekauft wird. ganz grosses Kino. Fakt is aber auch
gegenüber zur alten 2900pro/XT is der HD3870 ein meilen stein. So hat man viel leistung im bereich von 250 euro, wo wir vor 2 jahren noch 400 euro wohl gezahlt haben.
Ich hab noch eine 7600 GS (ich bin entäuscht von Nvidias Treibern bessonders im Video bereich) und ich ich brauch endlich was besseres da ich nun nen 22 zoll TFT hab und gerne in voller Auflößung spielen würde und ich bin kein Kind da ich diesen Update Wahn wie andere nicht mitmache ich warte lieber würde (eigentlich) nie mehr als 200 Euro für ne Grafikkarte ausgeben (und wenn es ne HD3850 wird hauptsache in 1680x1050 läuft Crysis in Medium-High annehmbar mit 25-30 FPS).
Zum anbeißen :smile:
http://www.techpowerup.com/img/07-11-13/quadrv670-3.jpg
http://forums.techpowerup.com/showthread.php?p=530682
K4mPFwUr$t
2007-11-13, 12:00:00
@cruncher
laut deinen ganzen comments ist ATI das einzigst wahre, aber auch ATI/AMD hat seine kehrseiten. das scheinen einige zu ergessen. zumal wenn du wirklich geglaubt hast das man mit einer 7600GS einen 22"er mit high details spielen kannst, bist du selber schuld.
@up¦²
die stromkosten will ich nicht wissen :ulol:
aber wellche 3d app nutzt 4 grakas bitte aus?
quad SLI war teilweise lamer als das normale SLI, bei crossfire schauts bestimmt nicht anders aus?
-/\-CruNcher-/\-
2007-11-13, 12:07:15
Naja ich hatte davor nen 17 Zoll tft und da hab ich immer in 1024 gespielt und das lief auch immer sehr anständig, und ich spiele meistens eh nur Adventure aber gelegentlich auch mal nen FPS Stalker lief auch noch ganz annehmbar auf dem 17 zoll aber mit 22 ist das nu nicht mehr so super und nu muss ich halt mal wechseln und da kommt mir es gelegen das Highend in den Mainstream-Performance bereich gefallen ist, meine Karte macht momentan knapp 2000 3Dmark 06 punkte was meinsten wie glücklich ich mit den 8000 von ner HD3850 schon wär, aber da sich nun der Preiskampf abzeichnet wirds vieleicht ne 3870 oder 8800 GT, wobei ich eher zu ATI tendiere wegen dem ganzen Mehrwert und die Video Erfahrung (war auch recht zufrieden mit meiner 9800pro nur ist die durchgebrannt, weil der Silencer lüfter den geist aufgab und ich es nicht gemerkt hab ;) ).
@K4mPFwUr$t
Strom ist bei sowas doch Nebensache...
Obendrein sind es 50er und passen sich die Dinger nach Bedarf an!
Alle Games die CF unterstützen (sind garnicht so wenige...) sollten rennen.
Abert eben ein Hingucker :wink:
AnarchX
2007-11-13, 12:15:08
Alle Games die CF unterstützen (sind garnicht so wenige...) sollten rennen.
Nunja, DX9-Games können schonmal definitiv nicht mit 4-Way-AFR laufen und SFR scheint ATi auch nicht zu bieten, wohlmöglich gibt es dann ein "Scissored AFR", was wohl genauso sinnfrei wie damals SFR of AFR war bei NV...
BvB123
2007-11-13, 12:15:13
die stromkosten will ich nicht wissen :ulol:
Das dürfte nicht mehr sein als 2 8800Ultra im SLI ;)
ATi hat keine High-End Karten mehr, hast du das immer noch nicht begriffen?
Performance-Segment != High-End.
High-End ist der verkehrte Weg... :wink:
Genau wie bei der CPU Multi-Core den Schnellheitswahn abgelöst haben, läuft das auch bei GPU's bald, sehr bald!
Das sind nur nch PR-Scharmützel... wer hat den "Schnellsten"
Was genügt... darum gehts.
Und da steht selbst der Schnesllste Mono-superdrooper da wie ein Depp (Dx10 ahoi!)
Also ich bin auf Quadcore gespannt wie ein Flitzebogen, einfach mal zum Antesten der "Reserven"
Single-GPU ist bei der Endstation angekommen, wie gesagt, wie die CPU's:tongue:
-/\-CruNcher-/\-
2007-11-13, 12:21:23
High-End ist der verkehrte Weg... :wink:
Genau wie bei der CPU Multi-Core den Schnellheitswahn abgelöst haben, läuft das auch bei GPU's bald, sehr bald!
Das sind nur nch PR-Scharmützel... wer hat den "Schnellsten"
Was genügt... darum gehts.
Und da steht selbst der Schnesllste Mono-superdrooper da wie ein Depp (Dx10 ahoi!)
Also ich bin auf Quadcore gespannt wie ein Flitzebogen, einfach mal zum Antesten der "Reserven"
Single-GPU ist bei der Endstation angekommen, wie gesagt, wie die CPU's:tongue:
Jep dabei hatte man genug Zeit aber man musste ja noch alles ausquetschen bis es nicht mehr geht, bessonders aus den High End käufern.
Und ehrlichgesagt kann ich über die Crysis Engine nur lachen im Vergleich zur UE3 gibts da keinen vergleich mehr zur Spielbarkeit und der Grafikqualität die Entwickler von Epic sind ja noch vernünftig was die Balance angeht (CryEngine ist einfach noch zu jung).
Zugegeben Spekulation, aber könnte eine ganz wichtige Seite werden:
http://ati.amd.com/technology/crossfire/Gaming.html
http://ati.amd.com/technology/crossfire/index.html
http://ati.amd.com/technology/crossfire/games/crytek/index.html
2x 150 300 erschwinglich
4x 150 600 wem's Spaß macht
Single-GPU ist bei der Endstation angekommen, wie gesagt, wie die CPU's:tongue:
Genau, deswegen verbaut man zwei Single-GPU. :ugly:
AnarchX
2007-11-13, 12:36:18
Es ist nicht langsamer, das würde ja schon bestätigt. keine Ahnung, was hier zusammengemessen wurde. Vielleicht wurden die Bilder schlicht vertauscht.
Sieht nicht so aus:
http://www.xtremesystems.org/forums/showpost.php?p=2553023&postcount=990
:wink:
2x 150 300 erschwinglich
4x 150 600 wem's Spaß macht
Wenn schon ~170€, die 256MB im CF zu betreiben wäre ja ziemlich sinnfrei.
Mal schaun, wie sich die Preise entwickeln, wenn wirklich Stock da ist.
War selten so spannend auf gute Reviews zu warten...
MadManniMan
2007-11-13, 13:01:08
War selten so spannend auf gute Reviews zu warten...
Ehrlich gesagt finde auch ich das Ganze aufregender, als es eine neuerliche Übernahme der Performance-Krone im > 400,- Bereich wäre. Die Luft ist stickig und steht doch unter Spannung; für AMD ists ungeheuer wichtig, nach den günstigen X2s und der X1950 Pro mit zumindest einem weiteren Produkt wirklich konkurrenzfähig zu sein.
Nunja, DX9-Games können schonmal definitiv nicht mit 4-Way-AFR laufen und SFR scheint ATi auch nicht zu bieten, wohlmöglich gibt es dann ein "Scissored AFR", was wohl genauso sinnfrei wie damals SFR of AFR war bei NV...
Unter DX9 werden wohl nur 3 Karten wirklich sinnvoll eingesetzt, evtl. die 4. als Physikkarte? - Denn wirklich sinnvoll ist SFR of AFR bei QuadSLI ja nicht gewesen, daher denke ich dass ATi aus den fehlern QuadSLI's gelernt hat ;)
Unter DX10 sieht es ja anders aus da dort auch 4-Way-AFR möglich ist, was dann doch eine sehr interessante Skalierung mit sich bringen dürfte.
Es geht aber schoon los:
http://www.expreview.com/news/hard/2007-10-17/1192603634d5380.html
quadcore psu...
"Man" weiß ja nicht, was Streammäßig so läuft...
http://www.expreview.com/news/hard/2007-11-13/1194926572d6915.html
BTW... und eine Geschenkverpackung gibt's auch schon :eek:
http://www.expreview.com/news/hard/2007-11-13/1194942071d6919.html
Super Grobi
2007-11-13, 13:12:44
Somit wird es wohl die Ati nicht im Bundle mit Cysis geben, oder?
http://www.alternate.de/html/productDetails.html?artno=JBXZL7
Wäre für mich interessant gewesen (70er+Cysis)
SG
Somit wird es wohl die Ati nicht im Bundle mit Cysis geben, oder?
http://www.alternate.de/html/productDetails.html?artno=JBXZL7
Wäre für mich interessant gewesen (70er+Cysis)
SG
Wer zu früh kommt, den bestraft das Leben manchmal auch, Gorbi :smile:
PS: da kommt doch was von DELL
http://www.alienware.com/
4 Vitamins
2007-11-13, 13:51:31
Kam das schon?
--------------------------------------------------------------------------------
http://www.xtremesystems.org/forums/showthread.php?p=2553277#post2553277
17960 mit 2x3870@stock im 3Dmurks06
Kam das schon?
--------------------------------------------------------------------------------
http://www.xtremesystems.org/forums/showthread.php?p=2553277#post2553277
17960 mit 2x3870@stock im 3Dmurks06
und einzeln hat er jetzt auch gemacht:
http://www.xtremesystems.org/forums/showthread.php?t=162985&page=41
Nebenbei:
hat AMD Nvidia ausgepokert? ;D
http://www.tgdaily.com/content/view/34818/118/
Nunja, DX9-Games können schonmal definitiv nicht mit 4-Way-AFR laufen und SFR scheint ATi auch nicht zu bieten, wohlmöglich gibt es dann ein "Scissored AFR", was wohl genauso sinnfrei wie damals SFR of AFR war bei NV...
Natürlich bietet ATi SFR. Sowohl Supertiling als auch Scissor arbeiten nach dem SFR prinzip.
5500$ Alienware-PC mit HD3870-CF:
http://www.alienware.com/product_detail_pages/Area-51_ALX/area-51_specs.aspx?SysCode=PC-AREA51-ALX-R7&SubCode=SKU-DEFAULT#pdp-nav
AnarchX
2007-11-13, 15:35:03
5500$ Alienware-PC mit HD3870-CF:
http://www.alienware.com/product_detail_pages/Area-51_ALX/area-51_specs.aspx?SysCode=PC-AREA51-ALX-R7&SubCode=SKU-DEFAULT#pdp-nav
2x 256MB GDDR4 dedicated video memory
:|
Ein paar zeilen darunter:
"2x 1GB GDDR4 dedicated video memory"
:D
AnarchX
2007-11-13, 15:43:06
Ein paar zeilen darunter:
"2x 1GB GDDR4 dedicated video memory"
:D
Aber davor steht noch etwas:
# Optional Dual ATI® Radeon™ HD 2900XT with Crossfire™ Technology
# 2x 1GB GDDR4 dedicated video memory
Naja mal abwarten, wobei eine 256MB 3870 schon eine ziemlich miese OEM-Version wäre...
Steht übrigens nicht nur dort:
Get Caught in the CrossFire
The new ATI® Radeon™ HD 3870 with CrossFire™ dual graphics technology are the DirectX® 10 screaming graphics firepower that ALX customers have been waiting for. These power-packed dual graphic cards provide the stunning realism and immersive visual quality that propels you deep into your gameplay. Dual 256MB of DDR4 onboard memory, and PCI-Express 2.0 Graphics compatibility, makes sure your next-gen DX10 games can get cranked up to their maximum settings without experiencing any lag in framerates.
http://www.alienware.com/product_detail_pages/Area-51_ALX/area-51_overview.aspx?SysCode=PC-AREA51-ALX-R7&SubCode=SKU-DEFAULT#pdp-nav
reunion
2007-11-13, 16:26:25
Aber davor steht noch etwas:
Naja mal abwarten, wobei eine 256MB 3870 schon eine ziemlich miese OEM-Version wäre...
Steht übrigens nicht nur dort:
http://www.alienware.com/product_detail_pages/Area-51_ALX/area-51_overview.aspx?SysCode=PC-AREA51-ALX-R7&SubCode=SKU-DEFAULT#pdp-nav
Und dafür werden Leute über 5000$ hinblättern. Typischer Bauernfang. Hauptsache zwei Grafikkarten.
StevenB
2007-11-13, 17:19:40
Und dafür werden Leute über 5000$ hinblättern. Typischer Bauernfang. Hauptsache zwei Grafikkarten.
Ist imho das gleiche mit den fertig Rechnern von Otto/Quelle usw... Überteuerte Produkte, die nur Mittelmaß sind. Es gibt leider genug Leute die darauf reinfallen.
Hab gestern erst den LE-40M87BD bei Otto (glaub ich), entdeckt für nur 2000€...
http://geizhals.at/eu/a243658.html
Henroldus
2007-11-13, 18:35:53
Zum anbeißen :smile:
http://www.techpowerup.com/img/07-11-13/quadrv670-3.jpg
http://forums.techpowerup.com/showthread.php?p=530682
naja wenn ich mir die Länge des Netzteils anschaue, die mir 1000W+ suggeriert wohl eher nicht mein Fall
GeneralHanno
2007-11-13, 18:44:48
wann fällt nochmal genau das NDA für die 3800er serie?
naja wenn ich mir die Länge des Netzteils anschaue, die mir 1000W+ suggeriert wohl eher nicht mein Fall
4x105W sind ja auch noch immer über 400W und da kommt noch ein entsprechend dicker Prozzi dazu. Ego wird man bei einem solchen System unter Last evtl. ein 600W NT brauchen, aufgrund der vielen PCIe-Stecker besser eines mit 750W und die sind nunmal größer.
Im Idle brauchte ein solches System aber anscheinend mit 4x30W nicht mehr als ein System mit einer Geforce 8800GTS. Geht doch!
Henroldus
2007-11-13, 18:56:34
und einzeln hat er jetzt auch gemacht:
http://www.xtremesystems.org/forums/showthread.php?t=162985&page=41
läuft der E6850 nun mit 4GHz oder 4,5?
CPU-Z und der 3Dmark widersprechen sich da.
sollte aber nicht viel punkte ausmachen
Ist normal, Windows erkennt den Multi nicht bei manchen Boards.
AnarchX
2007-11-13, 19:27:05
wann fällt nochmal genau das NDA für die 3800er serie?
AFAIK doch am Donnerstag 8:00 Uhr unserer Zeit.
GeneralHanno
2007-11-13, 19:29:22
8 uhr morgens ? dann kann ichs vor der schukle lesen ...
Henroldus
2007-11-13, 20:14:31
AFAIK doch am Donnerstag 8:00 Uhr unserer Zeit.
ich kenne aber auch den 19. Nov als Termin für die komplette Spiderplattform.
Alles zusammen würde natürlich viel mehr Echo in der (Online-)Presse hervorrufen und wäre marketingtechnisch besser.
Die 8800GT gibts momentan eh nicht zu kaufen, daher keine Eile. :biggrin:
Die 8800GT gibts momentan eh nicht zu kaufen, daher keine Eile. :biggrin:
Ja, man wartet lieber, bis Nvidia wieder liefern kann, man könnte ja auf einmal sonst noch Geld verdienen und das ist ja nun wirklich nicht AMDs Ding.
MadManniMan
2007-11-13, 20:28:11
ich kenne aber auch den 19. Nov als Termin für die komplette Spiderplattform.
Alles zusammen würde natürlich viel mehr Echo in der (Online-)Presse hervorrufen und wäre marketingtechnisch besser.
Die 8800GT gibts momentan eh nicht zu kaufen, daher keine Eile. :biggrin:
Wie dem auch sei: für AMDs Marketing-Abteilung siehts recht gut aus im Moment - denn das Interesse ist bei all den halboffiziellen Leaks unheimlich gewachsen.
Hoffen wir auf SalZ MIT Z in der Suppe!
Johnny Rico
2007-11-13, 22:09:03
Bitte haltet die guten Meldungen im Thread zurück und schickt sie mir per PM. Wenn sich herausstellt, dass die Karte ihr Geld wert sein sollte, seh ich schon Alternate mit 300€ für die Karte am Start. Natürlich 2-3 Tage, bevor jeder andere Shop die Karte hat.
Salat
2007-11-13, 22:32:25
Ich schließ mich dem Warten an. Hoffentlich sind die Karten gut verfügbar, meine alte Karte ist schon verkauft :rolleyes:
-/\-CruNcher-/\-
2007-11-14, 04:54:45
So Power Consumption wurde getestet http://www.xtremesystems.org/forums/showpost.php?p=2554957&postcount=1091
HD3870 @ Stock
Idle = 28W
Load = 120w
Ailuros
2007-11-14, 05:50:19
Ich glaube wir reden bischen an einnander vorbei. Ich wollte nur sagen das meiner Meinung nach der g92/g80 mehr mit höherer Speicherbandbreite anfangen kann als ein rv670/r600. Gerade wegen den Gründen die du gerade auch genannt hast. Also sind wir jetzt doch einer meinung oder wie :smile:
Die Relation der Z-Fuellrate und Bandbreite zwischen G80 und G92, sagt mir eher dass interne Tests bei NV gezeigt hatten dass 86+GB fuer den ersten gut genug waren und ebenso 57+ fuer den letzteren.
Du musst den Speicher (aber nur den Speicher) auf >25% knallen auf einer G80, dass die Leistungsteigerung irgendwo an die 8-9% kommt.
Somit finde ich es alles andere als schlimm das der rv670 "nur" over 70gb/sec hat. Das reicht ihm. G92 hat mehr mit seiner Bandbreite zu Kämpfen, der Chip ist in dem Bereich(TMUs,ROPs) einfach Mächtiger als rv670
Wenn man keine bescheuerten "Umwege" fuer AA machen muss und keine verbuggten ROPs hat dann gibt es auch nichts besonderes zu verplempern was die Bandbreite betrifft. Du willst mir doch nicht einreden dass ein Auto dass irgendwo Benzin verliert, mehr Kilometer schaffen wird als ein gleiches ohne Panne oder?
Aber wie gesagt 1200mhz reichen, die Karte wird sowieso viel besser über den GPU takt Skalieren, dafür verwette ich meinen......:biggrin:
mfg martin
Sicher wird sie gut uebertaktbar sein; IHVs sind stets sehr streng mit ihren Sicherheitsmassnahmen. Fuer einen problemlosen Release waren eben momentan nicht mehr als 775MHz moeglich.
maddawn
2007-11-14, 05:53:34
So Power Consumption wurde getestet http://www.xtremesystems.org/forums/showpost.php?p=2554957&postcount=1091
HD3870 @ Stock
Idle = 28W
Load = 120w
Da ist aber noch CPU-Last oder ähnliches bei, die 8800GT braucht bei THG auch 152W.
edit:
Hm ~32W weniger... das wäre seit Jahren das erste Mal das ATI beim Stromverbrauch unter Last ähnlich oder gar besser als eine halbwegs vergleichbare nvidia Karte wäre.
Wobei ich das verwunderlich (ok das kleinere SI spart Transistoren) finde da ja vor dem "Schrink" die 2900xt/pro/gt viel mehr Strom verbrauchte als die 8800GTS.
-/\-CruNcher-/\-
2007-11-14, 07:02:40
Hehe suprise suprise es scheint so (nicht bestätigt) das der Lieferumfang der Sapphire noch einige goodies beinhaltet unter anderem die Black Box von Valve die CD unter der Installationscd wird dann Call of Juarez sein. Dazu gibts PowerDVD7 und die DVD Suite
http://s2.directupload.net/images/071114/6rpbwezl.jpg
MadManniMan
2007-11-14, 07:05:04
...dafür ist der Shrink auf 55nm auch extremer - bei nem linearen Shrink hat man nur noch 70% der Die-Fläche, verglichen mit 65nm
-/\-CruNcher-/\-
2007-11-14, 07:16:40
Max Core Clock mit PowerPlay scheint sich bei 850MHz einzupendeln (HD3870) via Overdrive
AnarchX
2007-11-14, 07:46:11
Erste OC-H3850 mit Custom-Kühler:
http://img220.imageshack.us/img220/2159/385051714a111fi4.jpg
http://www.expreview.com/news/hard/2007-11-14/1195012610d6928.html
Erste OC-H3850 mit Custom-Kühler:
http://img220.imageshack.us/img220/2159/385051714a111fi4.jpg
http://www.expreview.com/news/hard/2007-11-14/1195012610d6928.html
sieht "laut" aus... 2 kleine Lüfter, hmm
wenn schon Custom, dann wenigstens ein gescheiter Dual-Slot Kühler wie bei der HD3870..
-/\-CruNcher-/\-
2007-11-14, 08:04:05
700 MHz ist aber nicht wirklich OC Overdrive zeigt ja bis zu 770MHz als standard an, das interessante an der Karte ist imho das sieh keinen HDMI Dongle brauch der HDMI anschluss ist schon verbaut
@Gast
Die 2 lüfter werden wenig zu tun haben, da wie du siehst da noch ne Heatpipe am Werkeln ist, das ist bei den Stock Karten nicht Heatpipe wurde da eingespart.
MadManniMan
2007-11-14, 08:04:19
Max Core Clock mit PowerPlay scheint sich bei 850MHz einzupendeln (HD3870) via Overdrive
Mit Overdrive heißt, die Karte lotet automatisch die Übertaktung aus?
Erste OC-H3850 mit Custom-Kühler:
http://img220.imageshack.us/img220/2159/385051714a111fi4.jpg
Junge, ist die häßlich :eek:
-/\-CruNcher-/\-
2007-11-14, 08:27:32
Mit Overdrive heißt, die Karte lotet automatisch die Übertaktung aus?
Junge, ist die häßlich :eek:
Naja nicht ganz sie gibt einen gewissen rahmen an soweit ich sehen kann bis 885MHz bei der HD3870 aber 2 Reviewer bis jetzt haben anscheinend nur 850 und 860MHz stabil zum Benchen bekommen, aber ich würde sagen abwarten so sieht das ganze dann aus (ich nehme mal an sie haben Auto Tune gedrückt und es stellt sich dann selbst ein).
http://strony.aster.pl/pmpcfg/PC/ATI_HD3780/3D/ATI_HD3870_3D06_10904.png mit 860MHz hat sie jedenfalls ne GT @ Stock im 3Dmurks06 geschlagen
das hier siehr sehr übel aus http://www.iax-tech.com/video/3870/38706.htm könnte aber mit 860MHz schon wieder ganz anders aussehen
Super Grobi
2007-11-14, 08:29:13
So Power Consumption wurde getestet http://www.xtremesystems.org/forums/showpost.php?p=2554957&postcount=1091
HD3870 @ Stock
Idle = 28W
Load = 120w
SEHR geiler Idle Wert für eine so moderne Gamer-Graka! Warum nicht gleich so?
Gruß
SG
seahawk
2007-11-14, 08:37:21
Das Zwei-Lüfter-Design sieht ja mal dumm aus. Hatte Sparkle nicht auch zu 6800er oder 7800er Zeiten mal so etwas im Angebot mit sogar 3 Lüftern ?
AnarchX
2007-11-14, 08:42:55
SEHR geiler Idle Wert für eine so moderne Gamer-Graka! Warum nicht gleich so?
Wie wurde diese Differenz überhaupt ermittelt?
Was bedeutet dort "Just PC" (IGP?)?
Lets look at the results so far:
JUST PC: 127.4W
w/3870 : 155.0W idle
------------------------
: 027.6W idle 3870
Ich bezweifele, dass man ein Setup wie Xbitlabs hat und die Karte direkt messen kann.
Wenn der IGP aktiv war, so ist die Differenz doch höher und eine 8800GT liegt wohl auch unter 40W Idle.(Leider gibt es immernoch keinen Test von Xbitlabs...)
-/\-CruNcher-/\-
2007-11-14, 08:44:38
Die Konstruktion ist ja mal wirklich (billig) da sieht Nvidias 1 Slot Kühler aber durchdachter aus ,ob man da trotz der 55nm nicht was besseres hätte nehmen können (naja Kostenoptimierung halt) und die ganzen Kühler Hersteller wollen ja auch von was Leben ;) da kommt mir selbst der Kühlblock der HD3850 durchdachter vor sehr merkwürdig (jut bei dem 3870 gehts in die Höhe beim 3850 in die breite)
http://strony.aster.pl/pmpcfg/PC/ATI_HD3780/ATI_HD3870_8.jpg
http://strony.aster.pl/pmpcfg/PC/ATI_HD3780/ATI_HD3870_9.jpg
zum vergleich nochmal http://bbs.pcpop.com/UpLoadImages/2007/11/12/0x0/2a412234-4483-4ad1-ae24-fbade58e20ad.jpg
edit:
Hm ~32W weniger... das wäre seit Jahren das erste Mal das ATI beim Stromverbrauch unter Last ähnlich oder gar besser als eine halbwegs vergleichbare nvidia Karte wäre.
Wobei ich das verwunderlich (ok das kleinere SI spart Transistoren) finde da ja vor dem "Schrink" die 2900xt/pro/gt viel mehr Strom verbrauchte als die 8800GTS.
Warte doch mal die endgültigen Werte ab, ich kann mir gut vorstellen, dass ATI auch dieses Mal mehr Strom verbraucht als Nvidia.
Warte doch mal die endgültigen Werte ab, ich kann mir gut vorstellen, dass ATI auch dieses Mal mehr Strom verbraucht als Nvidia.
Würde mich auch nicht wundern, das Ding taktet immerhin auch erheblich höher. Aber zumindest der idle-Wert sollte niedriger liegen.
reunion
-/\-CruNcher-/\-
2007-11-14, 09:22:40
3Dmurks06 Ergebnisse (gleiches System ich nehme an die GT lief stock @ 600MHz)
HD3870 (777/1126MHz) @ 860/1351MHz = 12961
8800 GT ??? ????? @ ???/??? = 12495
Schlammsau
2007-11-14, 09:25:40
wann is es endlich soweit, kanns kaum noch erwarten! :)
SavageX
2007-11-14, 09:30:01
Würde mich auch nicht wundern, das Ding taktet immerhin auch erheblich höher.
Bei Nvidia takten die Shader doch einen guten Tacken höher?
Also bis jetzt deutet nichts darauf hin, dass ATI diesesmal die rote Laterne bei der Energieeffizienz rumschleppen muss.
AnarchX
2007-11-14, 09:44:09
Also bis jetzt deutet nichts darauf hin, dass ATI diesesmal die rote Laterne bei der Energieeffizienz rumschleppen muss.
Nunja, momentan sieht es nach gleichem Last-Verbrauch bei teilweise deutlich niedriger Leistung aus.
btw.
IAX-Tech hat nun auch noch WiC und Lightmark-Ergebnisse ergänzt:
http://www.iax-tech.com/video/3870/38706.htm
... die nicht unbedingt gut aussehen.
Ist Lightmark nicht Z-Fill-lastig?
seahawk
2007-11-14, 10:01:32
Ohne Grund sieht man bisher nicht nur Crysis und 3dMurks. Beide liegen der RV670 gut.
Wechselbalg
2007-11-14, 10:01:35
Wobei man bei den Strommessungen auch noch beachten müsste, dass dort die Effizienz durch das Netzteil ja auch wiederum nicht bekannt ist. Neben einer eventuellen IGP spielen da also mehrere Faktoren herein. Ich denke da heißt es wieder auf Xbitlabs zu warten.
Autsch, was ist da mit WiC los? Treiber-Bug? Da bricht sie ja echt schon fast zu viel weg :|
Adam D. @ work
Nunja, momentan sieht es nach gleichem Last-Verbrauch bei teilweise deutlich niedriger Leistung aus.
Bei deutlich niedrigerem idle und "Light-Gaming" Verbrauch und teilweise deutlich höherer Leistung (es gibt ja auch Anwendungen, wo schon eine 2900XT einer 8800GTX zumindest ebenbürtig ist). Zählen tut der Durchschitt, und da sollte die Karte nicht so schlecht liegen.
Ohne Grund sieht man bisher nicht nur Crysis und 3dMurks. Beide liegen der RV670 gut.
Gut sollte ihr vorallem UT3 liegen, wenn man den Ergebnissen von AMD trauen kann. Denn dort liegt bereits eine 2900XT ausgezeichnet.
Autsch, was ist da mit WiC los? Treiber-Bug? Da bricht sie ja echt schon fast zu viel weg :|
Adam D. @ work
WiC ist für die gesamte R6xx-Serie Gift. Selbst ein R580 schlägt sich hier besser als eine 2900XT.
reunion
Größenvergleich mit 2900XT:
http://www.fudzilla.com/images/stories/2007/November/General%20News/38x0_size_comparison.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4197&Itemid=1
MadManniMan
2007-11-14, 12:15:20
WiC ist für die gesamte R6xx-Serie Gift. Selbst ein R580 schlägt sich hier besser als eine 2900XT.
Ich hab mal die Relationen HD 2900 XT vs. 8800 GT in 1280 @ 4*/16* aus dem 8800 GT Test der Computerbase gescribbelt... - dahinter Ergebnisse in 1600 @ 1*/1*...
Anno 1701 1.11 - 1.41
Jericho 1.42 - 1.03
DIRT 1.01 - 1.25
CoH 1.14 - 1.00
F.E.A.R. 1.17 - 1.12
Gothic 3*³ 1.80 - 1.34
Oblivion 1.03 - 1.09
Prey 1.05 - 1.07
RS: Vegas² 0.81 - ....
Stalker*³ 1.69 - 1.27
D3D10
Bioshock* 1.26 - 1.19
CoJ 0.80 - 1.10
CoH 1.03 - 0.92
Crysis³ 1.49 - 1.52
Lost Planet 1.72 - 1.51
WiC 1.35 - 1.05
* - kein AA möglich
² - weder AA, noch AF möglich
³ - Parallax (Occlusion) Mapping
...wie wir sehen, liegen manche Apps dem R600 prinzipiell nicht so sehr - Gothic 3, Stalker, Crysis und Lost Planet möchte ich hier nennen. Jedoch sehen wir auch dass AA / AF die Tendenz zwar oftmals schlimmer macht, aber nicht zwingend die grundlegenden Unterschiede ausmacht.
Und trotz des AA-Bugs: die fehlende Füllrate haut fast noch stärker rein, wie man an den AF-only-Benches Gothic 3 und Stalker erkennen mag...
Nebenbei: AFAIK nutzen Gothic 3, Stalker und Crysis P(O)M - ist das denn besonders TMU-lastig?
Ich hab mal die Relationen HD 2900 XT vs. 8800 GT in 1280 @ 4*/16* aus dem 8800 GT Test der Computerbase gescribbelt... - dahinter Ergebnisse in 1600 @ 1*/1*...
Anno 1701 1.11 - 1.41
Jericho 1.42 - 1.03
DIRT 1.01 - 1.25
CoH 1.14 - 1.00
F.E.A.R. 1.17 - 1.12
Gothic 3*³ 1.80 - 1.34
Oblivion 1.03 - 1.09
Prey 1.05 - 1.07
RS: Vegas² 0.81 - ....
Stalker*³ 1.69 - 1.27
D3D10
Bioshock* 1.26 - 1.19
CoJ 0.80 - 1.10
CoH 1.03 - 0.92
Crysis³ 1.49 - 1.52
Lost Planet 1.72 - 1.51
WiC 1.35 - 1.05
* - kein AA möglich
² - weder AA, noch AF möglich
³ - Parallax (Occlusion) Mapping
...wie wir sehen, liegen manche Apps dem R600 prinzipiell nicht so sehr - Gothic 3, Stalker, Crysis und Lost Planet möchte ich hier nennen. Jedoch sehen wir auch dass AA / AF die Tendenz zwar oftmals schlimmer macht, aber nicht zwingend die grundlegenden Unterschiede ausmacht.
Und trotz des AA-Bugs: die fehlende Füllrate haut fast noch stärker rein, wie man an den AF-only-Benches Gothic 3 und Stalker erkennen mag...
Nebenbei: AFAIK nutzen Gothic 3, Stalker und Crysis P(O)M - ist das denn besonders TMU-lastig?
Es kommt natürlich auch immer stark auf die verwendete Szene an. Bei CB scheint sich die Karte in WiC ganz gut zu schlagen, bei Friqu performt sie einfach nur unterirdisch.
DrFreaK666
2007-11-14, 12:55:41
Also die 3870 ist schon verdammt teuer.
Mal schauen ob die 8800GT wieder verfügbar ist wenn AMD ihre karten zum Verkauf freigibt.
was teuer? ne 3870 teuer? lol
das schon so billig das ich sie ganricht mehr kaufen mag, weil ich dann ne graka drin hab für 200 € was noch nie der fall war bei mir :(
MadManniMan
2007-11-14, 14:46:13
Es kommt natürlich auch immer stark auf die verwendete Szene an. Bei CB scheint sich die Karte in WiC ganz gut zu schlagen, bei Friqu performt sie einfach nur unterirdisch.
Mhh, Du hast natürlich prinzipiell Recht, aber in diesem Fall glaube ich gar nicht mal so sehr an eine "ungünstige" Szene - denn IIRC reagieren D3D10-Apps stärker auf Bandbreite, als es noch in D3D9 der Fall ist. Und die 2900 XT hat nunmal noch ordentlich mehr Bandbreite, als eine 3870 *grübel*
Oder überseh ich was?
denn IIRC reagieren D3D10-Apps stärker auf Bandbreite, als es noch in D3D9 der Fall ist.
Dafür gibt's keinen besonderen Grund.
Man kann nur hoffen, das die Ati-Crew sich WiC rechtzeitig vorgeknöpft hat...
Der neue Treiber sollte doch längst da sein...
MadManniMan
2007-11-14, 15:19:22
Dafür gibt's keinen besonderen Grund.
...das ahnte ich.
Kann es daran liegen, dass die D3D10-Titel auch immer gleich HDR-Rendering mitbringen? Das dürfte einen erhöhten Bandbreitenbedarf erklären.
-/\-CruNcher-/\-
2007-11-14, 15:35:27
So ich hab mir jetzt erstmal eine nicht verfügbare 8800 GT bestellt für 230€ als Absicherung für morgen, wer weiss was los ist wenn sich die ganzen verärgerten 8800 GT besteller Plötzlich auf die HD3870 stürzen, bessonders wenn ich lese das einige sich wieder gleich 2 oder mehr unter den Nagel reisen wollen, ich hab irgendwie das Gefühl das da wieder das Chaos ausbricht.
Noch ein paar Kleinigkeiten:
First, the good news: HD3800 series is cheap to produce. The 55nm process resulted in a really small die. Official die size is 192mm2, with 666 million transistors, less than double from R600 (700M trannies, 408mm2), and much smaller than Nvidia's G80 (680M trannies, 480mm2) and G92 (734M, mm2, 315mm2).
[...]
Feature-wise, AMD will brag about real-time Global Illumination, and new Anti-Aliasing modes, all courtesy of DirectX 10.1, which should arrive in H1'08 - at least according to AMD slideware.
[...]
We disclosed some elementary details over Radeon HD 3870 X2 last week. The price of this board, will be set between 400 and 500 EUR/USD. You've read it right, 500 whatevers for 1GB of local memory, two RV670 chips, all running at a clock of single-board 3870. The product should be ready by February, and late January or early February are your launch dates.
http://www.theinquirer.net/gb/inquirer/news/2007/11/14/amd-55nm-gpus-lead-price-attack
Toppas:-)
2007-11-14, 15:54:13
@gast
Mit der 3870x2 bei 400-500Euro werden sie kein Bumentopf gewinnen. Im Gegenzug kann man genauso SLI mit 2 8800gt bzw. mit der neuen GTS machen und ist immernoch vorne bei gleichem Geld.
So ich hab mir jetzt erstmal eine nicht verfügbare 8800 GT bestellt für 230€ als Absicherung für morgen, wer weiss was los ist wenn sich die ganzen verärgerten 8800 GT besteller Plötzlich auf die HD3870 stürzen, bessonders wenn ich lese das einige sich wieder gleich 2 oder mehr unter den Nagel reisen wollen, ich hab irgendwie das Gefühl das da wieder das Chaos ausbricht.
wo den bitte ;-) ?
crux2005
2007-11-14, 16:15:05
http://s3.directupload.net/images/071114/8ulgugpa.png
Review @ legionhardware.com (http://www.legionhardware.com/document.php?id=703&p=0)
AnarchX
2007-11-14, 16:19:35
http://s3.directupload.net/images/071114/8ulgugpa.png
Review @ legionhardware.com (http://www.legionhardware.com/document.php?id=703&p=0)
AMD/ATI - HD 3870/3850: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=390882)
:D
http://s3.directupload.net/images/071114/8ulgugpa.png
Review @ legionhardware.com (http://www.legionhardware.com/document.php?id=703&p=0)
aua...
reunion
2007-11-14, 16:28:44
http://s3.directupload.net/images/071114/8ulgugpa.png
Review @ legionhardware.com (http://www.legionhardware.com/document.php?id=703&p=0)
- ASUS Radeon HD 3870 (512MB) ATI Catalyst 7.9
Naja
Naja, klar ist wohl das die 3870 nur eine x2900xt mit Die shrink ist, und das ist einfach zu wenig. Zumindest stimmt jetzt Stromaufnahme und Temperatur sowie Lautstärke. Aber an der Performance muss ATI klar arbeiten. Es kommt jetzt wohl drauf an wie hoch der Preisunterschied und die Lieferbarkeit der 3870 und der GT8800 sein wird. Aber sobald die 8800 in die Preisbereich von 220 Liegt ist sie für den Gamer klar vorzuziehen.
Nakai
2007-11-14, 16:41:01
World in Conflict:
HD3870: 24 FPS
HD2900XT: 12 FPS
Ist zwar ne Verbesserung, aber immer noch zu schwach. Auch nur niedrigste Auflösung.
mfg Nakai
laser114
2007-11-14, 16:44:55
Das sind 100% mehr. Hättest du damit an irgendeiner Stelle gerechnet? Ich nicht. Siehe auch die Frage im Preview-Thread.
GeneralHanno
2007-11-14, 16:48:52
dann kann AMD nur den weg über den preis gehen (den sie ja schon eingeschlagen haben ...).
aber morgen und übermorgen wirds wohl rewiews hageln ...
vor allem BQ, lüfter insgesammt (kühlung+lautstärke), AA/AF skalierung usw sind noch nicht ausreichend beantwortet!
@Hanno,
siehe: http://forums.overclockers.co.uk/showthread.php?t=17803403&page=2
die haben schon ein paar Tests durchgeführt und bestätigen das die 3870 nix anderes als eine x2900xt ist :(
laser114
2007-11-14, 16:56:31
Hat eigentlich noch niemand überlegt, was das in diesem Bench hier für eine unanounced VGA ist: ;)
http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=621146&entity_id=-1&image_id=733945&page=1
Nach meinem ersten Gedanken - das könnte doch eine 3870 sein, was meine Eindrücke von der Karte doch sehr geschmälert hatte - bin ich zum Schluss gekommen das es wohl eine RV6xx-Karte mit 256 MiB ist - also höchst wahrscheinlich die 3850. Grund war dieser Benchmark:
http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=621146&entity_id=-1&image_id=733943&page=1
Hier ist die Karte verhältnismäßig stark (wie auch die 2900 XT), bricht aber bei den Minimalen-FPS stark weg (was sich im ganzen Test zeigt), was wiederrum auf die R6xx-Architektur bei wenig Speicher schließen lässt.
Teilweise sind die 8800gt schon für ca. 200 Euro gelistet. Allerdings nicht lieferbar. Sollte die 8800gt allerdings für diesen Preis erhältlich sein, dann müsste die 3870 schon für 160-170 Euro über die Latentheke gehen um für die Gamer eine Daseinsberechtigung zu haben.
Ich habe eigentlich echt keinen Bock mir eine NVidia zu holen weil mir die dauernden Treiber Cheats auf den Keks gehen und das ATT einfach unschlagbar gut ist, aber so wie es aussieht hat AMD wohl noch eine längere Durststrecke vor sich um an die Leistung der "großen" ran zu kommen...
lance201
2007-11-14, 17:01:33
Hm, dass die HD3870 so schlecht gegenüber der 8800 GT abschneidet hätte ich jetzt nicht gedacht, auch nicht, dass sie trotz Dualslot-Kühlung so heiss wird... vielleicht haben die ja ne 3850 getestet :-)
Lance
Schaut euch folgenden Test an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/1/#abschnitt_einleitung
dann wisst ihr was die Performance der 3870 sein wird.
Ach ja, zur Ergänzung zu vorigem Post, muss man die x2900xt als Vergleich heranziehen!
lance201
2007-11-14, 17:15:27
Schaut euch folgenden Test an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/1/#abschnitt_einleitung
dann wisst ihr was die Performance der 3870 sein wird.
Wo finde ich da was über die HD3870 ??
Lance
OK, 2. Post kam vor meinem Eintrag :-)
MadManniMan
2007-11-14, 19:57:08
Wird Zeit, den Thread hier vom RV670 zu entrümpeln - und da schon seit Ewigkeiten nur noch über jenen gequatscht wurde, können wir auch gleich neu anfangen...
Das ist eben einer der Nachteile von Sammelthreads :usad:
Welche Specs wird eigentlich der RV660, oder evtl. noch interessanter, der RV635 haben?^^
GeneralHanno
2007-11-14, 21:44:46
wird es überhaupt einen RV660 geben ?
das wäre ja sowas wie ein RV670 mit halbem SI ... (imo recht sinnlos)
der RV635 könnte ein 1:1 shrink des RV630 sein (ist ja nur ein optischer shrink, da RV630 = 65nm)
laser114
2007-11-14, 21:49:59
Ich glaube nicht mehr, dass AMD das SI des RV670 noch kürzen muss um die Karten konkurenzfähig zu halten. Das spart man sich jetzt, eher den Speicher bisschen runter ... siehe 3850.
RV635 ist auch ein Die-Shrink, aber das was mit dem RV670 geändert wurde wird sicher noch dazu gepackt ... DirectX 10.1 ist für den Markt nicht unwichtig. Einheiten werden es wohl eher die selben.
Hier der ERSTE wirkliche Test:
http://www.tweaktown.com/reviews/1222/1/page_1_introduction/index.html
und ich ziehe meine Aussage über die 3870 zurück. Die Karte ist in Ordnung bis auf die AA Performance. Ich hoffe an der kann mit neuen Treibern noch gearbeitet werden.
Johnny Rico
2007-11-14, 22:08:37
SChnell lesen bevor die Seite zusammenbricht ;p
Hvoralek
2007-11-14, 22:25:45
Hier der ERSTE wirkliche Test:
http://www.tweaktown.com/reviews/1222/1/page_1_introduction/index.html
und ich ziehe meine Aussage über die 3870 zurück. Die Karte ist in Ordnung bis auf die AA Performance. Ich hoffe an der kann mit neuen Treibern noch gearbeitet werden.Leute: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6027671#post6027671
Johnny Rico
2007-11-14, 22:51:50
Da flamen die (ich muss mich richtig zurückhalten gerade) ............ .... .... .. ..... .nur rum. Seite 1, Post 1, alles andere ist .....
Hvoralek
2007-11-15, 00:02:36
Da flamen die (ich muss mich richtig zurückhalten gerade) ............ .... .... .. ..... .nur rum. Seite 1, Post 1, alles andere ist .....Da sollte man aber auch nachschauen, bevor man Links zu Reviews in den falschen Thread postet :ugly:
Johnny Rico
2007-11-15, 00:10:06
Also mich stört das 0 hier. Und bis auf unser Gesülze gehts auch ohne Flame und Spam ab ;)
Aber recht haste, natürlich sollte man das primär in den zugehörigen Thread posten(wenn es das da noch nicht gäbe).
-/\-CruNcher-/\-
2007-11-15, 01:17:40
Interessant gestern hab ich ja noch zur sicherheit eine 8800 GT bestellt heute ist sie im Preis immens gestiegen.
http://www.mix-computer.de/html/product/detail.html?artNo=JBXNL1&artNo=JBXNL1& <- hab ich noch für 236€ (inklusive allem) bekommen, also mir kommt das so langsam vor als will Nvidia den Start der HD3800 rushen alles deutet daraufhin.
BvB123
2007-11-15, 01:29:51
Was meinst du mit rushen weil die Karte in einem shop teurer wird?:confused:
Sonst hat sich nichts verändert..
Gruß
-/\-CruNcher-/\-
2007-11-15, 01:36:59
Sie horten die ganzen Karten und hauen sie erst beim Markstart der HD3800 raus an die Distros ;) in wie weit das Wetbewerbsrechtlich in Ordnung wäre sei mal dahingestellt.
manche leute haben echt ideen :D
Ailuros
2007-11-15, 05:35:34
Die ersten previews sind oeffentlich; wer will jetzt bitte schoen nochmal die Hoffnung aufwaermen oder endlos mit unzuverlaessigen beta-demo Resultaten herumspielen?
Zukuenftige Treiber werden schon noch etwas zulegen, aber Leistungs-Optimierungen gibt es bei beiden IHVs.
Bei der RV670 beziehen sich die Mehrzahl der AA/AF relevanten Optimierungen auf SW. Bleibt nur noch offen wie gut AMD den D3D10.1 Vorteil Marketing-technisch ausspielen kann.
Sonst wiederholt sich wohl wieder die Ti4200 vs. 8500 Geschichte.
-/\-CruNcher-/\-
2007-11-15, 06:46:42
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/kurztest_ati_radeon_hd_3870_rv670/18/#abschnitt_world_in_conflict
Hab auch nochmal ein bischen rumgerechnet für Crysis gleichstand bräuchte man ca 950MHz vs die 700MHz der meisten GTs
Crysis
HD 3870 = ca 850MHz (sollte für keine Karte ein Problem darstellen vieleicht reichen auch schon 825MHz) vs 8800 GT = 600MHz
HD 3870 = ca 950MHz (steht in den Sternen) vs 8800 GT = 700MHz
Das wären dann Faire Benchmarks gegen eine GT
seahawk
2007-11-15, 07:02:27
Die ersten previews sind oeffentlich; wer will jetzt bitte schoen nochmal die Hoffnung aufwaermen oder endlos mit unzuverlaessigen beta-demo Resultaten herumspielen?
Zukuenftige Treiber werden schon noch etwas zulegen, aber Leistungs-Optimierungen gibt es bei beiden IHVs.
Bei der RV670 beziehen sich die Mehrzahl der AA/AF relevanten Optimierungen auf SW. Bleibt nur noch offen wie gut AMD den D3D10.1 Vorteil Marketing-technisch ausspielen kann.
Sonst wiederholt sich wohl wieder die Ti4200 vs. 8500 Geschichte.
Ach ne, 8500 war doch etwas mehr buggy und hatte massive Treiberprobleme. Ich sehe ein faktsiches Unentschieden zwische GT und HD38X0, der LEistungsunterschied wird im Preis aktzeptabel abgebildet und wer liefern kann wird klar im Vorteil sein.
Es schlummert sicher Potential im RV670 gerade unter fordernden DX10 Anwendungen.
MadManniMan
2007-11-15, 08:38:06
HD 3870 = ca 850MHz (sollte für keine Karte ein Problem darstellen vieleicht reichen auch schon 825MHz) vs 8800 GT = 600MHz
Und warum nicht "vs. 660 MHz" ? Wäre Dir das zu fair?
dreas
2007-11-15, 08:42:12
Letztlich macht es wiederum den enormen Leistungsrückstand von ATI offensichtlich.
Nvidia verdient nun schon ne Weile Geld und das wird wohl bis zur nächsten Architektur so weiter gehen. Schade für den Kunden.
mfg dreas
StevenB
2007-11-15, 09:59:29
Und warum nicht "vs. 660 MHz" ? Wäre Dir das zu fair?
Bist du verrückt? Du willst den Core Takt der 8800 GT erhöhen? Du solltest dich etwas schämen.....
Manche Leute sollten ihre Fanboybrillen abnehmen. Letztendlich ist das Preis.-/ Leistungsverhältnis das entscheidene, und wenn eine Partei nicht mithalten kann, greift man zum besseren Produkt.
robbitop
2007-11-15, 10:06:20
Bei der RV670 beziehen sich die Mehrzahl der AA/AF relevanten Optimierungen auf SW.
Müßte R600 dann nicht auch davon profitieren? Die Ergebnisse mit dem Cat 7.9 sehen mir aus, als wenn was an den ROPs gedreht worden wäre. (WiC Benches)
AnarchX
2007-11-15, 10:11:07
Diskussion zu HD3850/70:
AMD/ATI - HD 3870/3850: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6026750#post6026750)
Spekulation zu den anderen 55nm RV6xx:
AMD - 55nm GPUs: R680, RV660, RV635, RV620 - Teil 3 (s. #1!) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6029032#post6029032)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.