PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV670, RV660, RV635, RV620 - Teil 2 (s. #1!)


Seiten : 1 2 3 4 [5] 6

Gast
2007-11-10, 09:25:04
Jetzt hat auch AMD diese bescheuerten Löcher in der Abdeckung. Klar senken diese den Strömungswiderstand, dafür bleibt die Hälfte der heißen Luft im Gehäuse. Gefällt mir nicht.
In einen der sauren Äpfel musst du beißen:
Laut oder heiß.

Eine Klappe, die jeder einstellen kann, wie er will, wäre ideal. :)

GeneralHanno
2007-11-10, 09:27:10
1 streifen klebeband ;)

Ailuros
2007-11-10, 09:45:38
Visionary hat schon seine HD3800-Karten und scheut sich nicht davor sie zu präsentieren/testen:

Fuer 860MHz (550GFLOPs/s) sind die fast 13k Punkte nichts besonderes.

Nicht schlecht, da hat die 3870 der 8800GT beim Speicher definitiv etwas vorraus...

Dir ist noch nicht aufgefallen dass Radeons in letzter Zeit mehr Bandbreite brauchen als GFs?

AnarchX
2007-11-10, 09:49:09
Dir ist noch nicht aufgefallen dass Radeons in letzter Zeit mehr Bandbreite brauchen als GFs?
Sicher, mir ging es aber hier eher um das OC-Potential des Speichers.

reunion
2007-11-10, 09:55:04
Dir ist noch nicht aufgefallen dass Radeons in letzter Zeit mehr Bandbreite brauchen als GFs?

Sie haben mehr Bandbreite. Inwiefern sie es brauchen ist fraglich. Eigentlich sollte NV durch die deutlich höhere Füllrate wesentlich mehr Speicherbandbreite benötigen. Und man sieht auch, dass die AMD-Karten daraus kaum eine nutzen ziehen. Aber AMD hat da wohl irgend einen Vertrag mit Samsung, der ihnen relativ billigen GDDR4 sichert. Man saß ja auch im Gremium.

-/\-CruNcher-/\-
2007-11-10, 10:09:50
Fuer 860MHz (550GFLOPs/s) sind die fast 13k Punkte nichts besonderes.



Dir ist noch nicht aufgefallen dass Radeons in letzter Zeit mehr Bandbreite brauchen als GFs?

Und was sagt das bitteschön über das Spielgefühl im Vergleich zur 8800 GTs aus ?

Ailuros
2007-11-10, 10:18:35
Und was sagt das bitteschön über das Spielgefühl im Vergleich zur 8800 GTs aus ?

Ich bin mir nicht so sicher, dass Du eine Antwort auf die Frage vertragen kannst ;)

Ailuros
2007-11-10, 10:23:21
Sie haben mehr Bandbreite. Inwiefern sie es brauchen ist fraglich. Eigentlich sollte NV durch die deutlich höhere Füllrate wesentlich mehr Speicherbandbreite benötigen. Und man sieht auch, dass die AMD-Karten daraus kaum eine nutzen ziehen. Aber AMD hat da wohl irgend einen Vertrag mit Samsung, der ihnen relativ billigen GDDR4 sichert. Man saß ja auch im Gremium.

R6x0/RV6x0 brauchen mehr Bandbreite erstmal fuer den zusaetzlichen multimedia Schnickschnack und fuer ihre verkorkste AA Implementierung. Wenn wirklich was stark heutzutage an der Bandbreite knabbert dann sind es MRT/HDR/MSAA Kombinationen (entweder alle drei oder nur die zwei letzteren).

Was die Texel-Fuellraten jetzt betrifft, hat NV die Anzahl und die Faehigkeiten nur so extrem aufgepumpt fuer die AF-Leistung. Wer spielt heutzutage ohne AF und was braucht AF am meisten? Fuellrate oder Bandbreite?

AnarchX
2007-11-10, 10:30:52
Aber AMD hat da wohl irgend einen Vertrag mit Samsung, der ihnen relativ billigen GDDR4 sichert. Man saß ja auch im Gremium.

Wobei mittlerweile auch Hynx GDDR4 anbietet und man diesen wohl auch demnächst endlich mal auf NV-Karten sieht:
http://www.hynix.com/datasheet/eng/graphics/details/graphics_21_HY5FS123235AFCP.jsp?menu1=01&menu2=03&menu3=04

-/\-CruNcher-/\-
2007-11-10, 10:49:48
Ich bin mir nicht so sicher, dass Du eine Antwort auf die Frage vertragen kannst ;)

Doch das kann ich und wenn du schon gleich dabei bist dann klär mich auch auf wieso die UE3 besser abschneidet auf der R6xx Architektur und besser Skaliert als wie z.b die Cryengine2 (die imho sehr miese Ergebnisse ausgehend von der Crysis Demo bringt auf beiden Architekturen) :)

pG
2007-11-10, 12:29:37
Ich war bezüglich der Performance etwas enttäuscht. Jetzt muss ich sagen: Es ist zwar dumm, das die Karten langsamer als die Konkurrenz sind aber sonst scheinen sie ja quasi perfekt zu sein!
Was mich irgendwie verwundert ist aber, dass die Kräfteverhältnisse je nach Game so unterschiedlich sind: In Crysis ist jede Geforce schneller als die Radeon 2900xt, in UT3 macht die Radeon (u.A. in 1600x1200 mit AF) laut Hardwareluxx selbst eine 8800 Ultra nass.

Gast
2007-11-10, 13:03:31
Ich war bezüglich der Performance etwas enttäuscht. Jetzt muss ich sagen: Es ist zwar dumm, das die Karten langsamer als die Konkurrenz sind aber sonst scheinen sie ja quasi perfekt zu sein!
Was mich irgendwie verwundert ist aber, dass die Kräfteverhältnisse je nach Game so unterschiedlich sind: In Crysis ist jede Geforce schneller als die Radeon 2900xt, in UT3 macht die Radeon (u.A. in 1600x1200 mit AF) laut Hardwareluxx selbst eine 8800 Ultra nass.

Crysis läuft auf der xt und gt fast gleich, ich habe es selbst getestet, hatte mir ein paar mehr Frames erhofft mit der 8800gt aber dem war nicht so.

8800gt gegen die 2900xt in Crysis gebencht mit XP (DX9)

1650x1050, High,Shadow und PP Med.

8800gt (stock) avg. 36,87fps
2900xt (825/950) avg. 37,91fps

sklave_gottes
2007-11-10, 13:04:49
Fuer 860MHz (550GFLOPs/s) sind die fast 13k Punkte nichts besonderes.



Dir ist noch nicht aufgefallen dass Radeons in letzter Zeit mehr Bandbreite brauchen als GFs?


sicher ?
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
(Danke @ deekey777)

Scroll ganz runter und sieh dir mal genau den speichertakt/frame verlauf an, vorallem wenns richtig knapp wird mit dem speichertakt.
Man sieht nur eins, das die HD2900XT aus weniger Speicherbandbreite mehr macht.
HD2900XT@700mhz@89600MB/s vs 8800gts@850mhz@68000MB/sec 93fps
HD2900XT@500mhz@64000MB/s vs 8800gts@750mhz@60000MB/sec 88fps
HD2900XT@250mhz@32000MB/s vs 8800gts@435mhz@34800MB/sec 58fps
Nicht vergessen das die ATI Karte noch eine viel schlechtere latenz hat mit lächerlichen 250mhz
8800gtx@900mhz@86400MB/sec119fps
HD2900XT@900mhz@115200MB/svs 8800gtx@590mhz@56640MB/sec 95fps
HD2900XT@700mhz@89600MB/s vs 8800gtx@575mhz@55200MB/sec 93fps
HD2900XT@500mhz@64000MB/s vs 8800gtx@540mhz@51840MB/sec 88fps
HD2900XT@250mhz@32000MB/s vs 8800gtx@345mhz@33120MB/sec 58fps
Man sieht ganz leicht das bei der GTX sowie der GTS eine viel kleinere reduzierung der Speicherbandbreite notwendig ist um genau so schnell langsamer zu werden wie der r600. Wärend dieser seine Bandbreite auf fast
1/4 reduziert und dann auch noch mit weniger Speicherbandbreite und einer sehr sehr miesen latens(250mhzvs345mhzvs435mhz) plötzlich genau so schnell ist wie eine 8800gtx.
Was ja auch bei den Architekturen nicht anders zu erwarten ist meiner meinung nache siehe reunion
Ich hoffe ich konnte licht ins dunkle bringen Ailuros

mfg martin

Tarkin
2007-11-10, 13:07:11
Erste Listung der Sapphire Radeon HD 3870, 512MB GDDR4

http://geizhals.at/eu/a293842.html

Gast
2007-11-10, 13:22:03
Hier auch 3870 und 3850

http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=%22hd+38%22&asd=on&filter=+Angebote+anzeigen+&pixonoff=off

Redneck
2007-11-10, 13:43:08
ich glaube manche Leute erwarten zuviel. Die Karten werden ungefähr das Niveau einer 2900XT haben, bei wesentlich besserem Preis, Stromverbrauch, besserer Temp und hoffentlich besserer Performance mit eingeschaltetem AA!
Mir reichen die bekannten positiven Punkte, um für einen Kauf meinerseits in Frage zu kommen!

quote vr-zone:
"perhaps tmr ba... out of officealready.. but one thing i can say tried COD4(not the demo, the real game) at full reso(30inch) and max out everything including AA(4x) and avg framerates and got about avg 25 fps using fraps... without AA its more than playable on a 30 incher"

native auflösung eines 30 Zöllers mit 4AA und allem auf max....
Würde mal aus dem Bauch heraus sagen, daß sich das nicht übel anhört (für ein 256 SI)..
Irgendjemand hier mit einer 2900xt, COD4 und einem 30" , der seine Werte einmal dagegen halten kann (ja ich weiß... 256 vs 512 SI... aber trotzdem) ?

Gruß

Gast
2007-11-10, 13:56:42
Hier auch 3870 und 3850

http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=%22hd+38%22&asd=on&filter=+Angebote+anzeigen+&pixonoff=off

Die Preise sind zu hoch. Die Karte muss wenigstens auf Geforce8800GT Niveau liegen, besser darunter. Aber vielleicht wird das ja noch.

mapel110
2007-11-10, 14:00:00
Für 176 € die 3850er is doch schon sehr interessant. Aber ich will erst vollständige Reviews von der Karte sehen.

Gast
2007-11-10, 14:02:33
Für Spieler eher nicht. Wenn ich für 20€ mehr eine Geforce 8800GT kaufen kann sieht die 3850 echt ziemlich alt aus.

Schlammsau
2007-11-10, 14:05:28
Für 176 € die 3850er is doch schon sehr interessant. Aber ich will erst vollständige Reviews von der Karte sehen.
oh ja, und das für die 512MB variante :)
will endlich ein review sehen!!!!!

reunion
2007-11-10, 14:06:10
Für Spieler eher nicht. Wenn ich für 20€ mehr eine Geforce 8800GT kaufen kann sieht die 3850 echt ziemlich alt aus.

Das ist die erste gelistet Karte, kein Indikator für den Verkaufspreis. Die 3850 hat einen empfohlenen Verkauspreis von 179$ ggü. 249$ der 8800GT, das ist also schon erheblich billiger. Die Karte wird sich wohl etwas unter 150€ einordnen. Die 3870 soll hingegen wie die 8800GT 249$ kosten. Dabei wird sie vermutlich nicht ganz so schnell sein, dafür hat sie allerdings andere Vorteile.

Werni58
2007-11-10, 14:06:13
Das ist preislich schonmal meine Kragenweite:biggrin:

sklave_gottes
2007-11-10, 14:06:54
Für Spieler eher nicht. Wenn ich für 20€ mehr eine Geforce 8800GT kaufen kann sieht die 3850 echt ziemlich alt aus.

die günstigste gt die ich finden kann gibs ab 260€

mfg martin

-/\-CruNcher-/\-
2007-11-10, 14:08:23
Jep Preislich isses so noch nicht Optimal wir sind schon bei 200€ (ohne Versand) für die 8800 GT (Referenz PCB) angekommen also kann noch nen bischen runter gehn *g* hab ich schon erwähnt das ich diesen "Krieg" momentan liebe hoffe nur das der noch Lange andauern wird wobei einen Verlierer wird es geben sobald Intel kommt muss einer gehn. Bezüglich des Launch ich hoffe mal es wird kein Paper Launch so wie bei Nvidia :D Wenn Nvidia jetzt auch noch Panik kriegt und die 8800 GTS rauswirft wirds noch besser werden, wobei ich denke mal die kommt erst fest im Dezember (offizieles Release bis sie dann in den Verkaufskanälen ist dauerts ca 2 wochen bei der GT wars halt alles nicht geplannt so schnell zu releasen) und dann ja die HD3870 X2 :)

Schlammsau
2007-11-10, 14:09:43
die günstigste gt die ich finden kann gibs ab 260€

mfg martin
unter 270€ gibt es keine Lieferbare 8800GT, eher noch teurer! Hab das Gefühl nVidia wollte um jeden Preis vor AMD ihre Karten auf den Markt bringen und jetzt sind keine mehr zu bekommen!

Das ist preislich schonmal meine Kragenweite:biggrin:
und meine erst! ;)

Super Grobi
2007-11-10, 14:09:51
Letzten drei Seiten flott nach der Info gesucht und nicht gefunden.

Bitte nicht schlagen, das wurde bestimmt schon 847869576 mal gefragt!

Gibts ein Datum für die Karte (hd3870) und gibts schon irgentwo Angaben zum Stromverbrauch (idle/last)?

Danke schön
SG

Gast
2007-11-10, 14:14:22
Die günstigste gt liegt bei 197 euro. dabei spielt das keine rolle ob z.z. auf lager oder nich. Und die 3870 is mit ihren 249$ viel zuteuer. maximal 200$ für das was sie leistet.

sklave_gottes
2007-11-10, 14:17:41
Letzten drei Seiten flott nach der Info gesucht und nicht gefunden.

Bitte nicht schlagen, das wurde bestimmt schon 847869576 mal gefragt!

Gibts ein Datum für die Karte (hd3870) und gibts schon irgentwo Angaben zum Stromverbrauch (idle/last)?

Danke schön
SG


15.08.07
110 watt T. schätze last auf etwa 8800gt
unter IDEL würde ich sagen etwa zwischen X1950pro bis x1650pro

Die günstigste gt liegt bei 197 euro. dabei spielt das keine rolle ob z.z. auf lager oder nich. Und die 3870 is mit ihren 249$ viel zuteuer. maximal 200$ für das was sie leistet.

Ja so ein schwachsin!

Bei mir gibt es übringens eine HD3870 für 99€ lieferzeit ist leider unbekannt.

Ich finde die 8800gt ist bissel zu teuer für 197 wenns die HD3870 für 99€ gibt.

reunion
2007-11-10, 14:18:43
15.08.07
110 watt T. schätze last auf etwa 8800gt
unter IDEL würde ich sagen etwa zwischen X1950pro bis x1650pro

TDP sind 105W für die 3870 und 95W für die 3850. Idle sollte durch die sehr niedrigen Taktraten von nur 300Mhz und dem zusätzlichen Modus bei geringer Auslastung sehr niedrig sein.

SavageX
2007-11-10, 14:19:13
gibts schon irgentwo Angaben zum Stromverbrauch (idle/last)?


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6011753&postcount=937

Gast
2007-11-10, 14:23:06
15.08.07
110 watt T. schätze last auf etwa 8800gt
unter IDEL würde ich sagen etwa zwischen X1950pro bis x1650pro



Ja so ein schwachsin!

Bei mir gibt es übringens eine HD3870 für 99€ lieferzeit ist leider unbekannt.

Ich finde die 8800gt ist bissel zu teuer für 197 wenns die HD3870 für 99€ gibt.


LOL was bist du fürn Vogle? Bist du hier der Formu Kasper?

Krass was für irre fanboys es doch gibt.

-/\-CruNcher-/\-
2007-11-10, 14:23:07
Die günstigste gt liegt bei 197 euro. dabei spielt das keine rolle ob z.z. auf lager oder nich. Und die 3870 is mit ihren 249$ viel zuteuer. maximal 200$ für das was sie leistet.

Mach dir da keine sorgen Amd/Ati hat schon gut kalkuliiert die können um einiges runtergehn (55nm sei Dank). Bei Nvidia frists langsam in ihre Margen

Super Grobi
2007-11-10, 14:23:49
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6011753&postcount=937


Boah wie geil ist das den? Wenn das stimmt, muss ich so eine Karte haben. Fragt sich nur, wann ATI diese vorstellt (wird ja wohl zeitnah verfügbar sein).

Gruß
SG

-/\-CruNcher-/\-
2007-11-10, 14:24:44
Hier gucken für Last und Idle *g*

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6011753#post6011753

reunion
2007-11-10, 14:24:53
Die günstigste gt liegt bei 197 euro. dabei spielt das keine rolle ob z.z. auf lager oder nich. Und die 3870 is mit ihren 249$ viel zuteuer. maximal 200$ für das was sie leistet.

Auch ein Dual-Slot-Kühler, DX10.1, ein integrierter Xilleon Videodecodeprozessor inkl. Sound über den HDMI, gute Stromsparmodi, (..) liefern einen gewissen Mehrwert ggü. einer 8800GT, für die man durchaus bereit sein kann, eine etwas niedrigere Leistung in Kauf zu nehmen. Zumal der endgültige VK ja noch nicht feststeht. Durchaus möglich, dass AMD noch etwas runter geht.

Boah wie geil ist das den? Wenn das stimmt, muss ich so eine Karte haben. Fragt sich nur, wann ATI diese vorstellt (wird ja wohl zeitnah verfügbar sein).

Gruß
SG

Die Karte wird am 14.11 vorgestellt.

Gast
2007-11-10, 14:26:50
Mach dir da keine sorgen Amd/Ati hat schon gut kalkuliiert die können um einiges runtergehn (55nm sei Dank). Bei Nvidia frists langsam in ihre Margen

Woher weisstn das? Oder is das nur so ein gedanken bzw. mit roter brille?

Gast
2007-11-10, 14:29:54
Auch ein Dual-Slot-Kühler, DX10.1, ein integrierter Xilleon Videodecodeprozessor inkl. Sound über den HDMI, gute Stromsparmodi, (..) liefern einen gewissen Mehrwert ggü. einer 8800GT, für die man durchaus bereits sein kann, eine etwas niedrigere Leistung in Kauf zu nehmen. Zumal der endgültige VK ja noch nicht feststeht. Durchaus möglich, dass AMD noch etwas runter geht.



Die Karte wird am 14.11 vorgestellt.


Das mit dem Stromspar Mod find ich persönlich gut. Dual-Slot, kann man als gut oder schlecht auslegen ;) (was abwärme angeht)

-/\-CruNcher-/\-
2007-11-10, 14:31:51
Diesen Test hier find ich sehr Gut hab ich so noch nirgends gesehn
http://www.tomshardware.com/de/Geforce-8800GT-Dauertest,testberichte-239870-3.html
solten die Jungs dann mal Seite an Seite mit der HD3870 durchführen das würde interessant werden *g*

Woher weisstn das? Oder is das nur so ein gedanken bzw. mit roter brille?

Das ist bekannt und auch sehr wahrscheinlich wenn du davon ausgehst das nur 50.000 GTs gefertigt wurden, ach übrigens der Super Duper OC Reseler von Nvidia EVGA hat einen riesen fehler gemacht die haben bei ihrer SSC version den Speicher auf 2000mhz geclocked nur Leider hält das der Memorycontroller (oder PCB) nicht auf dauer durch und das ist kein Gerücht die Information kommt von einem Mitarbeiter von BFGtech die haben das mit Oems und Nvidia im vorfeld schon getestet gehabt, deswegen clocked eigentlich keiner der AIBs auf 2Ghz nun rollt natürlich bei EVGA gerade auch eine RMA welle die erstmal gestopft werden muss, das passiert halt wenn man einer bestimmten Zielgruppe imponieren möchte die für nix auch gerne Zahlt. Nvidia hat im vorfeld schon gesagt das bei den Taktraten sehr niedrig angesetzt wurde und ich würde sagen fast jede Karte schaft 700MHz da brauch man keine OC Version kaufen. AMD/ATI hat solche OC sachen nicht nötig, das ist alles nur verarsche.

AnarchX
2007-11-10, 14:33:00
Mach dir da keine sorgen Amd/Ati hat schon gut kalkuliiert die können um einiges runtergehn (55nm sei Dank). Bei Nvidia frists langsam in ihre Margen

Q: 8800GT - great product, but do you think it might have an effect on other products? Gross margin effects?
A: We always try to be thoughtful about cannabilizing our own products. But if we can do that, we'd rather do it ourselves than somebody else. We want to remain aggressive. I am not inclined really to slow down; my own business will have to figure out how to deal with my own business.
[Marvin] Margins on the 8800GT are excellent, well above corporate margins.
http://forum.beyond3d.com/showthread.php?t=45281

reunion
2007-11-10, 14:35:55
http://forum.beyond3d.com/showthread.php?t=45281

Was sollte er auch sonst sagen? Laut AMD sind die Yields mit 55nm auch exzellent und die Margen toll, und bei Phenom gibt es keine Probleme, etc.
Das ein >300mm² Chip in dem Preissegment nicht ganz unproblematisch ist, sollte klar sein. Geplant war das sicher anders. Aber das sich nV das locker leisten kann, sollte auch klar sein.

laser114
2007-11-10, 14:37:45
Die werden mit der 8800 GT schon noch verdienen, und in dem Preisbereich kann man ja auch anfangen über die Menge nachzudenken. ;)
Sollte dann nur auch in Mengen lieferbar sein.

Gast
2007-11-10, 14:41:05
Boah wie geil ist das den? Wenn das stimmt, muss ich so eine Karte haben. Fragt sich nur, wann ATI diese vorstellt (wird ja wohl zeitnah verfügbar sein).

Gruß
SG

Das Gleiche habe ich auch gedacht. Ich muss die HD3870 haben! Mit diesem Dual-Slot Kühler noch dazu und mein Gehäuse bleibt kühl! (HTPC). Endlich kümmert sich ein Grafikkartenhersteller auch um die Umwelt und den Stromverbrauch. Nvidia behandelt das ganze irgendwie stiefmütterlich, ist wie ein amerikanischer V8 Block gegen einen europäischen Turbo-Kompressor ;-)

sklave_gottes
2007-11-10, 14:53:38
LOL was bist du fürn Vogle? Bist du hier der Formu Kasper?

Krass was für irre fanboys es doch gibt.

Lese den text nochmal mit dem Post von dir drüber. Dann verstehst du vieleicht das ich dir damit zeigen wollte wie sinvoll preise sind von Hardware die nicht lieferbar ist. Die Händler sind an die Angegebenen Preise nicht zwingend angewiesen.

Das heist sie können mit 197 ködern auf unbestimmte lieferzeit und dann für die Karte später 230€ verlangen.

Nicht lieferbare ware zählt nicht! Es ist höstens ein Indiz. Denn solche KArten kann man nicht kaufen oder ?:wink: Das gilt für Geforce als auch für Radeon Karten.

Anscheinent willst du das nicht verstehen, ich verstehe :wink:

@reunion

ok habe mich mit 110 vertan waren 105.

Gast
2007-11-10, 15:03:03
Lese den text nochmal mit dem Post von dir drüber. Dann verstehst du vieleicht das ich dir damit zeigen wollte wie sinvoll preise sind von Hardware die nicht lieferbar ist. Die Händler sind an die Angegebenen Preise nicht zwingend angewiesen.

Das heist sie können mit 197 ködern auf unbestimmte lieferzeit und dann für die Karte später 230€ verlangen.

Nicht lieferbare ware zählt nicht! Es ist höstens ein Indiz. Denn solche KArten kann man nicht kaufen oder ?:wink: Das gilt für Geforce als auch für Radeon Karten.

Anscheinent willst du das nicht verstehen, ich verstehe :wink:

@reunion

ok habe mich mit 110 vertan waren 105.

Jo dreh es dir zurecht wie du es brauchst. fakt is bestell eine für 200 euro zb. MIX und du bekommst sie zu dem preis. Es warn halt nur 50000 an anfang da.
In ein oder evtl. auch noch zwei wochen sieht das ganz anders aus. Aba jut jungchen; -Anscheinent willst du das nicht verstehen, ich verstehe :wink: -

;D ;D

LovesuckZ
2007-11-10, 15:19:03
Lol und mit 8xA und 16xAF ist die 2900xt 9% schneller als die 8800gt, schade das die nicht 1920x1200 benchen.

Toll, 9%. Das sind ganze 3 fps, wenn die 8800GT 30 erreicht. Oder ganze 2

Ich hatte die 8800gt gegen die 2900xt in Crysis gebencht

1650x1050, High,Shadow und PP Med.

8800gt (stock) avg. 36,87fps
2900xt (825/950) avg. 37,91fps

Toll, was willst du sagen? :confused:

Das ein >300mm² Chip in dem Preissegment nicht ganz unproblematisch ist, sollte klar sein. Geplant war das sicher anders. Aber das sich nV das locker leisten kann, sollte auch klar sein.

Erzähl mal. Wie war es denn geplant.

-/\-CruNcher-/\-
2007-11-10, 15:20:46
http://cgi.ebay.de/Leadtek-GeForce-8800GT-Extreme-Edition-NEU-Rechnung_W0QQitemZ280171787051QQihZ018QQcategoryZ148515QQssPageNameZWDVWQQrdZ1QQ cmdZViewItem

Dem kleinen sollte man mal ordentlich den Arsch versohlen, mein gott was wird nur aus dieser Geselschaft, das erfüllt ja schon den Sachverhalt des Betruges.

Gast
2007-11-10, 15:28:10
Toll, was willst du sagen? :confused:

Nüx, aber die 8800gt ist nicht das Wunderding für was du sie vieleicht hältst.

Gast
2007-11-10, 15:32:56
Frage

R680 Dual oder wie dat ding heist

Braucht man dazu crosfire mainboard oder wird das teil als eine Grafikkarte erkannt?

Muss das game crossfire unterstüzen oder hab ich dann sogar im schlimmsten fall stat 2x670 nur 1?

wie bei der 7950gx2 wenn sli net funzte-. bei manchen games hatte man auch nur performance einer karte

Gast
2007-11-10, 15:40:06
Das ist die erste gelistet Karte, kein Indikator für den Verkaufspreis. Die 3850 hat einen empfohlenen Verkauspreis von 179$ ggü. 249$ der 8800GT, das ist also schon erheblich billiger. Die Karte wird sich wohl etwas unter 150€ einordnen. Die 3870 soll hingegen wie die 8800GT 249$ kosten. Dabei wird sie vermutlich nicht ganz so schnell sein, dafür hat sie allerdings andere Vorteile.
die 256er GT hat einen EVK von 199$.

laser114
2007-11-10, 15:41:02
Die Informationen dazu sind relativ rar. Vermutlich wird man kein Crossfire-Board brauchen und der Treiber muss für Effizienz dabei sorgen - sprich ein Rückfall ist möglich.
Sind aber alles nur Spekulationen. ;)

Gast
2007-11-10, 15:41:56
TDP sind 105W für die 3870 und 95W für die 3850. Idle sollte durch die sehr niedrigen Taktraten von nur 300Mhz und dem zusätzlichen Modus bei geringer Auslastung sehr niedrig sein.
Und der Verbrauch, den AMD angibt, liegt über der TDP? LOL
http://godlike.cl/up/im/20/pplay2.jpg

Gast
2007-11-10, 15:43:27
Was sollte er auch sonst sagen? Laut AMD sind die Yields mit 55nm auch exzellent und die Margen toll, und bei Phenom gibt es keine Probleme, etc.
Stimmt. Da wird viel erzählt, wenn der Tag lang ist. :D

Gast
2007-11-10, 15:43:59
Das Gleiche habe ich auch gedacht. Ich muss die HD3870 haben! Mit diesem Dual-Slot Kühler noch dazu und mein Gehäuse bleibt kühl! (HTPC). Endlich kümmert sich ein Grafikkartenhersteller auch um die Umwelt und den Stromverbrauch. Nvidia behandelt das ganze irgendwie stiefmütterlich, ist wie ein amerikanischer V8 Block gegen einen europäischen Turbo-Kompressor ;-)
Huch? Seit wann sind 105 Watt mehr als 105 Watt?

Anok
2007-11-10, 15:45:20
Jo dreh es dir zurecht wie du es brauchst. fakt is bestell eine für 200 euro zb. MIX und du bekommst sie zu dem preis. Es warn halt nur 50000 an anfang da.
In ein oder evtl. auch noch zwei wochen sieht das ganz anders aus. Aba jut jungchen; -Anscheinent willst du das nicht verstehen, ich verstehe :wink: -

;D ;D


Ich muss Sklave-Gottes da völlig Recht geben.
Wie ich finde dreht er sich da nichts zurecht.

Das Jüngchen bist wohl eher du.

NV wollte damit nur ködern, nicht lieferbare Ware ist für die Katz.
Möglicherweise sieht das wirklich in 2 Wochen anders aus, aber im Moment ist das nur heiße Luft.

Gruß
Denis

Redneck
2007-11-10, 15:45:33
Auch ein Dual-Slot-Kühler, DX10.1, ein integrierter Xilleon Videodecodeprozessor inkl. Sound über den HDMI, gute Stromsparmodi, (..) liefern einen gewissen Mehrwert ggü. einer 8800GT, für die man durchaus bereit sein kann, eine etwas niedrigere Leistung in Kauf zu nehmen. Zumal der endgültige VK ja noch nicht feststeht. Durchaus möglich, dass AMD noch etwas runter geht.
Die Karte wird am 14.11 vorgestellt.

Wollte schon sagen... in dem Bereich sehen die neuen ATIs schon "vollwertiger" aus als die GT. Jetzt muessen diese Features auch funktionieren (und nicht
nur als Ankündigung auf irgendwelchen PPS stehen) und der Performance Unterschied zur GT nicht zu groß ausfallen.
Ein paar Frames zugunsten der GT sind zu verkraften, solange die Spiele, die man persönlich spielt subjektiv gut drauf laufen.

Cheers

reunion
2007-11-10, 15:52:04
Erzähl mal. Wie war es denn geplant.

Habe ich gesagt, dass ich das weiß? Nein. Es mutet nur ziemlich seltsam an, das eine 8800GT mit einem offensichtlich teildeaktiviertem Chip mit >300mm² um 249$/199$ kommt. Keine Spur von der vollen Ausbaustufe. IMHO sollten G92 mit den anderen Chips wie auch von AMD ursprünglich geplant erst im Q1 08 kommen, durch die Vorverlegung des RV670 kam es jetzt eben zur 8800GT in der heute bekannten Form. Aber das ist nur meine Meinung.


Und der Verbrauch, den AMD angibt, liegt über der TDP? LOL

Nicht gesehen, dann ist die andere Quellen mit den 105W/95W wohl obsolet. Aber 106W/98W ist ja nicht wirklich viel mehr.

Gast
2007-11-10, 15:55:33
Wollte schon sagen... in dem Bereich sehen die neuen ATIs schon "vollwertiger" aus als die GT. Jetzt muessen diese Features auch funktionieren (und nicht
nur als Ankündigung auf irgendwelchen PPS stehen) und der Performance Unterschied zur GT nicht zu groß ausfallen.
Ein paar Frames zugunsten der GT sind zu verkraften, solange die Spiele, die man persönlich spielt subjektiv gut drauf laufen.

Cheers
Rischtig, und es ist doch vollig Hupe ob ich mit 54fps oder 58fps zocke.

Gast
2007-11-10, 15:56:33
unter 270€ gibt es keine Lieferbare 8800GT, eher noch teurer! Hab das Gefühl nVidia wollte um jeden Preis vor AMD ihre Karten auf den Markt bringen und jetzt sind keine mehr zu bekommen!


Bei sehr hoher Nachfrage kann es schonmal vorkommen, daß zu Beginn der Produktion der Produktionsausstoß die Nachfrage nicht decken kann und die Lager leerlaufen. Das gilt ganz allgemein für alle Hersteller und alle Produkte.

seahawk
2007-11-10, 16:01:46
Habe ich gesagt, dass ich das weiß? Nein. Es mutet nur ziemlich seltsam an, das eine 8800GT mit einem offensichtlich teildeaktiviertem Chip mit >300mm² um 249$/199$ kommt. Keine Spur von der vollen Ausbaustufe. IMHO sollten G92 mit den anderen Chips wie auch von AMD ursprünglich geplant erst im Q1 08 kommen, durch die Vorverlegung des RV670 kam es jetzt eben zur 8800GT in der heute bekannten Form. Aber das ist nur meine Meinung.


Das sit Marketing. NV brauchte jetzt etwas um RV670 die Schau und die kunde zu stehlen. Mit der Ablösung des High-Ends kann man warten bis man R680 aka RV370x2 einschätzen kann, oder bis alle G80 verkauft wurden. Außerdem sit man so öfters positiv in der Presse.

a) 8800 GT schlägt allte GTS
b) 8800 GT schlägt RV3870
c) neue 8800GTS schlägt GT und alte GTS
d) neue Ultra schlägt GTS und gleichauf mit R680

Und die Verügbarkeit der 8800GT bessert sich gegen den 16ten in Deutschland. Ich würde allerdings nicht darauf hoffen einen ähnliche MEnge Radeon HD3870 in den Läden zu finden.

Gast
2007-11-10, 16:03:17
Naja, wenn man davon ausgeht, dass die 3870 der 2900xt +5% entspricht gibt es dennoch eine ganze Latte von Spielen in denen sie derbe versägt wird, laut CBs 8800GT-Test. z.B. in Stalker ist das der Unterschied von 20 zu 40fps bei Gothic 3 sind es afair 80% usw.
Ich hätte jetzt eigentlich auch lieber eine 3870er als eine 8800gt aber ich weiß nicht ob ich mich nicht zu sehr von den evtl. unnützen features der 3870 blenden lasse. ;)

Gast
2007-11-10, 16:18:17
Ich muss Sklave-Gottes da völlig Recht geben.
Wie ich finde dreht er sich da nichts zurecht.

Das Jüngchen bist wohl eher du.

NV wollte damit nur ködern, nicht lieferbare Ware ist für die Katz.
Möglicherweise sieht das wirklich in 2 Wochen anders aus, aber im Moment ist das nur heiße Luft.

Gruß
Denis

Wo will NV Ködern? oje noch einer der nur müll labert. Von anfang an war klar das die verfügbarkeit "schlecht" ist (ca. 50000 kärtchen) Also benutz mal bissle dein Hirn ja? (wann da was is) und es is wohl klar das die shops die eine haben sich nen reibach machen oder? also machen sie preise von 260 euro und evtl. mehr.

p.s. geh wieder in dein Sandkasten spielen und nim gleich den Sklave-ATI mit.

laser114
2007-11-10, 16:21:47
Wenn wenig Karten da sind, und man sich trotzdem zu einem Launch entschließt nimmt man logischerweise als Anbieter höhere Preise in Kauf.

Ködern wollen dann aber die Shops und nicht Nvidia, da diese wahrscheinlich keine 100%ige Zusage haben, dass sie Karten zu dem von ihnen erwarteten Preis bekommen. Angebote gibts aber trotzdem erstmal, wann genügend Karten zur Verfügung stehen ist für diese Anbieter erstmal zweirangig. Andere Shops kaufen eben bei Distributoren mit höheren Preisen die auch gleich zum Anfang Karten hatten.

Gast
2007-11-10, 16:30:13
Naja, wenn man davon ausgeht, dass die 3870 der 2900xt +5% entspricht gibt es dennoch eine ganze Latte von Spielen in denen sie derbe versägt wird, laut CBs 8800GT-Test. z.B. in Stalker ist das der Unterschied von 20 zu 40fps bei Gothic 3 sind es afair 80% usw.
Ich hätte jetzt eigentlich auch lieber eine 3870er als eine 8800gt aber ich weiß nicht ob ich mich nicht zu sehr von den evtl. unnützen features der 3870 blenden lasse. ;)

Ich hab die gt und die xt in Stalker verglichen , 1920x1080 alles High 16xAF, waren es 58Fps bei der gt und 52Fps bei der xt. (Savegame Bushaltestelle).

Bei Stalker hab ich in KEINER Situation 19fps gesehen mit der 2900xt.
Ich kann auch Screens machen.

Gothic 3 habe ich nicht.

Super Grobi
2007-11-10, 16:30:33
Kommt mal bitte wieder zum Topic zurück. Das ist ja langsam albern, das hier diskutiert wird, das Ware, die nur in geringen Stückzahlen verfügbar ist, teuer verkauft wird :crazy:

SG

Gast
2007-11-10, 16:34:03
Nicht gesehen, dann ist die andere Quellen mit den 105W/95W wohl obsolet. Aber 106W/98W ist ja nicht wirklich viel mehr.
Neulich wolltest du noch wasweißich wie große Puffer zwischen TDP und Realverbrauch gesehen haben... :D

Gast
2007-11-10, 16:44:33
Ich hab die gt und die xt in Stalker verglichen , 1920x1080 alles High 16xAF, waren es 58Fps bei der gt und 52Fps bei der xt. (Savegame Bushaltestelle).
Bei Stalker hab ich in KEINER Situation 19fps gesehen mit der 2900xt.
Ich kann auch Screens machen.

Hast du den Anfang von Stalker übersprungen? Da geht's mordsmäßig runter... sogar in niedrigen Auflösungen wie 1920x1200:
http://img107.imageshack.us/img107/9038/xr3da2007111016405064qx5.th.jpg (http://img107.imageshack.us/my.php?image=xr3da2007111016405064qx5.jpg)
Karte war sogar einigermaßen übertaktet.

Wenn ich mich mit dem "Gesicht" vor die Wand stelle, gehen die Fps natürlich hoch.

Nakai
2007-11-10, 16:47:21
Neulich wolltest du noch wasweißich wie große Puffer zwischen TDP und Realverbrauch gesehen haben...

Ja, die gibt es auch.

Ne HD2900XT verbraucht ja auch 200 Watt real...;D


mfg Nakai

StefanV
2007-11-10, 16:50:06
Neulich wolltest du noch wasweißich wie große Puffer zwischen TDP und Realverbrauch gesehen haben... :D
Heißt ja auch nicht umsonst Thermal DESIGH Power.

Da sagt der Name schon, das diese Angabe Realitätsfern ist.

[dzp]Viper
2007-11-10, 16:52:57
Hast du den Anfang von Stalker übersprungen? Da geht's mordsmäßig runter... sogar in niedrigen Auflösungen wie 1920x1200:
http://img107.imageshack.us/img107/9038/xr3da2007111016405064qx5.th.jpg (http://img107.imageshack.us/my.php?image=xr3da2007111016405064qx5.jpg)
Karte war sogar einigermaßen übertaktet.

Wenn ich mich mit dem "Gesicht" vor die Wand stelle, gehen die Fps natürlich hoch.

Da stimmt was nicht. Hab an der Stelle auch über 40fps...

Redneck
2007-11-10, 17:04:19
Naja, wenn man davon ausgeht, dass die 3870 der 2900xt +5% entspricht gibt es dennoch eine ganze Latte von Spielen in denen sie derbe versägt wird, laut CBs 8800GT-Test. z.B. in Stalker ist das der Unterschied von 20 zu 40fps bei Gothic 3 sind es afair 80% usw.
Ich hätte jetzt eigentlich auch lieber eine 3870er als eine 8800gt aber ich weiß nicht ob ich mich nicht zu sehr von den evtl. unnützen features der 3870 blenden lasse. ;)

hmmm... natürlich wird es immer Ausreisser nach unten oder oben geben.
Muß jeder selber entscheiden, für welche Spiele er sich eine neue Graka holt.
Wenn ich mir allerdings die performance Ergebnisse von Unreal3 auf Legion Hardware ansehe, bin ich eigentlich optimistisch was die Leitsung der rv3870
betrifft. Denke auch das noch Performance Treiber für sogenannte AAA Titel wie Cod4 und Crysis erscheinen werden,so das die Karte sicherlich nicht schlecht bei den ersten Reviews abschneiden wird.

Cheers

Gast
2007-11-10, 17:12:53
Warum bekommt man von AMD GPUs immer Taktraten geleakt die am Ende wieder runtergeschraubt werden. Nie was an der Architektur sich ändert oder ob endlich mal mehr ROPs/TMUs hinzukommen.

BTW, was man von 2xRV670 so sieht an Gerüchten, das doch kein echtes Highend oder? Damit kommt man eventuell leicht über einer 8800Ultra raus, also wo bleibt R680, wartet mal wieder ein AMD Chip auf bessere Ausbeute oder auf den 5. Respin?

laser114
2007-11-10, 17:16:47
Warum bekommt man von AMD GPUs immer Taktraten geleakt die am Ende wieder runtergeschraubt werden. Nie was an der Architektur sich ändert oder ob endlich mal mehr ROPs/TMUs hinzukommen.

Weil AMD immer irgendwo ihre 'Target Clocks' hinschreiben, die eben nicht immer erreicht werden.
Muss aber so nicht kommen. Siehe R520, der wurde kurz vor Launch noch um 25 MHz aufgewertet.

BTW, was man von 2xRV670 so sieht an Gerüchten, das doch kein echtes Highend oder? Damit kommt man eventuell leicht über einer 8800Ultra raus, also wo bleibt R680, wartet mal wieder ein AMD Chip auf bessere Ausbeute oder auf den 5. Respin?

Nach aktuellen Erkenntnissen gibt es bis zum R700 keinen echten High-End-Chip mehr. Rentiert sich wahrscheinlich mit der aktuellen Architektur nicht. Für Benchmarks wo man sich mal vorne liegen sehen will dient die Doppelkarte, ob sie das Zweck erfüllt ist eine andere Frage. Aber dann müsste Nvidia zumindest mal rausrücken.

Gast
2007-11-10, 17:19:24
Hast du den Anfang von Stalker übersprungen? Da geht's mordsmäßig runter... sogar in niedrigen Auflösungen wie 1920x1200:
http://img107.imageshack.us/img107/9038/xr3da2007111016405064qx5.th.jpg (http://img107.imageshack.us/my.php?image=xr3da2007111016405064qx5.jpg)
Karte war sogar einigermaßen übertaktet.

Wenn ich mich mit dem "Gesicht" vor die Wand stelle, gehen die Fps natürlich hoch.
Hier sind die Bilder von mir (kann nur bis 1920x1080)

http://img255.imageshack.us/img255/9337/xr3da2007111017003015lz2.th.jpg (http://img255.imageshack.us/my.php?image=xr3da2007111017003015lz2.jpg)

Und hier noch wo man direkt aus dem Keller kommt

http://img136.imageshack.us/img136/9364/xr3da2007111017030304mf0.th.jpg (http://img136.imageshack.us/my.php?image=xr3da2007111017030304mf0.jpg)

Settings:1920x1080, alles High, 16xaf,

Software: XP32bit, Stalker mit Patch 1.004

Q6600 (3,0ghz) + Hd2900xt auf 825/930

AnarchX
2007-11-10, 17:22:51
Weil AMD immer irgendwo ihre 'Target Clocks' hinschreiben, die eben nicht immer erreicht werden.
Muss aber so nicht kommen. Siehe R520, der wurde kurz vor Launch noch um 25 MHz aufgewertet.
Wobei doch R520 mal auch auf ~700MHz geplant war, nur hatte man da wohl 90nm überschätzt.



Nach aktuellen Erkenntnissen gibt es bis zum R700 keinen echten High-End-Chip mehr. Rentiert sich wahrscheinlich mit der aktuellen Architektur nicht. Für Benchmarks wo man sich mal vorne liegen sehen will dient die Doppelkarte, ob sie das Zweck erfüllt ist eine andere Frage. Aber dann müsste Nvidia zumindest mal rausrücken.
CF/Dual-GPU scheint ATis Zukunft im HighEnd zu sein, darauf deuten Interviews als auch Gerüchte hin. So kann man eben immer den neuesten Prozess adaptieren und den Problemen eines Monster-Dies aus dem Weg gehen.

LovesuckZ
2007-11-10, 17:36:42
Habe ich gesagt, dass ich das weiß? Nein. Es mutet nur ziemlich seltsam an, das eine 8800GT mit einem offensichtlich teildeaktiviertem Chip mit >300mm² um 249$/199$ kommt. Keine Spur von der vollen Ausbaustufe. IMHO sollten G92 mit den anderen Chips wie auch von AMD ursprünglich geplant erst im Q1 08 kommen, durch die Vorverlegung des RV670 kam es jetzt eben zur 8800GT in der heute bekannten Form. Aber das ist nur meine Meinung.


G92 war schon immer für Herbst geplant. Ob 4,5,6,7 oder 8 aktive Cluster bei einem nativen 8 Cluster Chip macht keinen Unterschied, da die Größe davon nicht abhängig ist.
Dahe rnochmal: Was soll denn bezüglich des Chips anders geplant gewesen sein?

laser114
2007-11-10, 17:43:19
Dahe rnochmal: Was soll denn bezüglich des Chips anders geplant gewesen sein?

Das wird man erst dann endgültig sagen können, wenn man weiß wie hoch das Speicherinterface des G92 wirklich ist.

Wenns 384 Bit sind, dürfte hier eine neue High-End-Lösung geplant gewesen sein.

Hvoralek
2007-11-10, 17:49:46
http://cgi.ebay.de/Leadtek-GeForce-8800GT-Extreme-Edition-NEU-Rechnung_W0QQitemZ280171787051QQihZ018QQcategoryZ148515QQssPageNameZWDVWQQrdZ1QQ cmdZViewItem

Dem kleinen sollte man mal ordentlich den Arsch versohlen, mein gott was wird nur aus dieser Geselschaft, das erfüllt ja schon den Sachverhalt des Betruges.Ich habe das nur überflogen, aber wo siehst Du da das große Problem? Die Aussage, diese übertaktete GT sei schneller als GTX/ Ultra ist zwar gewagt, aber für Ebayverhältnisse nicht besonders krass und auch nicht ganz von der Hand zu weisen: Es gibt Situationen, in denen so eine GT schneller ist als die beiden anderen.

Übrigens: Solange niemand das Ding gekauft hat, könnte das allerhöchstens versuchter Betrug sein :wink:

Nicht gesehen, dann ist die andere Quellen mit den 105W/95W wohl obsolet. Aber 106W/98W ist ja nicht wirklich viel mehr.Naja, 106W/ 98W tatsächlicher Verbrauch dürften mindestens 120W/ 110W TDP bedeuten.

Gast
2007-11-10, 18:02:28
Heißt ja auch nicht umsonst Thermal DESIGH Power.

Da sagt der Name schon, das diese Angabe Realitätsfern ist.
^Zusammenhang. Und wohl eher Design Power - zum De-Seufzen ist da nix. ;D

Der Zusammenhang:
Neulich wollte reunion uns noch einreden, dass der Unterschied zwischen TDP und Realverbrauch sehr hoch sei. Nun tut er den Unterschied zwischen einer TDP und einem höheren Realverbrauch mit "Aber 106W/98W ist ja nicht wirklich viel mehr." ab. ;D

Wenn es 106 Watt real sind, dürften es ja doch eher ~128/136 Watt TDP sein.

laser114
2007-11-10, 18:04:59
Neulich wollte reunion uns noch einreden, dass der Unterschied zwischen TDP und Realverbrauch sehr hoch sei.

Das ist er auch. Da müssen etliche Sicherheiten mit einberechnet sein.
Wobei das Diagramm auch eher Peaks als Durchschnittsverbräuche zeigt, jedenfalls auf die 2900 XT bezogen. Mit ~ 120W TDP kommt man vielleicht hin.

seahawk
2007-11-10, 18:09:18
Das wird man erst dann endgültig sagen können, wenn man weiß wie hoch das Speicherinterface des G92 wirklich ist.

Wenns 384 Bit sind, dürfte hier eine neue High-End-Lösung geplant gewesen sein.

Und wer sagt, dass man nur eine High-End-Lösung plante und die De-aktivierugn nicht einkalkuliert wurde, wovon man gerade bei NV wohl ausgehen kann.

AnarchX
2007-11-10, 18:17:07
Gerüchte sprachen schon im September davon, dass der G92 8C haben soll, aber 2007 nur ein G92@6C kommen soll.
Woran ich aber nicht wirklich glaubte: Wer dachte schon damals an eine 8800 GT mit 112SPs, welche den Verkauf eines neuen Chips einläutet, der wohl auch noch auf HighEnd-SKU eingesetzt wird. :|

Aber aus 6C wurden dann eben 7, da der RV670 von NV doch etwas unterschätzt wurde... ;)

Anok
2007-11-10, 18:18:03
Wo will NV Ködern? oje noch einer der nur müll labert. Von anfang an war klar das die verfügbarkeit "schlecht" ist (ca. 50000 kärtchen) Also benutz mal bissle dein Hirn ja? (wann da was is) und es is wohl klar das die shops die eine haben sich nen reibach machen oder? also machen sie preise von 260 euro und evtl. mehr.


Das ist doch genau der Punkt, was bringen mir Karten (in diesem Fall die 8800GT) wenn sie einfach nicht lieferbar ist. Das hat nichts damit zu tun, dass sie von NV ist, ATI machts sie ja nicht besser die kriegen es garnicht hin Ansatzweise solche Karten auf dem Markt zu werfen.

Und für 260€ ist die Gt sicherlich nicht der Preisleistungskiller.


Selbst wenn Mix die Karten für 200€ ausliefern sollte, was ich nicht glaube. Dann ist immer noch offen wann es geschieht.

Also benutz mal bissle dein Hirn ja? (wann da was is)


p.s. geh wieder in dein Sandkasten spielen und nim gleich den Sklave-ATI mit.
und solche Posts kannst du dir schenken.

Gast
2007-11-10, 18:40:37
Hier sind die Bilder von mir (kann nur bis 1920x1080)

http://img255.imageshack.us/img255/9337/xr3da2007111017003015lz2.th.jpg (http://img255.imageshack.us/my.php?image=xr3da2007111017003015lz2.jpg)

Und hier noch wo man direkt aus dem Keller kommt

http://img136.imageshack.us/img136/9364/xr3da2007111017030304mf0.th.jpg (http://img136.imageshack.us/my.php?image=xr3da2007111017030304mf0.jpg)

Settings:1920x1080, alles High, 16xaf,

Software: XP32bit, Stalker mit Patch 1.004

Q6600 (3,0ghz) + Hd2900xt auf 825/930

Lass mich raten: Du hast AF im Spiel aktiviert, sodass Normals usw. nicht mitgefiltert werden? Das spart natürlich 'ne Menge Fps... sieht aber nicht schön aus.

Gast
2007-11-10, 18:41:25
Wobei das Diagramm auch eher Peaks als Durchschnittsverbräuche zeigt,..
Sagt wer?

[dzp]Viper
2007-11-10, 18:42:30
Lass mich raten: Du hast AF im Spiel aktiviert, sodass Normals usw. nicht mitgefiltert werden? Das spart natürlich 'ne Menge Fps... sieht aber nicht schön aus.
Das würde vielleicht 3-4fps Sparen. Aber sicher nicht 15-20 :rolleyes:

laser114
2007-11-10, 18:43:45
Sagt wer?

Ich. Erklärung folgt nach dem Komma, was du im Zitat leider weggeschnitten hast.

DrFreaK666
2007-11-10, 18:48:51
Also für den Preis von ca. 150€ ist die 3850 der wahre 1950Pro-Nachfolger, oder?

-/\-CruNcher-/\-
2007-11-10, 18:56:51
http://s1.directupload.net/images/071110/9vgcntee.jpg
stellt sehr deutlich da was wen ablöst.

Gast
2007-11-10, 19:00:08
Ich. Erklärung folgt nach dem Komma, was du im Zitat leider weggeschnitten hast.
Gut, also lediglich deine Vermutung.

Gast
2007-11-10, 19:01:03
Und was ist mit den 2 neuen Geforce 8800 GTS Karten?

-/\-CruNcher-/\-
2007-11-10, 19:05:50
Und was ist mit den 2 neuen Geforce 8800 GTS Karten?
Diese Phase des Krieges beginnt erst im Dezember mit der GTS und HD3870 X2
wie Nvidia dann kontert ist noch nicht bekannt aber anscheinend ist auch eine Dual dann dran, danach ist der Krieg dann erstmal zuende (Keine Munition mehr auf beider seiten).

Gast
2007-11-10, 19:12:09
Viper;6015254']Das würde vielleicht 3-4fps Sparen. Aber sicher nicht 15-20 :rolleyes:
Pass auf, dass die rollenden Augen nicht auf den Boden plumpsen, Giftschlange. ;)

Ich hab das nämlich grad mal ausprobiert - das ist tatsächlich der Grund.

Hier mit halbwegs anständigem AF:
http://img232.imageshack.us/img232/4619/xr3da2007111018343032re6.th.png (http://img232.imageshack.us/my.php?image=xr3da2007111018343032re6.png)

Und hier mit zusätzlichen Samples nur für die Basistextur:
http://img143.imageshack.us/img143/8527/xr3da2007111018355887yb5.th.png (http://img143.imageshack.us/my.php?image=xr3da2007111018355887yb5.png)

Wie du siehst, waren deine rollenden Augen etwas voreilig, mein junger Padawan.

LovesuckZ
2007-11-10, 19:23:04
Gerüchte sprachen schon im September davon, dass der G92 8C haben soll, aber 2007 nur ein G92@6C kommen soll.
Woran ich aber nicht wirklich glaubte: Wer dachte schon damals an eine 8800 GT mit 112SPs, welche den Verkauf eines neuen Chips einläutet, der wohl auch noch auf HighEnd-SKU eingesetzt wird. :|


Nochmal: Der G92 war geplant für diesen Herbst - genau wie er ist. Ob die 8800GT 6 oder 7 Cluster haben werde, spielt da überhaupt keine Rolle. Wobei die Karte selbst mit 6 Cluster und der 8800GT Taktung noch schneller wäre als die 8800GTS und 3870.

seahawk
2007-11-10, 19:30:10
Nochmal: Der G92 war geplant für diesen Herbst - genau wie er ist. Ob die 8800GT 6 oder 7 Cluster haben werde, spielt da überhaupt keine Rolle. Wobei die Karte selbst mit 6 Cluster und der 8800GT Taktung noch schneller wäre als die 8800GTS und 3870.

Das ist der Vorteil von NV-Designentscheidungen. Sie können je nach Prozesserfolg entweder weniger Einheiten und mehr Takt gehen oder mehr Einheiten und weniger Takt. Der spekulierte 96SP Chip sollte ja deutlich höher takten, ich vermute, dass dies der alte Plan, man aber erkannte, dass ein 7C mit weniger Takt bessere Yields und weniger Stromverbrauch ermöglicht. Für NV ist es letztendlich egal. Und da liegt der Vorteil der G8X*G9X Serie gegenüber der ATI Konkurrenz.

Gast
2007-11-10, 19:46:46
http://s1.directupload.net/images/071110/9vgcntee.jpg
stellt sehr deutlich da was wen ablöst.
*hust*
Bis auf das links und rechts die Preise niemals stimmen. Weder kostet eine 8800 GT soviel wie eine 8600 GTS noch ist die HD3850 für den Preis einer HD2600 Pro zu haben.

StefanV
2007-11-10, 19:53:02
*hust*
Bis auf das links und rechts die Preise niemals stimmen. Weder kostet eine 8800 GT soviel wie eine 8600 GTS noch ist die HD3850 für den Preis einer HD2600 Pro zu haben.
naja, die PReise warern am Anfang schon recht hoch, die 2600XT/4 wurd ja um 150-200€ eingeführt...

Sk_Antilles
2007-11-10, 20:25:22
Diese Phase des Krieges beginnt erst im Dezember mit der GTS und HD3870 X2
wie Nvidia dann kontert ist noch nicht bekannt aber anscheinend ist auch eine Dual dann dran, danach ist der Krieg dann erstmal zuende (Keine Munition mehr auf beider seiten).

Klappspaten frei. Nahkampf ;)

Ne, also. Irgendwie ist mir das alles nicht so geheuer was derzeit bei AMD bezüglich de GPUs und CPUs abläuft. Hoffentlich kriegen die etwas ordentliches Gebacken. Sieht aber leider nicht so sehr danach aus. Wie es scheint werden sie nur an NVidia/Intel rann kommen. Mehr aber auch nicht. Dafür hat aber AMD/Ati aber anscheinend ein sehr gutes Paket für die mittlere Preisklasse. Schade nur, dass es mal wieder nicht für die Spitze reichen wird (so wie es aussieht). :(

Johnny Rico
2007-11-10, 23:36:43
Das Warten ist unerträglich =/

Gast
2007-11-10, 23:42:45
Auf der PCGH-Seite werden 412 Unified Shader für den HG3870 angeben...das stinkt doch nach erheblichen Verbesserungen/Erweiterungen an der Architektur!

Johnny Rico
2007-11-10, 23:44:26
Darauf antwortet jeder, dass das Tool die Karte noch nicht erkennt. Und auch rechnerisch soll es da nicht ganz klappen. Schön wie die Leute das Gerücht durch die Foren streuen :P Am besten noch fett gedruckt :I

Gast
2007-11-10, 23:50:38
Lass mich raten: Du hast AF im Spiel aktiviert, sodass Normals usw. nicht mitgefiltert werden? Das spart natürlich 'ne Menge Fps... sieht aber nicht schön aus.
Ja ich hatte im Game AF an, hab nochmal 2 neue Bilder gemacht.

http://img135.imageshack.us/img135/9027/ingameafgp0.th.jpg (http://img135.imageshack.us/my.php?image=ingameafgp0.jpg)
in Game AF 16x

http://img218.imageshack.us/img218/7845/treiberafry5.th.jpg (http://img218.imageshack.us/my.php?image=treiberafry5.jpg)
Treiber AF 16xHQ

Gast
2007-11-11, 00:04:29
Tja, und mit den Settings habe ich schon in 1920x1200 teils weniger als 20 Fps, wenn nix los ist auf dem Schirm. :)

laser114
2007-11-11, 00:20:44
Auf der PCGH-Seite werden 412 Unified Shader für den HG3870 angeben...das stinkt doch nach erheblichen Verbesserungen/Erweiterungen an der Architektur!

Macht 84,2 5D-Shader. Genau, sehr realistisch. ;D

StefanV
2007-11-11, 00:38:45
Auf der PCGH-Seite werden 412 Unified Shader für den HG3870 angeben...das stinkt doch nach erheblichen Verbesserungen/Erweiterungen an der Architektur!
Ja, weils von GPU-Z falsch ausgelesen wurd und das dann irgendwer abgeschrieben hat, ders wiederum abgeschrieben hat...

Superheld
2007-11-11, 00:55:00
http://www.expreview.com/news/hard/2007-11-09/1194593066d6878.html

StefanV
2007-11-11, 01:11:04
Ich muss sagen, das ich es immer wieder etwas blöde find, wenn man einfach so einen Link in 'nen Thread schmeißt, ohne auch nur 1-2 Worte dazu zu sagen...

Da du das vergessen hast, schreib ich mal 'nen Wort dazu:
M$ Flight Sim X auf 8 Schirmen...

L2K
2007-11-11, 01:50:35
Meiner Meinung nach wird mit Multimonitor Crossfire ein großes K.O. Kriterium gegen Crossfire beseitigt.
Für mich persönlich als zockender Grafiker und daher Multimonitor-Nutzer ist somit der Weg für ein Crossfire System in einer Woche geebnet. Wenn jetzt auch noch Crossfire OC und CF Powerplay perfekt funktioniert und noch mehr an der Skalierung und allgemeinen Unterstützung gearbeitet wurde/wird umso besser :)

Superheld
2007-11-11, 01:55:42
Ich muss sagen, das ich es immer wieder etwas blöde find, wenn man einfach so einen Link in 'nen Thread schmeißt, ohne auch nur 1-2 Worte dazu zu sagen...

Da du das vergessen hast, schreib ich mal 'nen Wort dazu:
M$ Flight Sim X auf 8 Schirmen...

sorrry war zu faul dafür ;)

...irgend ein Scheiß werd ich sicherlich nicht hier posten;)

up¦²
2007-11-11, 03:09:15
Schon bekannt? ansonsten: DELL hat die Quadriga² im Stall
Dell set to launch AMD Phenom, QuadFire system
XPS moving from Intel-only, Nvidia-only
...
http://www.theinquirer.net/gb/inquirer/news/2007/11/10/dell-set-launch-amd-phenom

StefanV
2007-11-11, 03:11:35
Ja, wurd schonmal gepostet, ist schon bekannt.

Das erklärt auch warum die Opterons nicht zu bekommen sind, wenn Dell alle K10 bekommt :ugly:

-/\-CruNcher-/\-
2007-11-11, 03:23:44
Auf der PCGH-Seite werden 412 Unified Shader für den HG3870 angeben...das stinkt doch nach erheblichen Verbesserungen/Erweiterungen an der Architektur!

Da sieht man mal wieder ist typisch, diese halbherzige Recherchiererei von der PCGH geht ja langsam sowas von auf die Nerven, das ist echt Bild niveou.
Beziehen tun sie sich sicherlich auf den Vorabtest von VR-Zone nur weiss man da noch nix und ich bezweifele mal das GPU-Z die Daten aus dem Chip direkt ausliest? das man ausversehen anstelle von 320, 412 eintippt erscheint denoch komisch.

Ailuros
2007-11-11, 10:33:19
Doch das kann ich und wenn du schon gleich dabei bist dann klär mich auch auf wieso die UE3 besser abschneidet auf der R6xx Architektur und besser Skaliert als wie z.b die Cryengine2 (die imho sehr miese Ergebnisse ausgehend von der Crysis Demo bringt auf beiden Architekturen) :)

Ich wuerde an Deiner Stelle die finalen Games erstmal abwarten und nichts von pre-release demos versuchen abzulesen.

Schon gar nicht was CryTek betrifft LOL ;)

Ailuros
2007-11-11, 10:39:01
sicher ?
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
(Danke @ deekey777)

Scroll ganz runter und sieh dir mal genau den speichertakt/frame verlauf an, vorallem wenns richtig knapp wird mit dem speichertakt.
Man sieht nur eins, das die HD2900XT aus weniger Speicherbandbreite mehr macht.
HD2900XT@700mhz@89600MB/s vs 8800gts@850mhz@68000MB/sec 93fps
HD2900XT@500mhz@64000MB/s vs 8800gts@750mhz@60000MB/sec 88fps
HD2900XT@250mhz@32000MB/s vs 8800gts@435mhz@34800MB/sec 58fps
Nicht vergessen das die ATI Karte noch eine viel schlechtere latenz hat mit lächerlichen 250mhz
8800gtx@900mhz@86400MB/sec119fps
HD2900XT@900mhz@115200MB/svs 8800gtx@590mhz@56640MB/sec 95fps
HD2900XT@700mhz@89600MB/s vs 8800gtx@575mhz@55200MB/sec 93fps
HD2900XT@500mhz@64000MB/s vs 8800gtx@540mhz@51840MB/sec 88fps
HD2900XT@250mhz@32000MB/s vs 8800gtx@345mhz@33120MB/sec 58fps
Man sieht ganz leicht das bei der GTX sowie der GTS eine viel kleinere reduzierung der Speicherbandbreite notwendig ist um genau so schnell langsamer zu werden wie der r600. Wärend dieser seine Bandbreite auf fast
1/4 reduziert und dann auch noch mit weniger Speicherbandbreite und einer sehr sehr miesen latens(250mhzvs345mhzvs435mhz) plötzlich genau so schnell ist wie eine 8800gtx.
Was ja auch bei den Architekturen nicht anders zu erwarten ist meiner meinung nache siehe reunion
Ich hoffe ich konnte licht ins dunkle bringen Ailuros

mfg martin


Was sollen mir die 0815 Resultate ueberhaupt sagen? Haettest Du fuer Erlaeuterungen gefragt, haettest Du auch gewusst was ich genau meinte; mal mal selber einen Graph mit nur default Frequenzen und zeig mir wie jeweils das Z-Fuellraten zu Bandbreiten-Verhaeltnis bei 4xMSAA genau aussieht.

Gast
2007-11-11, 11:24:08
Auf der PCGH-Seite werden 412 Unified Shader für den HG3870 angeben...das stinkt doch nach erheblichen Verbesserungen/Erweiterungen an der Architektur!
Link, sonst glaub ich dir nicht:
http://www.pcgameshardware.de/?menu=060108&searchkey=412&order=PUBLISHED.desc

reunion
2007-11-11, 11:29:14
Naja, 106W/ 98W tatsächlicher Verbrauch dürften mindestens 120W/ 110W TDP bedeuten.

Das ist kein tatsächlicher Verbrauch. Oder verbraucht eine 2900XT tatsächlich 200W? xbitlabs maß knapp über 160W peak.

G92 war schon immer für Herbst geplant. Ob 4,5,6,7 oder 8 aktive Cluster bei einem nativen 8 Cluster Chip macht keinen Unterschied, da die Größe davon nicht abhängig ist.
Dahe rnochmal: Was soll denn bezüglich des Chips anders geplant gewesen sein?

Trotzdem bedeuten weniger aktivierte Cluster eine höhere Ausbeute und damit letztendlich niedrigere Fertigungskosten. Auch denke ich nicht, dass nV das Ding gerne um 199$/249$ verkauft. Die Leistung passt auch eher in den Preisbereich >300$. Aber da wir sowieso nicht wissen, was ursprünglich geplant war, führt das zu nichts.

^Zusammenhang. Und wohl eher Design Power - zum De-Seufzen ist da nix. ;D

Der Zusammenhang:
Neulich wollte reunion uns noch einreden, dass der Unterschied zwischen TDP und Realverbrauch sehr hoch sei. Nun tut er den Unterschied zwischen einer TDP und einem höheren Realverbrauch mit "Aber 106W/98W ist ja nicht wirklich viel mehr." ab. ;D

Wenn es 106 Watt real sind, dürften es ja doch eher ~128/136 Watt TDP sein.

Der einzige, der den Zusammenhang nicht schnallt, bist du. Das sind nie und nimmer reale Verbrauchswerte, wie man sehr schön an der 2900XT sieht.

Das ist der Vorteil von NV-Designentscheidungen. Sie können je nach Prozesserfolg entweder weniger Einheiten und mehr Takt gehen oder mehr Einheiten und weniger Takt. Der spekulierte 96SP Chip sollte ja deutlich höher takten, ich vermute, dass dies der alte Plan, man aber erkannte, dass ein 7C mit weniger Takt bessere Yields und weniger Stromverbrauch ermöglicht. Für NV ist es letztendlich egal. Und da liegt der Vorteil der G8X*G9X Serie gegenüber der ATI Konkurrenz.

AMD kann genauso Einheiten deaktivieren wie ihnen beliebt. Nur weil sie das nicht müssen, da die Ausbeute gut genug ist, ist das sicher keine Vorteil von nV - ganz im Gegenteil. Der Vorteil von nV ist, dass man einfach den weitaus schnelleren Chip hat, und sich deshalb solche Dinge erlauben kann.

Gast
2007-11-11, 11:37:23
Das ist kein tatsächlicher Verbrauch. Oder verbraucht eine 2900XT tatsächlich 200W? xbitlabs maß knapp über 160W peak.

Ich messe im gedrosselten Idle ~122 Watt (und da verbraucht die Karte sicherlich nicht 0 Watt. Unter Volllast bekomme ich schnell mal um die 300 Watt zusammen (Ati-Tool auf einen Kern beschränkt, TDP 65 Watt / 2 = 33,5 Watt, verbraucht auch keine Null Watt im Idle).

Ergo glaube ich kaum, dass ich mit 160 Watt für die Graka auskomme - zumal es sich dabei nur um eine HD2900 Pro handelt.

Gast
2007-11-11, 11:37:53
Das ist kein tatsächlicher Verbrauch.
Deine Behauptung - bitte belegen.

Gast
2007-11-11, 11:39:33
Der einzige, der den Zusammenhang nicht schnallt, bist du. Das sind nie und nimmer reale Verbrauchswerte, wie man sehr schön an der 2900XT sieht.
Wiederum deine unbewiesene Annahme - und dann noch anderen vorwerfen, den Zusammenhang nicht zu verstehen ist ja fast schon dreist. ;D

Für deine Information:
Xbit misst mit dem 3DMark06 - das ist zwar eine reale Anwendung, aber ganz sicher keine, die den Grafikchip voll auslastet. :)

reunion
2007-11-11, 11:43:10
Deine Behauptung - bitte belegen.

Beweise das Gegenteil. Ich habe schon gezeigt, dass die Messungen von xbitlabs niedriger liegen als die Angaben von AMD. Andere Messungen der Karte alleine gibt es nicht.

reunion
2007-11-11, 11:46:09
Für deine Information:
Xbit misst mit dem 3DMark06 - das ist zwar eine reale Anwendung, aber ganz sicher keine, die den Grafikchip voll auslastet. :)

Tja, welche Anwendung lastet denn deiner Meinung nach den Grafikchip voll aus? Der 3dmark06 dürfte mit 1600 x 1200 und 4AA/16AF (wie xbitlabs AFAIK misst) nurnoch einstellige Frames/s ausspucken und deshalb die Karte sicher nicht Däumchen drehen lassen. Das ist eben der Unterschied TDP - reale Verbrauchswerte. Einen "voll ausgelastet" Chip gibt es nur im Labor.

laser114
2007-11-11, 11:54:34
Ich messe im gedrosselten Idle ~122 Watt (und da verbraucht die Karte sicherlich nicht 0 Watt. Unter Volllast bekomme ich schnell mal um die 300 Watt zusammen (Ati-Tool auf einen Kern beschränkt, TDP 65 Watt / 2 = 33,5 Watt, verbraucht auch keine Null Watt im Idle).

Naja, ob man das mit den Kernen so berechnen kann? Da wird doch sicher nicht die Stromversorgung komplett geknappt.
Desweiteren musst ja auch noch die Ineffizienz des Netzteils dazu gerechnet werden (die aber selbstverständlich sich auf die Stromrechnung niederschlägt).

Auf jeden Fall ist mit Werten im Bereich der 8800 GT unter Volllast zu rechnen.

dargo
2007-11-11, 11:58:31
Für deine Information:
Xbit misst mit dem 3DMark06 - das ist zwar eine reale Anwendung, aber ganz sicher keine, die den Grafikchip voll auslastet. :)
Das ist korrekt. Lustigerweise belastet der 3DMark05 mein System stärker. Obs die Grafikkarte alleine ist kann ich allerdings nicht sagen. Die höhere Last könnte zb. auch an der CPU liegen.

Gast
2007-11-11, 12:10:57
Naja, ob man das mit den Kernen so berechnen kann? Da wird doch sicher nicht die Stromversorgung komplett geknappt.
Desweiteren musst ja auch noch die Ineffizienz des Netzteils dazu gerechnet werden (die aber selbstverständlich sich auf die Stromrechnung niederschlägt).

Auf jeden Fall ist mit Werten im Bereich der 8800 GT unter Volllast zu rechnen.
Nein, berechnen kann ich das so nicht - das ist klar. Es sollte aber zeigen, dass die Werte, die Xbit-Labs da messen, zwar wohl korrekt und vergleichbar sind, aber niemals die Spitzenlast wiedergeben können - zumal die auf unterschiedlichen Architekturen auch anders erreicht wird.

Bei AMD bräuchtest du dazu vermutlich 320 unabhängige MADDs pro Takt plus 16 bilineare Texture-Fetches und 16 point-sampling-fetches, zusätzlich noch entsprechende Speicherzugriffe, Auslastung der Z-Compares usw. usf.

Bei Nvidia wären 128 MADDs angesagt plus 32 trilineare Texturen plus 192 Z-Operationen (und noch etliches mehr)

Damit sollte klar werden, dass letztendlich auch die Verbrauchsmessung von XBit nichts anderes ist, als ein Benchmark unter vielen und somit nicht repräsentativer als die Punktzahl im 3DMark.


Kleiner Spaß am Rande:
Mein System mit auf XT übertakteter Pro nimmt in den Xbit-Settings komplett ~316 Watt auf. Damit ich die Last nicht allzusehr verändere, habe ich mal lediglich AF abgeschaltet: ~325 Watt.

Ergo: 160 Watt ist nicht peak, q.e.d.

laser114
2007-11-11, 12:11:48
Das ist korrekt. Lustigerweise belastet der 3DMark05 mein System stärker. Obs die Grafikkarte alleine ist kann ich allerdings nicht sagen. Die höhere Last könnte zb. auch an der CPU liegen.

Ich glaube der 3DMark 03 belastet sogar noch mehr, das ist jedenfalls der 3DMark wo die Stabilitätsgrenze beim Übertakten oft am ehesten erreicht wird.

Gast
2007-11-11, 12:12:06
Beweise das Gegenteil. Ich habe schon gezeigt, dass die Messungen von xbitlabs niedriger liegen als die Angaben von AMD. Andere Messungen der Karte alleine gibt es nicht.
Sorry, aber ich soll beweisen, dass du deine Behauptung nicht stimmt? Damit disqualifizierst du dich selbst.

Gast
2007-11-11, 12:14:53
Ich glaube der 3DMark 03 belastet sogar noch mehr, das ist jedenfalls der 3DMark wo die Stabilitätsgrenze beim Übertakten oft am ehesten erreicht wird.
Ich habe das gestern beir mir mal am Wattmeter abgelesen (also nicht "gemessen"):

Im 05er und 03er bekomme ich 20 Watt höhere Peaks als im 06er. Alles allerdings bei den Standarddurchläufen.

Witziges Detail, aber leider OT:
Die HD2900 Das Gesamtsystem frisst im 3DMark06 am meisten Strom im 128er-Batch-Test und zwar mit Abstand.

Gast
2007-11-11, 12:19:16
Tja, welche Anwendung lastet denn deiner Meinung nach den Grafikchip voll aus? Der 3dmark06 dürfte mit 1600 x 1200 und 4AA/16AF (wie xbitlabs AFAIK misst) nurnoch einstellige Frames/s ausspucken und deshalb die Karte sicher nicht Däumchen drehen lassen. Das ist eben der Unterschied TDP - reale Verbrauchswerte. Einen "voll ausgelastet" Chip gibt es nur im Labor.
Xbit misst ohne FSAA.

Mittlerweile haben dir mehrere Personen außer mir bestätigt, dass der 3DM06 keine Spitzenlast erzeugt, deine realen Verbrauchswerte sind - wie oben erläutert - damit irrelevant, weil sie von Applikation zu Applikation, ja von Setting zu Setting, stark schwanken.

Was zählt ist der Verbrauch in der für den jeweiligen Anwender wichtigen Anwendung in den jeweils genutzten Settings. Im Zweifelsfalle muss man immer damit rechnen, dass mal eine Anwendung daherkommt, die sich der TDP stärker annähert, als es vorige Anwendungen taten.

Und du kannst dir sicher sein, dass AMD und Nvidia Tools haben, die die Chips stärker auslasten, als alles, was du und ich bisher in freier Wildbahn gesehen haben (<- Vorsicht, unbewiesene Annahme meinerseits).

reunion
2007-11-11, 12:19:30
Sorry, aber ich soll beweisen, dass du deine Behauptung nicht stimmt? Damit disqualifizierst du dich selbst.

Du bist wirklich ulkig. Deine Behauptung, dass es sich hier um reale Verbrauchswerte handelt ist genau so wenig belegt. Ich habe Messungen von xbitlabs erwähnt, die deutlich darunter liegen, von dir kommt schlicht nichts außer einer großen Klappe.

Super Grobi
2007-11-11, 12:21:59
Ist jetzt eigentlich auch mal damit zu rechnen, das in den nächsten Tagen die Shops die HD2900XT verschleudert?

Wenn die neuen Grakas kommen, will doch keiner mehr die "alte" 2900" haben.

SG

reunion
2007-11-11, 12:22:00
Xbit misst ohne FSAA.

Mittlerweile haben dir mehrere Personen außer mir bestätigt, dass der 3DM06 keine Spitzenlast erzeugt, deine realen Verbrauchswerte sind - wie oben erläutert - damit irrelevant, weil sie von Applikation zu Applikation, ja von Setting zu Setting, stark schwanken.

Was zählt ist der Verbrauch in der für den jeweiligen Anwender wichtigen Anwendung in den jeweils genutzten Settings. Im Zweifelsfalle muss man immer damit rechnen, dass mal eine Anwendung daherkommt, die sich der TDP stärker annähert, als es vorige Anwendungen taten.

Und du kannst dir sicher sein, dass AMD und Nvidia Tools haben, die die Chips stärker auslasten, als alles, was du und ich bisher in freier Wildbahn gesehen haben (<- Vorsicht, unbewiesene Annahme meinerseits).

Das bestreitet ja auch niemand. Natürlich wird es Anwendungen geben, die mehr Last erzeugen, genauso wird es Anwendungen geben, die weniger Last erzeugen. Deshalb gibt es ja auch die TDP, welche den absoluten Maximalverbrauch unter Laborbedingungen darstellt. AMD scheint bei dieser Tabelle sehr hoch gegriffene Werte anzugeben. Aber da man nicht weiß, wie diese Werte zustande gekommen sind, sind jegliche Rückschlüsse ohnehin unmöglich, da es, wie du ja selbst sagst, je nach Anwendung zu stark unterschiedlichen Werten kommen kann.

Gast
2007-11-11, 12:22:37
Tja, welche Anwendung lastet denn deiner Meinung nach den Grafikchip voll aus? Der 3dmark06 dürfte mit 1600 x 1200 und 4AA/16AF (wie xbitlabs AFAIK misst) nurnoch einstellige Frames/s ausspucken und deshalb die Karte sicher nicht Däumchen drehen lassen. Das ist eben der Unterschied TDP - reale Verbrauchswerte. Einen "voll ausgelastet" Chip gibt es nur im Labor.
Man könnte auch F@H-GPU-Client nehmen, dieser lässt die Grafikkarte auch schwitzen.

laser114
2007-11-11, 12:23:53
Ist jetzt eigentlich auch mal damit zu rechnen, das in den nächsten Tagen die Shops die HD2900XT verschleudert?

Von einem Verschleudern der 8800 GTS 320/640 habe ich auch nichts gesehen. Eigentlich wäre das schon sinnvoll, aber die scheinen bisher zu warten...

Super Grobi
2007-11-11, 12:26:51
Von einem Verschleudern der 8800 GTS 320/640 habe ich auch nichts gesehen. Eigentlich wäre das schon sinnvoll, aber die scheinen bisher zu warten...

Stimmt,
bei der Geforce ist es ja ähnlich. Nur unwissende kaufen heute noch eine GTS.

SG

Gast
2007-11-11, 12:41:08
Du bist wirklich ulkig. Deine Behauptung, dass es sich hier um reale Verbrauchswerte handelt ist genau so wenig belegt. Ich habe Messungen von xbitlabs erwähnt, die deutlich darunter liegen, von dir kommt schlicht nichts außer einer großen Klappe.
http://godlike.cl/up/im/20/pplay2.jpg

Was bedeutet deiner Meinung nach dann "Average Board Power Draw"? ;)
Mal davon abgesehen, dass eine "Light Gaming.."- oder "Idle"-TDP völlig sinnlos wäre, weil die TDP dazu dient, AIBs und OEMs das Einhalten der Thermal-Specs durch entsprechende Dimensionierung der Kühlkörper zu ermöglichen.

Oder glaubst du an ein "DELL XPS 4 Light Gaming" und ein "DELL XPS 4 Idle-use only". Ich nicht.

Gast
2007-11-11, 12:42:00
Man könnte auch F@H-GPU-Client nehmen, dieser lässt die Grafikkarte auch schwitzen.
Leider nur Teile der Graka.

Nakai
2007-11-11, 12:47:44
Was bedeutet deiner Meinung nach dann "Average Board Power Draw"?

Auf jedenfall nicht der maximale Verbrauch, vorallem wenn die TDP des R600 angegeben werden.


mfg Nakai

Gast
2007-11-11, 12:52:27
Auf jedenfall nicht der maximale Verbrauch, vorallem wenn die TDP des R600 angegeben werden.


mfg Nakai
Die Bezeichnung ist eindeutig - Avg. Board Power Draw - da steht kein Sternchen dran "Für HD2900 XT aber TDP". ;D

Gast
2007-11-11, 12:53:36
Leider nur Teile der Graka.
Und welche Teile? Der 12-V-Anschluss?
Welche Bedeutung hat das (insbesondere bei einem US-Chip wie dem R600*), wenn man damit - rein spekulativ, da es keine Messungen dazu gib - dem R600 einen anderen Strumhunger bescheinigen könnte als mit 3DMark 2006?


*Für den es leider keinen GPU-Client gibt.

reunion
2007-11-11, 12:54:16
http://godlike.cl/up/im/20/pplay2.jpg

Was bedeutet deiner Meinung nach dann "Average Board Power Draw"? ;)


Sag es mir, ich komme nicht drauf. Der Durchschnitt von was? Von realen Anwendungen/Spielen(wenn ja, von welchen?), oder von AMDs Testtools, welche die Karte an die Maximallast treiben? etc.


Mal davon abgesehen, dass eine "Light Gaming.."- oder "Idle"-TDP völlig sinnlos wäre, weil die TDP dazu dient, AIBs und OEMs das Einhalten der Thermal-Specs durch entsprechende Dimensionierung der Kühlkörper zu ermöglichen.

Oder glaubst du an ein "DELL XPS 4 Light Gaming" und ein "DELL XPS 4 Idle-use only". Ich nicht.

Siehe meinen vorherigen Beitrag #1130. Man kann daraus trotzdem nur sehr begrenzt Rückschlüsse ziehen.

Nakai
2007-11-11, 13:00:33
Die Bezeichnung ist eindeutig - Avg. Board Power Draw - da steht kein Sternchen dran "Für HD2900 XT aber TDP".

Okay die HD2900XT zieht 200 Watt, obwohl sie nur maximal 160 Watt zieht.
Der HD3750 zieht an die 100, obwohl da der Lüfter total überfordert ist.

Junge, du hast Vorstellungen.

Der RV670 (HD3870) zieht niemals 105 Watt. Maximal 80...


mfg Nakai

€: Alle TDP-Angaben von ATI lagen immer 25% über dem eigentlichen Verbrauch.

Gast2
2007-11-11, 13:05:49
Der RV670 (HD3870) zieht niemals 105 Watt. Maximal 80...

Also solch ein Arrogantes Verhalten erlebe ich selten. Wie kannst du wissen, ob eine Karte, die nicht mal am Markt ist, wirklich einen so hohen oder niedrigen Verbrauch hat? Hast du sie selbst getestet oder verlässt du dich dabei auf deine Glaskugel?

Nakai
2007-11-11, 13:11:37
Also solch ein Arrogantes Verhalten erlebe ich selten. Wie kannst du wissen, ob eine Karte, die nicht mal am Markt ist, wirklich einen so hohen oder niedrigen Verbrauch hat? Hast du sie selbst getestet oder verlässt du dich dabei auf deine Glaskugel?

Ach reg dich nicht künstlich auf.

Im Gegensatz zur dir, weiß ich wie man TDP-Angaben einschätzen muss.

Die Bezeichnung ist eindeutig - Avg. Board Power Draw -

Junge, es gibt genug andere AMD-Folien, welche beim Verbrauch von 105 Watt von TDP-Angaben sprechen.

Achja die Bezeichnung ist ganz klar nicht eindeutig.


mfg Nakai

Gast
2007-11-11, 13:14:54
Okay die HD2900XT zieht 200 Watt, obwohl sie nur maximal 160 Watt zieht.
Der HD3750 zieht an die 100, obwohl da der Lüfter total überfordert ist.

Junge, du hast Vorstellungen.

Der RV670 (HD3870) zieht niemals 105 Watt. Maximal 80...


mfg Nakai

€: Alle TDP-Angaben von ATI lagen immer 25% über dem eigentlichen Verbrauch.
Junge junge, du mit deinem Junge. Hast du die letzten Seiten gelesen? 160 Watt zieht sie in einem einzigen Test von Xbitlabs - ein Maximum ist das noch lange nicht.

Gast
2007-11-11, 13:16:02
Und welche Teile? Der 12-V-Anschluss?
Welche Bedeutung hat das (insbesondere bei einem US-Chip wie dem R600*), wenn man damit - rein spekulativ, da es keine Messungen dazu gib - dem R600 einen anderen Strumhunger bescheinigen könnte als mit 3DMark 2006?


*Für den es leider keinen GPU-Client gibt.
Shader, Textur-Adressierer, Command-Prozessor, Register-File und Speichercontroller hauptsächlich.

Wenig bis gar nicht belastet sind: Texturfilter und ROPs.

Gast
2007-11-11, 13:17:19
Sag es mir, ich komme nicht drauf. Der Durchschnitt von was? Von realen Anwendungen/Spielen(wenn ja, von welchen?), oder von AMDs Testtools, welche die Karte an die Maximallast treiben? etc.
Average bedeutet Durchschnittlich - dass Durchschnittlich nicht dasselbe ist, wie Maximal sollte klar sein. :rolleyes:

Gast
2007-11-11, 13:19:21
Average bedeutet Durchschnittlich - dass Durchschnittlich nicht dasselbe ist, wie Maximal sollte klar sein. :rolleyes:
^^ Ach so: Das Wort "Gaming" bedeutet "spielend" im Sinne von "während des Spielens".

Super Grobi
2007-11-11, 13:20:02
Sry Leute,
aber viel wichtiger sind doch die Idle Werte! Mir ist es wurst, ob die Karte unter Last 110 oder 160 Watt verbrät. Wenn die Karte aber nun deutlich sparsamer im 2D Betrieb ist (idle) als die gesamte Konkurenz, dann ist das für MICH ein deutliches Plus für die neuen Karten.

SG

Nakai
2007-11-11, 13:21:09
Junge junge, du mit deinem Junge. Hast du die letzten Seiten gelesen? 160 Watt zieht sie in einem einzigen Test von Xbitlabs - ein Maximum ist das noch lange nicht.

Ja ich hab die letzten Seiten gelesen, dass 3DMark06 nicht das Maximum ist.
Nur wenn AMD selber davon spricht, dass der Stromverbrauch halbiert wurde, dann gehe ich schwer davon aus, dass der Stromverbrauch etwa auf 80 Watt liegt(leicht darüber kann auch sein!).

Das ist meine Interpretation.


mfg Nakai

reunion
2007-11-11, 13:23:02
Average bedeutet Durchschnittlich - dass Durchschnittlich nicht dasselbe ist, wie Maximal sollte klar sein. :rolleyes:

Und was sagt das aus? Nichts. Wie schon gesagt, man weiß nicht von was AMD hier Durchschnittswerte angibt, bzw. inwieweit sich das auf realen Anwendungen übertragen lässt. Aber ja, das es keine absoluten peak-Werte sind, sollte klar sein.

Gast
2007-11-11, 13:32:00
Shader, Textur-Adressierer, Command-Prozessor, Register-File und Speichercontroller hauptsächlich.

Wenig bis gar nicht belastet sind: Texturfilter und ROPs.
Und auf der anderen Seite haben wir Spiele, die je nach restlichen Komponenten eine 8800GTX bis über 30 % im Idle-Zustand verbringen und einzelne Einheiten der GPU auf andere warten lassen, was zu einer schwachen Auslastung dieser Einheiten führt. Trotzdem verbraucht anscheinend nicht voll ausgelastete Grafikkarte Strom aus der Dose, worum es auch geht.

Hvoralek
2007-11-11, 13:33:49
Das bestreitet ja auch niemand. Natürlich wird es Anwendungen geben, die mehr Last erzeugen, genauso wird es Anwendungen geben, die weniger Last erzeugen. Deshalb gibt es ja auch die TDP, welche den absoluten Maximalverbrauch unter Laborbedingungen darstellt. AMD scheint bei dieser Tabelle sehr hoch gegriffene Werte anzugeben. Aber da man nicht weiß, wie diese Werte zustande gekommen sind, sind jegliche Rückschlüsse ohnehin unmöglich, da es, wie du ja selbst sagst, je nach Anwendung zu stark unterschiedlichen Werten kommen kann.Eben. Wir wissen nicht, wie diese Werte zustande gekommen sind. Zumindest die 2900XT liegt hier ziemlich nah an ihrer TDP. Deshalb habe ich die TDP der 38x0er auch nur relativ knapp über die AMD- Verbrauchsangaben geschätzt. Höher als diese wird sie aber sicherlich sein, wenn die Werte unter den gleichen Bedingungen zustande kamen wie die der 2900 XT (deren TDP ja über 200 W liegt).

Gast
2007-11-11, 13:43:41
Und was sagt das aus? Nichts. Wie schon gesagt, man weiß nicht von was AMD hier Durchschnittswerte angibt, bzw. inwieweit sich das auf realen Anwendungen übertragen lässt. Aber ja, das es keine absoluten peak-Werte sind, sollte klar sein.
Ich find's witzig, wie du versuchst, offensichtliche Dinge zu relativieren.

In der Folie steht die Average Board Power Draw während "Intensive Gaming" und "Light Gaming" - inwieweit nun Spiele keine realen Anwendungen sein sollen, entzieht sich mir.

@Nakai:
Glaub du mal weiter an 80 Watt Verbrauch, wo AMD selbst (falls diese Folie denn echt ist!) 98-106 Watt sieht.

@all:
Entschuldigt bitte, aber ich werde jetzt auch mal auf den Gebetsmühlen-Modus schalten. Alles andere ist mir sonst zu mühsam, wenn die Diskussionspartner etwas gegen die stehenden Fakten offensichtlich auf ihre Weise interpretieren wollen. :)

@Super Grobi:
Natürlich ist ein sehr sparsamer Idle-Modus eine Super-Sache. Wenn meine HD2900 Pro nicht auch mit stark gesenkter Taktrate und erniedrigter Spannung einen brauchbaren Idle-Modus besitzen würde, würde ich auch ernsthaft über einen Wechsel nachdenken. Viel interessanter finde ich aber auch die Superwerte im Light-Gaming-Modus. Wenn man nebenbei so Dinge wie WoW im Fenster zockt, müsste sich so ein Modus echt prima machen!

Nakai
2007-11-11, 13:45:58
Deshalb habe ich die TDP der 38x0er auch nur relativ knapp über die AMD- Verbrauchsangaben geschätzt.

Nach meinen Infos sind diese Angaben schon sehr nahe an der TDP.
Die HD2950XT, wie sie ursprünglich hieß, sollte etwa ein TDP von 130 Watt bei 825Mhz Coretakt beansprucht haben.


mfg Nakai

€: @Nakai:
Glaub du mal weiter an 80 Watt Verbrauch, wo AMD selbst (falls diese Folie denn echt ist!) 98-106 Watt sieht.

Ja, werde ich.

Gast
2007-11-11, 13:47:42
Und auf der anderen Seite haben wir Spiele, die je nach restlichen Komponenten eine 8800GTX bis über 30 % im Idle-Zustand verbringen und einzelne Einheiten der GPU auf andere warten lassen, was zu einer schwachen Auslastung dieser Einheiten führt. Trotzdem verbraucht anscheinend nicht voll ausgelastete Grafikkarte Strom aus der Dose, worum es auch geht.
Jau. Xbit misst ~140 Watt (?) bei einer TDP von 185 Watt. Da ist noch Luft.

Aber zurück zum Folding:
http://forum.beyond3d.com/archive/index.php/t-34122.html
"Other notes. The power draw when folding at 3D clocks is ~80W, according to ATI, a good deal lower than many modern D3D games. Given the tempss and fan speeds we see, this seems about right and they have the equipment to measure this for real. At 2D clocks, it's even lower, but I don't know what the power draw is offhand." (Mike Houston, Stanford-GPGPU-Team).

Xbit misst beim Zocken mehr. (120 Watt etwa IIRC?)

reunion
2007-11-11, 13:48:45
Ich find's witzig, wie du versuchst, offensichtliche Dinge zu relativieren.

In der Folie steht die Average Board Power Draw während "Intensive Gaming" und "Light Gaming" - inwieweit nun Spiele keine realen Anwendungen sein sollen, entzieht sich mir.


Ich denke Hvoralek hat es einen Beitrag über dir sehr schön erklärt. Mehr ist dazu auch nicht zu sagen. Relativieren tue ich gar nichts, nur ohne zu wissen, wie die Werte zustande gekommen sind, kann man daraus eben nur sehr begrenzt Rückschlüsse ziehen. Offensichtlich ist etwas anderes.

Gast
2007-11-11, 13:51:55
Ich denke Hvoralek hat es einen Beitrag über dir sehr schön erklärt. Mehr ist dazu auch nicht zu sagen. Relativieren tue ich gar nichts, nur ohne zu wissen, wie die Werte zustande gekommen sind, kann man daraus eben nur sehr begrenzt Rückschlüsse ziehen.
http://godlike.cl/up/im/20/pplay2.jpg
Average Board Power Draw while Intensive and Light Gaming for HD3870 is 106 Watts. ;)

reunion
2007-11-11, 13:58:00
http://godlike.cl/up/im/20/pplay2.jpg
Average Board Power Draw while Intensive and Light Gaming for HD3870 is 106 Watts. ;)

Auch wenn du es noch zehn mal postest, ändert sich daran nichts. Im übrigen sind bei "light gaming" 51W angegeben.

Gast
2007-11-11, 14:04:56
Auch wenn du es noch zehn mal postest, ändert sich daran nichts. Im übrigen sind bei "light gaming" 51W angegeben.
Na, selbstverständlich. Du brauchst nur nicht glauben, dass ich deine - mittlerweile fühle ich mich versucht, es absichtlich zu nennen - merkwürdige Interpretation der Tatsachen unrelativiert stehen lasse. :)

Gibt's eigentlich Wochenendzuschlag?

Hier nochmal korrekt:
http://godlike.cl/up/im/20/pplay2.jpg
Average Board Power Draw while Intensive and Light Gaming for HD3870 is 106/51 Watts. ;)

Gast2
2007-11-11, 14:05:55
Im Gegensatz zur dir, weiß ich wie man TDP-Angaben einschätzen muss.

Zufälligerweise war ich ein anderer Gast und arbeite in der IT Branche.
Ich bin nur nicht so hochnäsig und lobe alles in den Himmel, so wie du es tust.

Sag mir noch einmal: Woher willst du wissen, wieviel die Karte real verbraucht, wenn du keine Möglichkeit hast, sie selbst nachzumessen?
Woher willst du wissen, ob die bisherigen Tester das maximum ausgelotet haben? Woher willst du wissen, ob dieser Tester nicht geschummelt haben? Warum sollte AMD selbst bei den Angeben lügen und die Ergebnisse absichtlich verschlechtern?

Wenn du mal so clever bist und bei der Faktenlage bleibst, dann vertraue ich offiziellen Angaben weitaus mehr, als irgendwelchen geschönten. Schließlich hat der Hersteller selbst nie einen Grund seine Ergebnisse absichtlich zu verschlechtern. So dämlich ist keiner.

Gast
2007-11-11, 14:08:32
Muss man eigentlich Angst haben, dass es im Light Gaming Modus zu Rucklern kommt oder wird das hinreichend intelligent sein sowas zu vermeiden?

reunion
2007-11-11, 14:10:54
Na, selbstverständlich. Du brauchst nur nicht glauben, dass ich deine - mittlerweile fühle ich mich versucht, es absichtlich zu nennen - merkwürdige Interpretation der Tatsachen unrelativiert stehen lasse. :)

Gibt's eigentlich Wochenendzuschlag?

Hier nochmal korrekt:
http://godlike.cl/up/im/20/pplay2.jpg
Average Board Power Draw while Intensive and Light Gaming for HD3870 is 106/51 Watts. ;)

Witzbold. Wir wissen nicht, wie die Werte zustande gekommen sind, da kannst du dich noch so sehr auf die Folie versteifen. Ich kennen jedenfalls keine Anwendung, die sich "Intensive-" oder "Light Gaming" nennt. Diese zwei Begriffe sollen wohl ohnehin nur die unterschiedlichen Taktraten veranschaulichen, sagen aber nichts über die dabei verwendete Anwendung aus. Wir haben als Bezugspunkt nur die 2900XT, deren angegeben Werte nah an der TDP liegen.

Gast
2007-11-11, 14:26:28
Witzbold. Wir wissen nicht, wie die Werte zustande gekommen sind, da kannst du dich noch so sehr auf die Folie versteifen. Ich kennen jedenfalls keine Anwendung, die sich "Intensive-" oder "Light Gaming" nennt. Diese zwei Begriffe sollen wohl ohnehin nur die unterschiedlichen Taktraten veranschaulichen, sagen aber nichts über die dabei verwendete Anwendung aus. Wir haben als Bezugspunkt nur die 2900XT, deren angegeben Werte nah an der TDP liegen.
Wir haben auch eine Folie, die vermutlich von AMD stammt.
http://godlike.cl/up/im/20/pplay2.jpg
Average Board Power Draw while Intensive and Light Gaming for HD3870 is 106/51 Watts

Das ist die Aussage, die steht.

reunion
2007-11-11, 14:35:27
Wir haben auch eine Folie, die vermutlich von AMD stammt.
http://godlike.cl/up/im/20/pplay2.jpg
Average Board Power Draw while Intensive and Light Gaming for HD3870 is 106/51 Watts

Das ist die Aussage, die steht.

Ja, wenn einem die Argumente ausgehen, ist das natürlich die einzige Aussage, die steht. Dann kann man das entweder einsehen, oder auf stur schalten, und immer wieder das gleiche Gebetsmühlenartig wiederholen. Glücklicherweise bin ich in der Lage hier auch etwas zu differenzieren, und mit den Werten der 2900XT zu vergleichen. Aber da von dir ohnehin nichts mehr kommt, ist für mich hier EOD.

J0ph33
2007-11-11, 14:38:40
"ATI Radeon HD3800 power draw halved from ATI Radeon HD 2900 XT levels"

xbit misst für die HD2900XT 160W. wenn obige aussage stimmt, darf man vermuten, dass xbit bei der 3870 so 80W misst...
wer die messung von xbit anzweifelt, soll mir einen besseren test zeigen, der nur die Graphikkarte misst ohne Gesamtsystem so wie NT-Effizienz

Nakai
2007-11-11, 15:07:41
Wenn du mal so clever bist und bei der Faktenlage bleibst, dann vertraue ich offiziellen Angaben weitaus mehr, als irgendwelchen geschönten. Schließlich hat der Hersteller selbst nie einen Grund seine Ergebnisse absichtlich zu verschlechtern. So dämlich ist keiner.

Meine Angaben beruhen auch auf Fakten.
Bei 825mhz sollte der RV670 eine TDP von etwa 130 Watt haben, bei 750Mhz sogar etwa 105 Watt. Da die Taktraten nun niedriger ausfallen und die TDP-Angaben niemals für voll gehalten werden dürfen, kann man sagen, dass der RV670 niemals 106 Watt komplett verbraucht, wie es auf der AMD-Folie gezeigt wurde.
Weiterhin gehe ich davon aus, dass dort bei Intensive Gaming einfach nur die neuen TDP-Angaben angegeben wurden. Anders macht diese Folie für mich keinen Sinn.

Ich bin nur nicht so hochnäsig und lobe alles in den Himmel, so wie du es tust.

Hochnäßig? Tut mir leid, wenn dich das stört. Nur manchmal bekomm ich nen Hals, wenn Gäste manchmal absichtlich nicht sonderlich freundlich zu den registrierten Benutzern sind. Das dahinter auch mal Leute sind, die auch mitwirken wollen, vergiss ich dabei manchmal.
Also ich entschuldige mich, daher bei dir...

Sag mir noch einmal: Woher willst du wissen, wieviel die Karte real verbraucht, wenn du keine Möglichkeit hast, sie selbst nachzumessen?
Woher willst du wissen, ob die bisherigen Tester das maximum ausgelotet haben? Woher willst du wissen, ob dieser Tester nicht geschummelt haben? Warum sollte AMD selbst bei den Angeben lügen und die Ergebnisse absichtlich verschlechtern?

Wie war das nochmal? Traue keine Umfrage, die du selber nicht geschönt hast?
Du kannst also nach deiner Meinung keinen Test im Inet trauen, weil du nicht weißt ob was geschummelt oder verheimlicht worden ist?
Tut mir leid, ich vertrau da lieber einigen Reviews, als AMD selber. Keine Firma würde den reallen Stromverbrauch genau angeben können, bzw. das machen sich auch nicht. Meistens handelt es sich um TDP-Angaben.


mfg Nakai

sklave_gottes
2007-11-11, 15:23:30
Was sollen mir die 0815 Resultate ueberhaupt sagen? Haettest Du fuer Erlaeuterungen gefragt, haettest Du auch gewusst was ich genau meinte; mal mal selber einen Graph mit nur default Frequenzen und zeig mir wie jeweils das Z-Fuellraten zu Bandbreiten-Verhaeltnis bei 4xMSAA genau aussieht.


Das will ich doch in erster Linie garnicht wissen. Das ist höchstens der grund dafür aber kein Beweis. Davon mal ab mach das doch selber. Ich meine ich habe dir schon das gegenteil gezeigt, wenn auch nur in einer situation.

Übrigends solltest du deshalb auch selber schon wissen das der G80 durch weniger Specherbandbreite seine grösten vorteile verliert. Sehr hohe Texelfillrate, sehr hohe Z-Fuellraten bei 4MSAA. Dafür braucht man nunmal viel Specherbandbreite.

Also sollte klar sein das dadurch der r600 auch mit weniger relativ passabel peformt, im gegensatz zum g80.

Und noch etwas selbst ohne MSAA sieht es nicht viel besser aus.(selber link, ein dia drüber)

@rv670
Ich glaube auf kurz oder lang müssen die Preise unter 8800gt nivau, denn was die meisten Käufer interesiert ist nunmal die Leistung und da wird der rv670 nunmal nicht rankommen mit seinen 775mhz. Er bräuchte eher 850-900mhz. Das soll nicht heissen das ich die neuen Ideen nicht gut finde, ganz im gegenteil. Aber damit Läst sich das Packet nur etwas verschönern, was zählt ist aber die Leistung um richtig ein zu schlagen. Also runter auf 199-229

mfg martin

Gast
2007-11-11, 16:14:05
Ja, wenn einem die Argumente ausgehen, ist das natürlich die einzige Aussage, die steht. Dann kann man das entweder einsehen, oder auf stur schalten, und immer wieder das gleiche Gebetsmühlenartig wiederholen. Glücklicherweise bin ich in der Lage hier auch etwas zu differenzieren, und mit den Werten der 2900XT zu vergleichen. Aber da von dir ohnehin nichts mehr kommt, ist für mich hier EOD.
Nur deine Einbildung läßt dich annehmen, deine Postings hätten mehr Gehalt als folgendes:

http://godlike.cl/up/im/20/pplay2.jpg
Average Board Power Draw while Intensive and Light Gaming for HD3870 is 106/51 Watts

laser114
2007-11-11, 16:18:28
Es bringt wenig wenn du uns zum x-ten mal dieses Diagramm vorkaust, unsere Meinungen dazu basieren auf der 200W-Angabe der 2900 XT. Akzeptiere sie halt nicht, aber der Versuch uns deine Meinung dazu uns zu überbrigen wird scheitern, wenn du keine neuen Argumente bringst.

Gast
2007-11-11, 16:21:13
xbit misst für die HD2900XT 160W. wenn obige aussage stimmt, darf man vermuten, dass xbit bei der 3870 so 80W misst...
Wenn AMD hier die Wahrheit sagt und xBits Test (3DM06, HDR_1, 16x12, 16xAF) mit denen aus AMDs "Intensive Gaming" übereinstimmen, kann man davon ausgehen, dass Xbit bei der HD3870 in etwa 80 Watt misst.

Dass die Last im XBit-Test noch nichtmal die Maximallast im 3DMark selbst darstellt, habe ich ja schon auf den vorigen Seiten mehr als nur vermutet.

Was das jedoch mit den von AMD angegebenen 106/98 Watt Realverbrauch (Avg. Board Power Draw - nichtmal maximum Power Draw) zu tun hat, entzieht sich mir.

Möglicherweise will hier jemand die 106/98 Watt aber kleinreden, bevor die grünen Jungs antanzen und folgenden Vergleich aufstellen:

G92/600-1512MHz/65nm/754MT = 105W Maximum Board Power
RV670/775MHz/55nm/666MT = 106W Average Board Power

Nachdem AMD beim Barcelona auch schon nicht in Sachen TDP mithalten konnte, hat man dort ja auch kurzerhand zu einem "Durchschnitts"-Konstrukt gegriffen.

reunion
2007-11-11, 16:22:21
Es bringt wenig wenn du uns zum x-ten mal dieses Diagramm vorkaust, unsere Meinungen dazu basieren auf der 200W-Angabe der 2900 XT. Akzeptiere sie halt nicht, aber der Versuch uns deine Meinung dazu uns zu überbrigen wird scheitern, wenn du keine neuen Argumente bringst.

Argumente hat der Gast doch schon lange nicht mehr. Ihm geht es doch nur noch darum seinen offensichtlichen Minderwertigkeitskomplexe zu stimulieren.

Nachdem AMD beim Barcelona auch schon nicht in Sachen TDP mithalten konnte, hat man dort ja auch kurzerhand zu einem "Durchschnitts"-Konstrukt gegriffen.

Intel gibt seit Jahren nichts anderes als Durchschnittswerte an, und die TDP bleibt weiter bestehen neben dem ACP. Aber das ist hier OT.

Gast
2007-11-11, 16:23:03
Es bringt wenig wenn du uns zum x-ten mal dieses Diagramm vorkaust, unsere Meinungen dazu basieren auf der 200W-Angabe der 2900 XT. Akzeptiere sie halt nicht, aber der Versuch uns deine Meinung dazu uns zu überbrigen wird scheitern, wenn du keine neuen Argumente bringst.
Ich will euch meine Meinung keineswegs aufzwängen, ich habe nur keine Lust, die (mindestens ebenso) subjektive Meinung von reunion hier unwidersprochen stehenzulassen. :)

Du weißt wie das läuft: Irgendwer schreibt was, jemand anderes liests und so entstehen Gerüchte. ;)

laser114
2007-11-11, 16:23:18
Nachdem AMD beim Barcelona auch schon nicht in Sachen TDP mithalten konnte, hat man dort ja auch kurzerhand zu einem "Durchschnitts"-Konstrukt gegriffen.

Die Logik ist schon deswegen verquer, weil Intel seine TDP immer noch mit diesem Durchschnitts-Konstrukt misst, auch wenn mit der Zeit die Toleranzen gewachsen sind (und - wie man am QX9650 sieht - gewisse Prozessoren einfach bestimmte TDPs bekommen).

Gast
2007-11-11, 16:23:58
Argumente hat der Gast doch schon lange nicht mehr. Ihm geht es doch nur noch darum seinen offensichtlichen Minderwertigkeitskomplexe zu stimulieren.
Wenigstens muss ich nicht zu persönlichen Beleidigungen greifen noch maße ich mir eine Psycho-Tele-Analyse über das 3DCF an.

Gast
2007-11-11, 16:25:22
Die Logik ist schon deswegen verquer, weil Intel seine TDP immer noch mit diesem Durchschnitts-Konstrukt misst, auch wenn mit der Zeit die Toleranzen gewachsen sind (und - wie man am QX9650 sieht - gewisse Prozessoren einfach bestimmte TDPs bekommen).
Außer bei AMD habe ich seit langem keinen Avg. Power Draw gesehn.

reunion
2007-11-11, 16:31:05
Ich will euch meine Meinung keineswegs aufzwängen, ich habe nur keine Lust, die (mindestens ebenso) subjektive Meinung von reunion hier unwidersprochen stehenzulassen. :)

Du weißt wie das läuft: Irgendwer schreibt was, jemand anderes liests und so entstehen Gerüchte. ;)

Wenn es dir nur darum ginge, dann müsstes du das gleiche nicht zehnmal wiederholen. Deine Meinung ist bekannt, du hängst dich am Diagramm auf, ignorierst dabei aber absichtlich die Werte der 2900XT und das man gar nicht weiß, unter welchen Bedingungen diese Werte überhaupt entstanden sind. Danke für deine Meinung.

Wenigstens muss ich nicht zu persönlichen Beleidigungen greifen noch maße ich mir eine Psycho-Tele-Analyse über das 3DCF an.

Nein, du spammst dafür das Forum zehnmal mit exakt dem gleichen Mist zu, und ignorierst dabei wesentliche Dinge. Ganz großes Kino.

Außer bei AMD habe ich seit langem keinen Avg. Power Draw gesehn.

Du hast offensichtlich so einiges noch nicht gesehen.

Trap
2007-11-11, 16:47:50
G92/600-1512MHz/65nm/754MT = 105W Maximum Board Power
RV670/775MHz/55nm/666MT = 106W Average Board Power

Nachdem AMD beim Barcelona auch schon nicht in Sachen TDP mithalten konnte, hat man dort ja auch kurzerhand zu einem "Durchschnitts"-Konstrukt gegriffen.
Woher weißt du, dass es überhaupt etwas anderes bedeutet? Vielleicht heißt beides "maximum mean power draw".

Gast
2007-11-11, 16:54:19
Woher weißt du, dass es überhaupt etwas anderes bedeutet? Vielleicht heißt beides "maximum mean power draw".
Englisch-Unterricht, ca. siebte Klasse oder: dict.leo.org
Average ist nunmal nicht dasselbe wie Maximum

Gast
2007-11-11, 16:57:13
Wenn es dir nur darum ginge, dann müsstes du das gleiche nicht zehnmal wiederholen. Deine Meinung ist bekannt, du hängst dich am Diagramm auf, ignorierst dabei aber absichtlich die Werte der 2900XT und das man gar nicht weiß, unter welchen Bedingungen diese Werte überhaupt entstanden sind.
Und du müsstest nicht zehnmal wieder darauf herumreiten, dass AMD hier angeblich TDP oder "Nah-TDP"-Werte vergleicht. Besonders nicht nach dem einen, einzelnen 3DMark-Wert der Xbit-Labs.

Ich halte mich an die Quelle (lernt man in der Oberstufe und in der Uni u.a.)
http://godlike.cl/up/im/20/pplay2.jpg
Da steht's eindeutig:
Average Board Power Draw - wer wenn nicht AMD kann den schon exakt bestimmen? Und da dort "Intensive Gaming" steht, wird es sich nicht um die TDP handeln, denn sonst stünde dort TDP.

Und ich habe vermutlich mehr gesehen, als du glaubst. ;)

Trap
2007-11-11, 17:03:03
Englisch-Unterricht, ca. siebte Klasse oder: dict.leo.org
Average ist nunmal nicht dasselbe wie Maximum
;D

Du und ich ist auch nicht dasselbe, kann aber das gleiche meinen, je nachdem wer es sagt.

Nakai
2007-11-11, 17:11:54
So wie kann man Average im Bezug zur GPUs deuten?

Man kann es wie der Gast deuten. Also die durchschnittliche Belastung der GPU und somit den durchschnittlichen Stromverbrauch.
Oder(und jetzt wirds etwas kompliziert^^) die durchschnittliche maximale Belastung bei mehreren Testsamples unter Berücksichtigung der TDP.

Interessiert es niemandem, dass auf solchen Folien niemals der reelle Verbrauch steht? Weder bei Intel, NV, ATI oder AMD.
Der reelle Verbrauch ist sinnlos, da zum einen die Yield, die Auslastung der Einheiten und die Qualität der Einheiten eine Rolle spielen.
TDP-Angaben sind das einzigste was wir bekommen werden und dass ist es was auf der Folie angegeben wird, mehr nicht.


mfg Nakai

GeneralHanno
2007-11-11, 17:58:48
ich denke auch, dass es dich um die TDP handel, und nicht einen "realen durchschnittsverbrauch"

1. das "averange" kann sich auch auf den durchschnittswert mehrer peaks aus mehreren testdurchläufen beziehen
2. bei der 3870/50 werden 105 bzw 95 watt angegeben, dass sind aber die offiziellen TDP werte. also wird das für die 2900xt auch so sein.
3. haben mehrere seiten für die 2900xt einen "echten" durchschnittswert von etwa 160W gemessen (peaks bis etwa 180W)

Pirx
2007-11-11, 18:25:26
ein ausgeloggter User, der öfter mal den ;)-Smilie benutzt?

DrFreaK666
2007-11-11, 18:45:00
Am Liebsten würd ich meine 2600XT wieder abbestellen und dafür die 3850 holen (für HTPC). Kostet aber leider das doppelte :frown:

Hvoralek
2007-11-11, 18:50:20
Weiterhin gehe ich davon aus, dass dort bei Intensive Gaming einfach nur die neuen TDP-Angaben angegeben wurden. Anders macht diese Folie für mich keinen Sinn.Seit wann liegt die TDP der 2900XT nur noch bei 200W?

laser114
2007-11-11, 19:43:59
Seit wann liegt die TDP der 2900XT nur noch bei 200W?


Also mir ist was von 225 Watt bekannt, aber das bezieht sich wohl auf PCIe + 2x 6-Pin.

Nakai
2007-11-11, 19:52:18
Das Problem ist eher welcher R600 gemeint wurde.
(Es gab für die XTX die niemals erschienen ist eine TDP von 240 Watt.)
NVidia hat eine Folie zur 8800Ultra rausgebracht auf der alle TDPs verglichen wurden. Wenn die jemand mal suchen könnte, ich hab sie nicht gefunden...:(

Mir war ein Wert von 215 Watt bekannt...


mfg Nakai

AnarchX
2007-11-11, 20:04:22
Die XTX OEM soll sogar 270W gehabt haben:
http://img129.imageshack.us/img129/752/1178061598dfpefhgdqm11lsx0.jpg
:wink:

Die 215W gibt es z.B. bei GH (http://geizhals.at/deutschland/a255143.html), während ich in so manche Review (z.B. Guru3D) auch etwas von 240W gelesen habe.

Steve1
2007-11-11, 20:20:56
@ DrFreaK666 Bestelle sie docha ab und verschiebe den Kauf um einige Monate. In dieser Zeit kannst du noch ein bisschen sparen.

Steve1
2007-11-11, 20:21:17
einfach

Nakai
2007-11-11, 20:21:26
Woah, super AnarchX, genau das hab ich gesucht.
=)

Die 215W gibt es z.B. bei GH, während ich in so manche Review (z.B. Guru3D) auch etwas von 240W gelesen habe.

Tja, wobei es maximal nur 225 Watt sein kann, wobei dieser Wert auch niemals fürs TDP erreicht werden kann.


mfg Nakai

Hvoralek
2007-11-11, 20:24:06
Auf jeden Fall liegt die TDP der 2900 XT ja wohl über 200W. Also sind das in diesem Diagramm keine TDP- Angaben, sondern irgendetwas anderes.

smockdogx
2007-11-11, 20:49:06
Auf jeden Fall liegt die TDP der 2900 XT ja wohl über 200W. Also sind das in diesem Diagramm keine TDP- Angaben, sondern irgendetwas anderes.
Was erwartest du ist von nvidia und vielleicht noch zu einen Zeitpunkt wo es die Karte noch garnicht zu kaufen gab :biggrin:

reunion
2007-11-11, 21:01:38
Auf jeden Fall liegt die TDP der 2900 XT ja wohl über 200W. Also sind das in diesem Diagramm keine TDP- Angaben, sondern irgendetwas anderes.

So sicher ist das nicht. Die nie erschienene "Dragons Head 2" aka XTX sollte eine TDP von 240W haben, die OEM-Version "Dragons Head" mit full-size Design sogar 270W. Die niedriger getaktete "Catseye", also die XT wurde damals ebenfalls mit 240W angegeben, läuft allerdings auch mit zwei 6-Pin Stromstecker, kann also schonmal prinzipiell nicht mehr als 225W TDP haben.

Nakai
2007-11-11, 21:06:06
kann also schonmal prinzipiell nicht mehr als 225W TDP haben.

Nicht mal das, kein Netzteil oder Mainbaord liefert 100% Effizienz auf den einzelnen Leitungen.
Mit 200W liegt man aber schon sehr gut.

mfg Nakai

DrFreaK666
2007-11-11, 21:14:20
@ DrFreaK666 Bestelle sie docha ab und verschiebe den Kauf um einige Monate. In dieser Zeit kannst du noch ein bisschen sparen.

Die Frage ist ob ich eine 3850 in einem HTPC brauche.
Für HD-Filme wird sie nicht besser sein als die 2600Pro, nur in Spielen
Mal schauen.

laser114
2007-11-11, 22:01:08
http://winfuture.de/news,35682.html
Nvidia: DirectX10.1 macht kaum einen Unterschied

OK, jetzt geht die Diskussion los. Mal sehen wie lange es bis zum Konter von ATI dauert.
Vielleicht gibts ja auch mal wieder wieder schöne Marketingfolien. :biggrin:

w0mbat
2007-11-11, 22:40:14
Sobald nVidia öffentlich schreibt es gäbe keinen Unterschied, gibt es einen.

mapel110
2007-11-11, 22:48:50
http://winfuture.de/news,35682.html


OK, jetzt geht die Diskussion los. Mal sehen wie lange es bis zum Konter von ATI dauert.
Vielleicht gibts ja auch mal wieder wieder schöne Marketingfolien. :biggrin:
Ich hab das auch schon heute Mittag gelesen und irgendwie hat diese News keinen Inhalt. :|

Microsoft arbeitet derzeit bereits an einer neuen Ausgabe seiner Grafikplattform DirectX10. In Version 10.1 soll es zwar einige neue Funktionen geben, die wichtigste Änderung gegenüber früheren Ausgaben ist jedoch, dass die Chiphersteller wie Nvidia und ATI nicht mehr darüber entscheiden können, welche Features sie unterstützen.

Das war schon immer bei D3D10 so und kommt nicht erst mit 10.1.

Super Grobi
2007-11-11, 22:51:34
Ich hab das auch schon heute Mittag gelesen und irgendwie hat diese News keinen Inhalt. :|(...)

Das ist bei Winfuture eher normal ;). Ist halt die Bild Zeitung bei PC-News. Viel Überschrift und oft nichts dahinter.

SG

laser114
2007-11-11, 22:57:09
Ich hab das auch schon heute Mittag gelesen und irgendwie hat diese News keinen Inhalt. :|

Dann nimm die Originalquelle: ;)
http://www.tech.co.uk/computing/upgrades-and-peripherals/graphics-and-multimedia/graphics-cards/news/nvidia-directx-101-wont-make-difference?articleid=1531593284

"There are some nice efficiency standardising improvements....many of them can be done with 10 but 10.1 makes it easier to do things. Developers won't be using 10.1 today."

Das ist die Aussage vom Direkter für technisches Marketing bei Nvidia. Seine Berufsbezeichnung sagt eigentlich alles.

up¦²
2007-11-12, 00:14:10
Ein olles Videoo, das gerade wieder rumgeistert, weil eine chin. HW-News-Seite es brachte und Futzi ist auch reingefalln:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4123&Itemid=34

LOL
From: GhostlVlan
Subscribe Unsubscribe Joined: 3 months ago
Videos: 1

About This Video AMD's next generation 7 Series chipset with 4 g... (more)
AMD's next generation 7 Series chipset with 4 graphics cards running Microsoft's Flight Simulator on 8 monitors. (less)
Added: September 12, 2007


http://www.youtube.com/watch?v=A3jpG3rv4zI :biggrin:

Ailuros
2007-11-12, 05:45:48
Das will ich doch in erster Linie garnicht wissen. Das ist höchstens der grund dafür aber kein Beweis. Davon mal ab mach das doch selber. Ich meine ich habe dir schon das gegenteil gezeigt, wenn auch nur in einer situation.

Übrigends solltest du deshalb auch selber schon wissen das der G80 durch weniger Specherbandbreite seine grösten vorteile verliert. Sehr hohe Texelfillrate, sehr hohe Z-Fuellraten bei 4MSAA. Dafür braucht man nunmal viel Specherbandbreite.

Einer 8800GT geht spaetestens ab 1600*1200 die Z-Fuellrate/Bandbreite und Speicher aus. Was soll da bei einer RV670 mit 512MB Speicher und um einiges weniger Z-Fuellrate gerade besser sein?

Ich hab mich lediglich auf die Analogie der Bandbreite auf andere Werte bezogen und Du wirst wohl ausrechnen koennen wieviel Bandbreite jegliche GPU pro GPixel genau braucht. Keiner der beiden IHVs stattet praktisch ihre GPUs mit zu viel oder zu wenig Bandbreite aus; jeder der beiden legt den Bandbreiten-Bedarf fest und stattet jegliche GPU mit demenstprechenden Speicher aus.

Und noch etwas selbst ohne MSAA sieht es nicht viel besser aus.(selber link, ein dia drüber)

Es gibt auch fuer diesen Fall eine logische Erklaerung.

@rv670
Ich glaube auf kurz oder lang müssen die Preise unter 8800gt nivau, denn was die meisten Käufer interesiert ist nunmal die Leistung und da wird der rv670 nunmal nicht rankommen mit seinen 775mhz. Er bräuchte eher 850-900mhz. Das soll nicht heissen das ich die neuen Ideen nicht gut finde, ganz im gegenteil. Aber damit Läst sich das Packet nur etwas verschönern, was zählt ist aber die Leistung um richtig ein zu schlagen. Also runter auf 199-229

mfg martin

Kein Einwand; aber um auf's Thema zurueckzukommen, glaubst Du dass eine RV670@=/>850MHz mit gleich so hoch oder hoeher getaktetem GDDR4 ankommen wuerde?

AnarchX
2007-11-12, 07:48:38
New 55nm From ATi. HD3870 Quick Review - 3DMark06 and DX10 Crysis (http://iax-tech.com/video/3870/38701.htm)

Gast
2007-11-12, 08:00:07
Die Crysis benchs kann man schonmal vergessen. Das sieht man schon auf den ersten Vergleichsscreen, dass da wieder nVs Treiber mit fehlenden Spiegelungen glänzt.

MadManniMan
2007-11-12, 08:01:21
Hm... der Einbruch mit AA sieht recht human aus - und 8*AA wird scheinbar bei der 8800 GT gar nicht appliziert!

Seis wie es sei: zu wenig Info, zuviel Speku... aber es wird langsam heiß ;)

Bokill
2007-11-12, 08:25:41
So sicher ist das nicht. Die nie erschienene "Dragons Head 2" aka XTX sollte eine TDP von 240W haben, die OEM-Version "Dragons Head" mit full-size Design sogar 270W. Die niedriger getaktete "Catseye", also die XT wurde damals ebenfalls mit 240W angegeben, läuft allerdings auch mit zwei 6-Pin Stromstecker, kann also schonmal prinzipiell nicht mehr als 225W TDP haben. Mit "Prinzipiell" meinst du wohl die Limitierungen von PCI-Express 1.1, die bei Karten mit ergänzender Stromversorgung 225 Watt kennen?

Abgesehen davon halte ich die TDP-Diskussion einer RV670 hier für substanzlos, da derzeit kaum die Angaben nachgeprüft werden können. Sicher scheint, dass der Strombedarf deutlich gegenüber der R600 reduziert wurde ... aber die HD 3870 weiterhin eine externe Stromquelle braucht.

Eine HD 3850, die womöglich dezent heruntergetaktet wird, könnte knapp am Limit von 75 Watt liegen.

MFG Bobo(2007)

Gast
2007-11-12, 08:39:48
mal eine etwas OT Frage zu den neuen ATi-Chips:


********
Wird es von der 3850 eine Mobile-Variante geben?
********

Wenn man die Karte vielleicht mit nur 500MHz taktet und den Speicher ebenfalls runtertaktet dann sollte die Karte doch nicht viel mehr verbrauchen als eine 8700-GT, oder? Zumindest würde die Karte weniger Verbrauchen als die komischen 8600-GT/8700-GT Sli Konfigurationen die man momentan in Highend-Notebooks findet.

Die Leistung würde aber so bei 8000 3D-Murks06 liegen wenn man mal linear interpoliert.


grüsse

Manfred

Gast
2007-11-12, 08:40:28
Der Kühler sieht ziemlich bescheiden aus. Ein wuchtiger Dual-Slot Kühler, und dann nur ein kleiner Kupferstreifen darin. Hoffentlich ist das Ding leise.

Gast
2007-11-12, 08:45:42
Die Crysis benchs kann man schonmal vergessen. Das sieht man schon auf den ersten Vergleichsscreen, dass da wieder nVs Treiber mit fehlenden Spiegelungen glänzt.

Wurscht! ;)

Wichtiger sind die min-Framerates der 3870 im Vergleich zur 8800GT. Die 8800GT sollte fast unspielbar ruckeln wenn die min. fps von 0,4 wirklich stimmen und die fps wirklich zwischen 0,4 und 31,4 hin und herschwanken wie die Daten anzudeuten scheinen. Um das ganze aber wirklich beurteilen zu können bräuchte man wohl einen fps-Graphen des Demos.

-/\-CruNcher-/\-
2007-11-12, 09:11:29
Ja das mit dem Kühler ist recht witzig ich bin auch drauf reingefallen hehe da hätten sie doch genausogut eine komplette 1 Slot Kühlung ala Nvidia Designen können also flacher aber großerem Kühlkörper, als wie das bischen was man da sehr deutlich (dadurch das keine aufkleber drauf sind) sieht. Naja hält aber die Karte trotzdem erstaunlich Kühl :)
In Crysis ist sie genauso schnell wenn man sich den momentanen 13% unterschied anschaut und die 10% wegen dem Performance Driverbug abzieht dann sind beide Karten gleichauf :)
Da behalte ich vorläufig also recht und das sogar @ Standardtakt 775MHz bzw 777MHz damit hab ich sogar noch nichtmal gerechnet :) (Nvidia soll ja den fehler behoben haben ohne Geschwindigkeitsverlust angeblich)

Gast
2007-11-12, 09:20:44
LOL, der Kühler der HD3870 könnte gerade wegen seiner kleineren inneren Dimensionen sehr gut kühlen, da er den Luftdurchsatz nicht behindert und so mit relativ geringer Lautstärke, eine sehr leise Kühlung möglich sein sollte.

Schlammsau
2007-11-12, 09:20:56
New 55nm From ATi. HD3870 Quick Review - 3DMark06 and DX10 Crysis (http://iax-tech.com/video/3870/38701.htm)
da haben wirs.......die GT ist um 2 FPS schneller!!!! Genau das hat sich nVidia er"cheated"!!!

Gast
2007-11-12, 09:22:40
HD3870, im Angebot bei Amazon seit dem 17. Dez. 2006 LOL LOL LOL

Gast
2007-11-12, 09:23:09
http://www.amazon.de/Radeon-HD3870-PCI-E-512MB-2DVI-I/dp/B000YNUX28/ref=sr_1_1/028-5178033-0136544?ie=UTF8&s=ce-de&qid=1194855697&sr=8-1

J0ph33
2007-11-12, 09:24:46
mmh....der 8*AA/16*AF-score ist im vergleich zur 8800GT nicht besonders toll...

MartinRiggs
2007-11-12, 09:28:46
vielleicht wollte NV sich nen vorteil erschummeln, aber wichtig ist erst was bei der Crysis Full und dem dann aktuellen Treiber rauskommt.
Wenn dann immer noch effekte fehlen dann kann man immer noch meckern.
Sieht aber bisher nicht so übel für die ATi aus, mal schauen wenn das Ding offiziell getestet wird.
Der vielleicht??? endlich mal leise kühler in Verbindung mit einer anständigen Leistung könnte doch manche zu ATI bewegen.

J0ph33
2007-11-12, 09:34:45
sollte die 3870 bei Einsatz von AA/AF prozentual ähnlich viel verlieren, wie eine 8800GT und alles in allem wenig langsamer sein, wäre sie wirklich eine Überlegung wert...aber so recht dran glauben kann ich noch nicht

-/\-CruNcher-/\-
2007-11-12, 09:36:48
Das sieht super für Ati aus wenn diese tests stimmen sollten haut mich das um ich bezweilfle das Nvidia damit gerechnet hat :D Ati kommt also noch dieses Jahr zurück und Nvidia hat ihr vorgezogener Start nichts gebracht (überhaupt nichts sie konnten ja noch nichtmal sehr viel verkaufen ausser 50.000), mein gott wieviel die jetz an Vorbestellungen der 8800 GT verlieren werden das wird krass und dann noch die HD3850 oh junge das sind aussichten zum R700 hin.
Wenn jetzt auch noch die Benchmarks der Spiele besser sind die Nvidia so in ihrem Marketing mit 10-35% unterschied aufgelistet hat das währe ja eine riesen Blamage und erst für Leadtek die das sogar auf ihrer 8800 GT Packung zum Werben nutzen.

AnarchX
2007-11-12, 09:43:07
sollte die 3870 bei Einsatz von AA/AF prozentual ähnlich viel verlieren, wie eine 8800GT und alles in allem wenig langsamer sein, wäre sie wirklich eine Überlegung wert...aber so recht dran glauben kann ich noch nicht

Dagegen spricht auch ziemlich die Theorie:

- 56 TMUs vs 16 TMUs, da kann ATi nur mit massivsten Filtertricks gleichziehen
- 4xMSAA in einem Takt vs 2xMSAA in einem Takt mit problematischem Shader-Resolve

Zwar hat NV noch gewisse Probleme mit dem Speichermanagement, die aber wohl auch demnächst gelöst werden sollten.

-/\-CruNcher-/\-
2007-11-12, 10:06:05
4 Phasen 3+1 nicht wie bei Nvidia 2+1 3 Phasen *g*
http://iax-tech.com/video/3870/3870na.JPG

Gast
2007-11-12, 10:06:08
Wurscht! ;)

Wichtiger sind die min-Framerates der 3870 im Vergleich zur 8800GT. Die 8800GT sollte fast unspielbar ruckeln wenn die min. fps von 0,4 wirklich stimmen und die fps wirklich zwischen 0,4 und 31,4 hin und herschwanken wie die Daten anzudeuten scheinen. Um das ganze aber wirklich beurteilen zu können bräuchte man wohl einen fps-Graphen des Demos.


Man sollte das finale Crysis abwarten, bevor man Schlüsse zieht, bei mir steht der min. fps auch mal auf 0.00, was bedeuten würde, dass eine Frame mehr als 100 Sekunden bräuchte, und das wäre mir aufgefallen beim Betrachten des Bench-Durchlaufes.

pest
2007-11-12, 10:06:49
Nach 3DMark06 Punkte
0xAA 0xAF: 8800GT ~ 9,9% schneller
4xAA 0xAF: 8800GT ~ 8,8% schneller
8xAA 0xAF: 8800GT ~ 2,1% schneller

8xAA 16xAF:8800GT ~ 16,5% schneller :|

Gast
2007-11-12, 10:07:15
4 Phasen 3+1 nicht wie bei Nvidia 2+1 3 Phasen *g*


Klar braucht ATi mehr Phasen, weil der Chip ja auch mehr Strom braucht.

-/\-CruNcher-/\-
2007-11-12, 10:08:44
lol sicher nicht aber das Overclocking ist somit stabiler und besser :) und das ist wieder im Preis mit drin nicht wie bei Nvidia eine andere Karte lol ;) man munkelt ja von 1.2GHz Coretakt die schon ereicht worden sind :D

Gast
2007-11-12, 10:09:11
Klar braucht ATi mehr Phasen, weil der Chip ja auch mehr Strom braucht.

Nein, der Chip braucht weniger als die Nvidia. Ganz zu schweigen vom Idle Verbrauch, die 8800 GT isdt da in alter NV-Tradition ein wahrer Energievernichter.

AnarchX
2007-11-12, 10:09:15
Nach 3DMark06 Punkte
0xAA 0xAF: 8800GT ~ 9,9% schneller
4xAA 0xAF: 8800GT ~ 8,8% schneller
8xAA 0xAF: 8800GT ~ 2,1% schneller

8xAA 16xAF:8800GT ~ 16,5% schneller :|

Nunja, eben 33.6GTex/s 8800GT vs 12.4GTex/s 3870.
Je nach App kann das auch noch weit mehr werden, Stalker scheint wohl so ein Fall zu sein.

Wenn man sich nur den SM2.0 8xAA/16xAF Wert anschaut sind es hier ja sogar ~30%.

Gast
2007-11-12, 10:23:21
lol sicher nicht aber das Overclocking ist somit stabiler und besser :) und das ist wieder im Preis mit drin nicht wie bei Nvidia eine andere Karte lol ;) man munkelt ja von 1.2GHz Coretakt die schon ereicht worden sind :D
Meine Fresse, zieh deine rote Brille ab und werd mal ein bisschen sachlicher. Dieses Fanboy-Gelaber ist dermaßen nervig und aufdringlich, ist ja nicht zum Aushalten :rolleyes:

Es scheint so, als wäre der RV670 durchaus sehr gelungen. Aber hier jetzt wieder die 8800GT absolut zu diffamieren und ihr 'nen blamablen Start vorzuwerfen, ist lächerlich.

Adam D. @ work

pest
2007-11-12, 10:28:29
Nunja, eben 33.6GTex/s 8800GT vs 12.4GTex/s 3870.
Je nach App kann das auch noch weit mehr werden, Stalker scheint wohl so ein Fall zu sein.

Wenn man sich nur den SM2.0 8xAA/16xAF Wert anschaut sind es hier ja sogar ~30%.

normales MSAA braucht keine Texturfilterung, oder? :confused:

AnarchX
2007-11-12, 10:32:10
normales MSAA braucht keine Texturfilterung, oder? :confused:

Nein, MSAA braucht hauptsächlich ROP-Leistung und Bandbreite, wovon die HD3870 nur bei letzerer einen Vorteil hat.

Gast
2007-11-12, 10:34:53
Ich mag nur ungern stören, aber wenn es der 3870 gerade mal gelingt, eine Standard GT einzuholen, wie soll das dann weiter gehen ?

Schaut man sich an wie gut die 8800GT mit dem Takt skaliert, dann ist die 3870 in jeder Hinsicht chancenlos!
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=565&seite=11
(übrigens krasse Steigerungungen, wie kommt das zustande?)

Bei der 3870 sehe ich kein großes Potential wenn es um Versionen mit höheren Taktraten geht. Der VRAM liegt schon bei fast 1,2 GHz und mehr sind auf Karten in dem Preisbereich kaum machbar.

Bleibt noch die GPU... ob hier ein Sprung auf 850 oder 900 MHz reichen würde um diesen riesigen Abstand einzuholen? Ich denke nicht. Schaffen die das überhaupt so hoch zu gehen ?

-/\-CruNcher-/\-
2007-11-12, 10:38:23
Wenn es sich zeigen sollte das Nvidia mit ihrem schlechtmachen der Karte im Vorfelld bevor diese überhaupt erschienen ist falsch lag, dann ist das sehr wohl als Blamage zu sehen.
Bessonders wenn es dann auch nochbei Crysis ersichtlich wird das es in den Reviews keine Unterschiede geben wird, da hat Nvidia ja mit ihren Performance Drivern versucht vorzusorgen, das das nicht der Fall sein wird. Nur jetzt werden die Reviewer wohl sehr genau vergleichen und darauf bin ich äusserst gespannt (auch mit Bugfree treibern) :)
@Gast wenn interesieren solche Taksteigerungen bei spielen die es nicht nötig haben doch wohl niemanden bei Crysis und Call of Juarez wird es interessant werden und imo skalliert die HD3870 laut diesem jetzt vröffentlichten Test besser als angenomen ich bin zumindest davon ausgegangen das 775-7MHz zu wenig sein würden um die GT bei Crysis zu ereichen, das ist aber nicht der Fall 777MHz reichen volkommen aus um die selbe Performance zu ereichen mit 825MHz würde es aller vorausicht die GT @ 600MHz sogar topen um 1 oder 2 fps :D bis jetzt wurden bis 860MHz getestet die Overdrive zulies Manuell hat noch keiner Probiert b.z.w wurde noch nix veröffentlicht das Max AVG OC bei den meisten Reference GTs liegt momentan bei 700MHz und hier würden nach diesen neuen Erkentnissen schon weniger als 890MHz reichen um dann wieder einen Gleichstand zu erzielen (alles auf Crysis bassierend)

Gast
2007-11-12, 10:41:14
Ja, bitte warte einfach die Tests ab. Und im Vorfeld schlecht machen ... Wegen einer Packung mit 3 Balken? Oh man :usad:

R600 war auch die Hammer-Karte des Jahrhunderts ... Bis 5 Tage vor Release.

Adam D. @ work

Gast
2007-11-12, 10:54:58
ich bin zumindest davon ausgegangen das 775-7MHz zu wenig sein würden um die GT bei Crysis zu ereichen, das ist aber nicht der Fall 777MHz reichen volkommen aus um die selbe Performance zu ereichen mit 825MHz würde es aller vorausicht die GT @ 600MHz sogar topen um 1 oder 2 fps :D bis jetzt wurden bis 860MHz getestet die Overdrive zulies Manuell hat noch keiner Probiert b.z.w wurde noch nix veröffentlicht das Max AVG OC bei den meisten Reference GTs liegt momentan bei 700MHz und hier würden nach diesen erkentnissen schon weniger als 890MHz reichen um dann wieder einen Gleichstand zu erzielen (alles auf Crysis bassierend) :)

Mittlerweile gibts ja schon fast so viele Werksversionen die übertaktet sind wie Standardversionen. Dem Artikel da oben kannste entnehmen, das so eine Karte zum Teil 30fps mehr liefert als ne Standardversion.
Die günstigste GT hat z.B. auch schon 10% mehr GPU Takt, also ist eine Referenz-GT eher ungeeignet zum Vergleich. Denn wer kauft ne Standard GT, wenn er für weniger ne bessere kriegt? ...

Ich kann mir beim besten Willen nicht vorstellen, das man bei ATI mal eben 30-50% zulegt, wenn der GPU Takt um 100-200 MHz hochgeschraubt wird. Das wäre aber nötig...
Beim VRAM ist man ja schon relativ hoch. Mehr als 1,2 GHz kann ich mir bei Karten im Bereich <200€ kaum vorstellen.

-/\-CruNcher-/\-
2007-11-12, 11:01:38
Mittlerweile gibts ja schon fast so viele Werksversionen die übertaktet sind wie Standardversionen. Dem Artikel da oben kannste entnehmen, das so eine Karte zum Teil 30fps mehr liefert als ne Standardversion.
Die günstigste GT hat z.B. auch schon 10% mehr GPU Takt, also ist eine Referenz-GT eher ungeeignet zum Vergleich. Denn wer kauft ne Standard GT, wenn er für weniger ne bessere kriegt? ...

Ich kann mir beim besten Willen nicht vorstellen, das man bei ATI mal eben 30-50% zulegt, wenn der GPU Takt um 100-200 MHz hochgeschraubt wird. Das wäre aber nötig...
Beim VRAM ist man ja schon relativ hoch. Mehr als 1,2 GHz kann ich mir bei Karten im Bereich <200€ kaum vorstellen.

Warten wir einfach ab wie die Reference HD3870 z.b gegen die Zotac AMP besteht übertaktet in Crysis da bin ich sehr gespannt drauf und sehr zuversichtlich das es 0 Problem sein wird die selbe Performance zu ereichen, bei den neuen AIB GTs ist es schon klar das da eine Reference HD3870 nicht gegen bestehen kann, wobei ich darauf auch nicht mehr wetten würde. Und wie gesagt der größte Vorteil ist das die HD3870 dabei durchweg 10°C kühler sein wird als die GT.

MadManniMan
2007-11-12, 11:03:35
mmh....der 8*AA/16*AF-score ist im vergleich zur 8800GT nicht besonders toll...

Genau hinsehen:

Die GT verliert von 4*AA zu 8*AA keine Leistung - ich verwette meinen Schniedel (also nicht gerade wenig) darauf, daß da nur 4*AA appliziert wird.



- 4xMSAA in einem Takt vs 2xMSAA in einem Takt mit problematischem Shader-Resolve

Ohne fest dran zu glauben: und wenns jetzt funktioniert?



Nach 3DMark06 Punkte
0xAA 0xAF: 8800GT ~ 9,9% schneller
4xAA 0xAF: 8800GT ~ 8,8% schneller
8xAA 0xAF: 8800GT ~ 2,1% schneller

8xAA 16xAF:8800GT ~ 16,5% schneller :|


...bingo: weil bei der GT 8*AA nicht greift.


/Edit: Sorry, habe mich verlesen! Natürlich greift das AA der GT. Revidiere hiermit das Gesagte.

up¦²
2007-11-12, 11:03:52
Ich mag nur ungern stören, aber wenn es der 3870 gerade mal gelingt, eine Standard GT einzuholen, wie soll das dann weiter gehen ?

Schaut man sich an wie gut die 8800GT mit dem Takt skaliert, dann ist die 3870 in jeder Hinsicht chancenlos!
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=565&seite=11
(übrigens krasse Steigerungungen, wie kommt das zustande?)

Bei der 3870 sehe ich kein großes Potential wenn es um Versionen mit höheren Taktraten geht. Der VRAM liegt schon bei fast 1,2 GHz und mehr sind auf Karten in dem Preisbereich kaum machbar.

Bleibt noch die GPU... ob hier ein Sprung auf 850 oder 900 MHz reichen würde um diesen riesigen Abstand einzuholen? Ich denke nicht. Schaffen die das überhaupt so hoch zu gehen ?

Abwarten.... :rolleyes:

Gast
2007-11-12, 11:08:26
Abwarten.... :rolleyes:

Worauf denn? Auf ein Wunder? :D

Guck dir den Artikel mal an, da gibts ja auch noch andere Games. Zum Teil ist der Unterschied zur Standardversion größer als 30%.

Wo will ATI die auf einmal hernehmen, egal ob nun Crysis oder irgendein anderes Game?

Ich kann nur hoffen, das es übertaktete Karten ab Werk gibt, aber andererseits ist meine Hoffnung fast schon niedergeschmettert, da dies bei der 2900XT nicht eintrat (siehe Geizhals).

Einziger Hoffnungsschimmer ist die Tatsache, das der GPU Takt noch sehr nahe an der 80nm GPU liegt, also noch Spielraum haben müsste. Nur wieviel? Zuviel darfs auch nicht sein, sonst geht wieder der Verbrauch in die Höhe ...

pest
2007-11-12, 11:09:57
Genau hinsehen:

Die GT verliert von 4*AA zu 8*AA keine Leistung - ich verwette meinen Schniedel (also nicht gerade wenig) darauf, daß da nur 4*AA appliziert wird.


8xAA 8216 < 10358 4xAA




...bingo: weil bei der GT 8*AA nicht greift.

wie bingo...mir gings darum das der Vorsprung der 8800GT kleiner wird je höher das AA. und 8xAA greift sonst würde der Vorsprung ja nicht kleiner werden

-/\-CruNcher-/\-
2007-11-12, 11:10:38
Übertaktete Karten ab Werk sind nur Verarschung Geldmacherei auf Nvidia und Partner seiten.
http://www.overclocked-game.de/ <- Spiel das mal dann weist was Overclocked bedeutet ;)

Gast
2007-11-12, 11:13:34
Genau hinsehen:

Die GT verliert von 4*AA zu 8*AA keine Leistung - ich verwette meinen Schniedel (also nicht gerade wenig) darauf, daß da nur 4*AA appliziert wird.



Probleme mit den Augen? Dann mal her mit dem Schniedel.;)

Gast
2007-11-12, 11:15:13
Übertaktete Karten ab Werk sind nur Verarschung Geldmacherei auf Nvidia und Partner seiten.
http://www.overclocked-game.de/ <- Spiel das mal dann weist was Overclocked bedeutet ;)
Ja, defintiv. Besonders, wenn sie so viel kosten wie die normalen. So ein Verarschung aber auch. Aber halt: bei ATi ist es natürlich ein Vorteil, den man gerne mit nimmt. Und wenn's halt keine OC-Versionen der ATi gibt, ist es auf Nvidia-Seite wieder Verarsche. Jawoll :uup:

AnarchX
2007-11-12, 11:18:36
Übertaktete Karten ab Werk sind nur Verarschung Geldmacherei auf Nvidia und Partner seiten.

Eine garantierte Übertaktung ist sicherlich keine "Verarschung".

Ärgerst dich wohl, dass ATis Karten immer so nah am Maximum laufen, so dass die AIBs hier keine vernüftigen Werks-OC-Versionen anbieten können. :tongue:

J0ph33
2007-11-12, 11:19:18
Genau hinsehen:

Die GT verliert von 4*AA zu 8*AA keine Leistung - ich verwette meinen Schniedel (also nicht gerade wenig) darauf, daß da nur 4*AA appliziert wird.


mmh...dein Schniedel ist wohl weg...die GT verliert sehr wohl bei 8*AA, allerdings verliert sie nahezu nix beim hinzuschalten von 16*AF...da kann vom reviewer was verpatzt worden sein, aber es könnte auch an der riesigen Füllrate der 8800GT liegen

hat nicht mal jmd vergleichsresultate bereit, z.B. von der HD2900XT...

Gast
2007-11-12, 11:19:25
Übertaktete Karten ab Werk sind nur Verarschung Geldmacherei auf Nvidia und Partner seiten.

Ich würde eher das Wort als falsch bezeichnen.
Übertakten heißt ja: Betrieb außerhalb der Spezifikation.

Wenn du nun aber eine Karte bekommst, die von Haus aus erhöhte Taktraten hat, ist sie ja nicht übertaktet, sie läuft innerhalb der Specs.
Und die Specs haben diese Boardpartner (mit nvidia) sicherlich nicht aus Lust und Laune festgelegt...

Wie ich schon sagte: Wer kauft absichtlich was schlechteres, wenn er was besseres günstiger haben kann? Und trotzdem sehe ich auf jeder Seite trotzdem diesen Schrott, das ne XXX Version gegen ne Standardversion gesetzt wird. Das müsste nicht sein, wenn sie mal fair sind würden sie gleich ne normale und das Topmodell daneben stellen...

4 Vitamins
2007-11-12, 11:19:35
Die Crysis benchs kann man schonmal vergessen. Das sieht man schon auf den ersten Vergleichsscreen, dass da wieder nVs Treiber mit fehlenden Spiegelungen glänzt.

Ruhig, die schreiben doch unten:
"We found ATi HD3870 is actually has better picture process while Crysis benching."

gruss

Gast
2007-11-12, 11:22:21
Ruhig, die schreiben doch unten:
"We found ATi HD3870 is actually has better picture process while Crysis benching."

gruss
Jo, ist mir bei meiner 8800GT auch aufgefallen. Das Wasser "refresht" sich nicht schnell genug. Ich hoffe mal, dass der Bug (?) mit dem nächsten Treiber gefixt wird, es fällt nämlich schon ziemlich auf.

Gast
2007-11-12, 11:26:53
Das ist ein kleiner Hoffnungsschimmer... da sonst kaum Vergleichswerte bekannt sind.

Nehmen wir nun ab, das wird gefixt und kostet 10 oder 20 % Leistung. Dann wirds aber immer noch sauschwierig die Werksversionen einzuholen (die haben dort ne Standard GT als Vergleich genommen, es gibt aber Versionen die XX % schneller sind als ne Standard GT).

Ich kann mir beim besten Willen nicht vorstellen, das nvidia so offensichtlich cheatet, das ein nächster Treiber die Performance um sagen wir mal 30-50 % einbrechen lässt. Das wäre doch zu offensichtlich. :)

up¦²
2007-11-12, 11:26:58
Worauf denn? Auf ein Wunder? :D

Guck dir den Artikel mal an, da gibts ja auch noch andere Games. Zum Teil ist der Unterschied zur Standardversion größer als 30%.

Wo will ATI die auf einmal hernehmen, egal ob nun Crysis oder irgendein anderes Game?

Ich kann nur hoffen, das es übertaktete Karten ab Werk gibt, aber andererseits ist meine Hoffnung fast schon niedergeschmettert, da dies bei der 2900XT nicht eintrat (siehe Geizhals).

Einziger Hoffnungsschimmer ist die Tatsache, das der GPU Takt noch sehr nahe an der 80nm GPU liegt, also noch Spielraum haben müsste. Nur wieviel? Zuviel darfs auch nicht sein, sonst geht wieder der Verbrauch in die Höhe ...

Darf ich dir auf die Sprünge helfen (aka Zaunpfahlwinkwinke...)
However, there is one thing we need to tell you

We found ATi HD3870 is actually has better picture process while Crysis benching.

Specially the light refraction from water, HD3870 is very smooth but 8800GT is not. It is around frame 500 to 1000.


s.o.!
na - macht das etwa nicht nachdenklich? :biggrin:

Gast
2007-11-12, 11:32:17
na - macht das etwa nicht nachdenklich? :biggrin:

Das habe ich wie mehrfach erwähnt, schon einkalkuliert.

Ich sag ja: Selbst wenn es Leistung kostet mit dem neuen Treiber, so muss dies schon im Bereich 30 % sein, um da einen ATI Vorteil sehen zu können. Ansonsten ändert sich da leider nichts!

Jetzt könnte ich euch genauso gut fragen: Wann hat NVIDIA das letzte mal so offensichtlich gecheated, das mit einem neuen Treiber die Leistung um 30-50 % gefallen ist?

PCGH_Carsten
2007-11-12, 11:32:59
... und hier machen sich die 2 Fps durch den neuen Treiber dann wohl doch bezahlt.

Auch auffällig: Bei Nvidia ist der erste Durchlauf deutlich langsamer, AMD gibt von Beginn an Vollgas.