Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV670, RV660, RV635, RV620 - Teil 2 (s. #1!)
:eek: Und welche CPU im Einsatz. Ich habe mal hier mit einer 6600GT getestet:
Ob man hier jetzt GPU oder CPU Benchmark Batch verwendet spielt keine entscheidenden Rolle...
AMD XP 2.1GHz, 6600GT, Vista x86
800x600, all time low
min: 3 fps
max: 28 fps
average 17 fps
dafür siehts aber extremst sch....e aus.
1280x1024, 4AA, all high
min: 0.0 fps ;D
max: 1.7 fps ;D:biggrin::rolleyes:
avg: 0.76 fps
Standbilder sehen zwar geil aus, die Anzeige kommt aber ungefähr 30 Sekunden nach dem Ton.
Alles in allem würde ich behaupten, dass ein durchschnittlich begabter Strassenmaler mit schwarzer Kreide die Bilder schneller auf A3 gemalt hätte als eine 6600 GT auf meinem Bildschirm.
CPU ist ein XP2400+ (2GHz, FSB166), 1GB DDR-RAM 333MHz (single channel) Windows 2000 SP4.
1024x768 all time low
min. 11fps
max. 36 fps
avg. 30 fps
Ich muss aber dazu sagen, dass es eine 256MB GT6600 ist und die Demo auch in low mehr als 128MB frisst. Vermutlich liegt es daran.
Club 3D HD3850 256MB um 199€ gelistet:
http://www.salland.eu/?redirect=/content/productinfo.php?pid=41231
AnarchX
2007-11-07, 15:27:51
Und wiedermals die neuen Specs:
http://img248.imageshack.us/img248/3348/3850uv0.png
Ferengie
2007-11-07, 15:57:12
Soll die RV670 wirklich mehr verbrauchen als ein X1950Pro?
Auf Winfuture steht was von zeitgleicher Einführung des RV670 für AGP.
GeneralHanno
2007-11-07, 16:11:53
immerhin ist ein RV670 ein voller R600 (sogar mit höheren taktraten). da sollte klar sein, dass der chip - trotz 55nm - immer noch eine relativ hohe verlustleistung hat ;)
mit AGP hätte man natürlich ein klares argument pro ATi und contra nvidia, wobei ich der meinung bin, dass die meisten AGP systeme nicht mehr aufrüstbar sind.
reunion
2007-11-07, 19:20:20
Die 3870 soll 249€ kosten: http://www.fudzilla.com/index.php?option=com_content&task=view&id=4086&Itemid=1
Club 3D HD3850 256MB um 199€ gelistet:
http://www.salland.eu/?redirect=/content/productinfo.php?pid=41231
Wenn man bedenkt, dass die Nler 10-20% mehr als in D berappen müssen superpreis! :smile:
VOODOO-KING
2007-11-07, 19:55:49
Die 3870 soll 249€ kosten: http://www.fudzilla.com/index.php?option=com_content&task=view&id=4086&Itemid=1
falls sie nur minimal langsamer ist als die 8800GT, dafür aber mehr Features besitzt, wäre der Preis noch gerade so zu akzeptieren. Möchte meine X1800GTO bald in Rente schicken und gerne bei Ati bleiben, mal schauen ...
Adam D.
2007-11-07, 20:15:25
Joa, damit wär's preislich 8800GT vs. HD3870. Ich nehm mal an, dass die GT leicht schneller ist, dafür gewinnt die HD3870 mit dem Feature-Set. Sieht fast nach Gleichstand aus :up:
dildo4u
2007-11-07, 20:16:17
Joa, damit wär's preislich 8800GT vs. HD3870. Ich nehm mal an, dass die GT leicht schneller ist, dafür gewinnt die HD3870 mit dem Feature-Set. Sieht fast nach Gleichstand aus :up:
20% sind leicht schneller?
GeneralHanno
2007-11-07, 20:18:30
worauf beziehen sich deine 20% genau?
Adam D.
2007-11-07, 20:20:06
20% sind leicht schneller?
Woher nimmst du schon wieder diese Zahl? Ist die 3870 etwa 10% schneller als die 2900 (und davon geh ich aus, alles andere wäre für den Namen eine wirkliche Farce) und hat das AA-Problem zumindest zum Teil beseitigt, ist sie fast gleich auf mit der 8800GT.
VOODOO-KING
2007-11-07, 20:21:43
20% sind leicht schneller?
wer sagt, dass die GT 20% schneller ist?
Zudem ist die Kühlkonstruktion der GT nicht gerade das gelbe vom Ei, Temperaturen von ~ 90 - 95 °C sind nix für mich ...
dildo4u
2007-11-07, 20:21:45
@GeneralHanno
Auf die 2900XT die 35mhz mher Core Takt der HD3870 werden nicht viel helfen bei den AA Benches weil das einzige Vorteil der 2900 die massiven Speicherbandbreite gekürtzt wurde.
reunion
2007-11-07, 20:25:40
Die AA-Leistung ist laut AMD gestiegen - trotz Kürzung des SIs.
-/\-CruNcher-/\-
2007-11-07, 20:25:43
Hehe da lag ich doch genau richtig
HD2900 GT = 150€ (Lagerabverkauf R600)
HD3850 PRO = 170€ ??
8800 GT 265 = 200€ ??
HD2900 PRO = 200€ (Lagerabverkauf R600)
HD3870 GDDR3 = 200€ ??
8800 GT = 250€
HD3870 GDDR4 = 250€ ??
HD2900XT = 300€
Man hört allerdings das AMD/ATI noch ne menge reserven nach unten haben soll 55nm sei dank das wird vor Weihnachten noch nen richtig derber Preiskampf werden und Nvidia verkauft schon fast unter ihrer üblichen Gewinnspanne. Kann uns verbrauchern nur recht sein :) und die AIBs werden nun so langsam anfangen ihre eigenen (PCB Designs) auf den Markt zu werfen erstmal müssen aber noch einige Referenzkarten vertickt werden die durch den Hype bestellt worden sind (8800 GT). Wenn die Reviews der HD 3870er entsprechend ausfallen wird Nvidia mit der 8800 GTS (G92) kontern und vermutlich kontert AMD/ATI dann mit der Dual RV670 allerdings hab ich keine Ahnung wie das alles noch dieses Jahr ablaufen soll die Produktionslinien müssen da ja anscheinend 24/7 produzieren, da bleibt weniger Zeit auf dem Basketball Feld und in der Dancing Hall :D
VOODOO-KING
2007-11-07, 20:26:54
@GeneralHanno
Auf die 2900XT die 35mhz mher Core Takt der HD3870 werden nicht viel helfen bei den AA Benches weil das einzige Vorteil der 2900 die massiven Speicherbandbreite gekürtzt wurde.
die entscheidende Frage wird in meinen Augen sein, wie gross der Abstand in der 1280er Auflösung sein wird ...
GeneralHanno
2007-11-07, 20:27:49
also reden wir von benches MIT AA/AF ;)
allerdings wissen wir noch nicht - zumindest bei den ROPs - ob ATi dort noch etwas gefeilt hat. letztlich ist es eine sache des preises (insbesondere auch für unter 200€, wer dort das besste gesammtpaket anbietet)
reunion
2007-11-07, 20:29:46
Naja, im Preisbereich über 250$ wird nV zumindest bis Anfang 2008 weiterhin konkurrenzlos dastehen, allerdings hat man nichts adäquates zur HD3850/3830, die für deutlich unter 200$ angeboten werden. Und hier liegt der übliche Mainstreambereich, den früher die 6600GT/7600GT/X1950pro einnahmen, und der natürlich mit hohen Stückzahlen punkten kann.
laser114
2007-11-07, 20:34:28
20% sind leicht schneller?
Schon die HD 2900 XT liegt 20% hinter der 8800 GT, und zwar mit 4x AA / 8x AF. Sonst kommt sie der 8800 GT noch näher.
Die HD 3870 sollte aber etwas schneller als die 2900 XT werden.
Und wenn die Bandbreite der HD 3870 knapp werden sollte, dürfte die 8800 GT das selbe Problem haben. 20% werden das wohl eher nicht.
GeneralHanno
2007-11-07, 20:34:47
letzlich wird nvidia mit der 88GT und 88GTS512 die nase etwas vorne haben, aber der RV670 hat ja auch nur 70% der G92-die-size, so dass ATi eben günstigere produkte anbieten kann.
dildo4u
2007-11-07, 20:37:53
Wurde nich mal was von einer 8800GS gemunkelt das wär doch was für den Bereich um 150-170€.
X1950pro einnahmen, und der natürlich mit hohen Stückzahlen punkten kann.
Die hat doch die ersten 4-5 Monaten auch eher über 200€ gekostet zumindest mit 512mb.
http://geizhals.at/deutschland/?phist=222613&age=365
-/\-CruNcher-/\-
2007-11-07, 21:18:50
Also ich bin mal ganz ehrlich ich kann einfach diesen ganzen Benchmark Wahn als Konsument/Verbraucher nicht verstehen (sicher als Nvidia/AMD/ATI Boss würde mich das Freuen) es ist doch absoluter Quatsch wenn ein Spiel hier und da mal 1000 frames bringt aber an anderen stellen die rechenaufwendiger sind unter vernünftige Framerates fällt (min 24 fps,der faktor Zeit spielt dann aber auch noch eine Rolle und in welcher situation), das bringt doch rein garnix das selbe Problem existiert im Audio/Videobereich auch wird Variable Bitrate gennant.
Wenn die Balance nicht stimmt zwischen High und Low Motion Scenes dann bemerkt man das Visuell sehr schnell, im 3D Bereich ist das dann zu vergleichen mit der gefühlten Geschwindigkeit und das ist das wichtigste (hier setzt man es wundert nicht auch seitens Nvidia/AMD/ATI HVS Optimierungen ein um das Spielgefühl zu Optimieren).
Mir wäre es lieber das die HD3870 mit AA einbricht aber dafür konstante Framerates zeigt (und das mit Edge Detected AA, nur soviel Anti Aliasing wie auch unbedingt nötig (So viel wie nötig, so wenig wie möglich ist hier die Devise)), wobei das bei Crysis vorerst eh ein Traum bleibt und sicherlich erst mit den Dual karten b.z.w danach mit der neuen Generation G100/R700 in den Griff bekommen wird.
Und da es momentan nicht geht wird eben die Grafik runtergefahren als bestes beispiel die Bodentexturen im Vergleich zu den Steintexturen die bei Crysis besprochen worden das hat Crytek genial gemacht aber einige scheinen es nicht zu verstehen was dahinter steckt :D
Das Auge konzentriert sich immer nur auf einen Punkt (ROI- Region of Interest) und Veränderungen fallen mehr auf bei Objekten die sich momentan in diesem befinden (bei einem Ego Shotter kann man nun davon ausgehen das sich das Auge meistens auf die Mitte des Spielgeschens konzentriert ergo man blurred die Bodentexturen (die sich in einer gewissen Entfernung befinden) und spart somit Bandbreite).
seahawk
2007-11-07, 21:24:19
Man wird sicher auch ne Option für die 96SP Version des G92 finden. Und G96 kommt im 1Q08.
laser114
2007-11-07, 21:32:18
Man wird sicher auch ne Option für die 96SP Version des G92 finden. Und G96 kommt im 1Q08.
Ist die Frage zu welchen Preisen. Mit 289 mm^2 ist das Ding eigentlich nicht für den Sub-200-€-Markt gemacht, andererseits hat Nvidia aber auch eine 8800 GTS 320 für 250€ verkauft, und der Chip war noch größer.
-/\-CruNcher-/\-
2007-11-07, 21:44:46
Bei der 8800 GT wird es wahrscheinlich auch spätestens bei erscheinen der GTS möglich sein die letzten Shader Cluster zu aktivieren das gibt den GT usern dann auch wieder einen kostenlosen boost gegenüber der HD 3870 aber das ist auch noch Spekulation (schaut man aber mal zurück ist es durchaus möglich, jeden Chip laser cuten kostet Zeit und die hatte man beim Launch nicht)
w0mbat
2007-11-07, 21:47:13
Dann würde aber niemand mehr eine teurere GTS kaufen (außer vielleicht eine 1GB-Version).
-/\-CruNcher-/\-
2007-11-07, 22:07:44
nicht vergessen die GTS wird dazu vorausichtlich erheblich höher getaktet sein schaft man mit den jetzigen Volt 1.059 auf dem Referenz PCB nicht, ausser man overvoltet ;) wie bei XS
http://www.xtremesystems.org/forums/showpost.php?p=2536411&postcount=162 <- schon erstaunlich was für reserven dadrin schlummern, das bestätig Nvidias eigene Einschätzungen und gibt ihnen ne Menge Potential bis in den High End bereich sprich ne Ultra bassierend auf dem G92, bin mal gespannt ob der RV670 da mitziehen kann :D
Aber Persönlich warte ich nicht mehr solange zumal da die anderen Karten weit aus dem Preisbereich rausfallen werden den ich akzeptiere somit wirds entweder ne 8800 GT (neues PCB mit besserem leiseren kühler) oder ne HD3870 wobei ich AMD/ATIs entscheidung zuerst den HD3850 zu bringen blöd finde, weil die ist wirklich sehr viel langsamer als die GT und da bis dahin vorausichtlich die neuen Hersteller 8800 GTs launchen und sich die HD3870 dann noch mehr nach hinten zieht wirds langsam auch für mich zum Geduldspiel, weil ich fest gerechnet hab das ca 1 woche nach Veröffentlichung die ersten HD3870 karten da sein werden dies ist nun aber sehr ungewiss und vorausichtlich nehmen die HD3850 diesen Platz ein, das ist Marketingtechnisch doch eine sehr dumme entscheidung weil der Otto normal verbraucher doch nicht so auf nen Release wartet wie nen Performance oder Enthusiast User echt dumme Entscheidung,aber abwarten. Nvidia lässt die andere vor und wartet lieber mit der Mainstream Karte.
AnarchX
2007-11-07, 22:43:27
letzlich wird nvidia mit der 88GT und 88GTS512 die nase etwas vorne haben, aber der RV670 hat ja auch nur 70% der G92-die-size, so dass ATi eben günstigere produkte anbieten kann.
Nicht allein die Die-Size bestimmt die Kosten, sondern eben auch Yield und Waferpreise. ;)
laser114
2007-11-07, 22:54:20
Nicht allein die Die-Size bestimmt die Kosten, sondern eben auch Yield und Waferpreise. ;)
Wobei sich mit fortschreitender Zeit das Bild eher auf die Seite von AMD verlegen sollte. ;)
Abgesehen davon würde AMD wohl jetzt noch nicht damit herankommen, wenn kein Profit möglich wäre.
LovesuckZ
2007-11-07, 23:06:04
wer sagt, dass die GT 20% schneller ist?
Zudem ist die Kühlkonstruktion der GT nicht gerade das gelbe vom Ei, Temperaturen von ~ 90 - 95 °C sind nix für mich ...
Wieso nicht?
mapel110
2007-11-07, 23:09:12
Wasser kocht erst bei 100 Grad. ;D
sry ;(
Aber ich versteh auch nicht, warum die neue ATI mit deutlich weniger Bandbreite als R600 schneller sein sollte.
laser114
2007-11-07, 23:11:13
Aber ich versteh auch nicht, warum die neue ATI mit deutlich weniger Bandbreite als R600 schneller sein sollte.
Die 3870 hat immer noch 25% mehr Bandbreite als die 8800 GT. Dazu kommt der höhere Chiptakt sowie hoffentlich die Verbesserungen am AA.
Die Bandbreite hat dem R600 auch nix gebracht. Am Design werden sie groß nix geändert haben. Kann man nur hoffen das sie die schwächen weichgebügelt haben. Shaderpower war doch eigentlich nie das Problem der Rx00 Serie, aber was sie mitgeschlept haben ist fehlende Texel-/Pixel- und Z-Leistung, meiner Meinung nach...
Nicht allein die Die-Size bestimmt die Kosten, sondern eben auch Yield und Waferpreise. ;)
Soweit man das als aussenstehender sagen kann was man so von allen Ecken hört, ist die Ausbeute bei/für ATI an funktionierenden Chips hervorragend und mit den beiden Modellen 3850/70 bekommt man das Problem mit den Taktraten die manch ein Chip nicht schaffte auch gut in den Griff, von der wirtschaftlichen Seite her spricht da eigentlich fast alles für AMD......
Man kann wirklich nur hoffen das ATI da noch ein paar kleine veränderungen am Chip machen konnte, hoffentlich nicht solche Tricks mit der AF wie bei Vorgängerserien. In Crysis und UT3 scheint die HD Serie ja hier und da etwas Licht erahnen zu lassen, wobei ja hier zu gute kommt das man auch bei NV nicht genug Leistung für AA und AF hat.
Hvoralek
2007-11-07, 23:54:00
Die 3870 hat immer noch 25% mehr Bandbreite als die 8800 GT. Dazu kommt der höhere Chiptakt sowie hoffentlich die Verbesserungen am AA.Die 3870 hat 1/3 mehr Bandbreite als die GT, die GT aber 25% weniger als die 3870 :wink:
Hier - im Vergleich mit der 8800GT - ist sehr gut zu sehn, warum Ati die 3850 so preiswert anbieten kann :biggrin:
http://www.tcmagazine.com/comments.php?shownews=16716&catid=2
Würde sagen halbe Portion... aber gewaltig - klasse sowas!
-/\-CruNcher-/\-
2007-11-08, 03:13:17
Nur kann man die beiden Karten absolut nicht vergleichen die HD3850 ist nur fürs wirkliche Mainstream gedacht ( und die fehlenden 28% werden wahrscheinlich auch nicht mit Overclocking erreichbar sein da das Referenz PCB da nicht mit machen wird (15-20% vieleicht + neuen Kühler) es sei den ATI nutzt für beide das selbe und hat nur den Kühler gewechselt :D) Ob man die 28% mit Gigabytes PCB reinholen kann ist eine sehr gute Frage, auf die ich keine Antwort hab ;)
8800 GT: (GDDR3) 600/1500/900MHz, power 100W 110% 700MHz = 131% 110W (21% Performance Gewinn bei gleichzeitigem Shadertakt von 1700)
HD3870: (GDDR4) 775/1200MHz , power 105W 110%
HD2900XT: 740/825MHz, power 215W 100%
HD3850: 670/828MHz, power 95W 82%
dildo4u
2007-11-08, 03:13:36
Also das PCB ist komischerweise länger bei der ATI das wird teurer sein als die paar eingesparten Spanwan und Kondensatoren.
-/\-CruNcher-/\-
2007-11-08, 03:30:24
Ja nur ist Gigabyte dafür der 55nm Chip anscheinend erheblich günstiger denke mal da war es ihnen egal ob sie das PCB etwas länger machen und ausserdem kann das auch ne Optische täuschung durch die Aufnahme sein oder seit wann gibts den Zalmann in 2 größen ;)
dildo4u
2007-11-08, 03:32:09
Ja nur ist Gigabyte dafür der 55nm Chip anscheinend erheblich günstiger denke mal da war es ihnen egal ob sie das PCB etwas länger machen und ausserdem kann das auch ne Optische täuschung durch die Aufnahme sein oder seit wann gibts den Zalmann in 2 größen ;)
Das ist keine Optische Täuschung kann man schön an der PCI-E Kontaktleiste abschätzen welche Karte länger ist.
-/\-CruNcher-/\-
2007-11-08, 03:38:39
Jep hast recht hmm trotzdem scheint es Gigabyte billiger zu kommen, was ich interessant finde ist das überhaupt eine 512mb version der Pro kommt :D das ist echt nicht schlecht sind nur noch die 28% unterschied für umgerechnet anfangs ca. 50€ zur HD3870, wobei der Preis für diese 512 mb versionen existiert ja noch nicht ;)
also 10% schneller für die HD3870 in Crysis bedeutet schneller als 8800 GT @ Stock bezogen nun auf andere Werte nicht mehr Demorias Simulierten Pro sondern diesen hier
http://www.driverheaven.net/reviews/8800GTs/crysis.php :) selbst mit den Performance Drivern 169.01 (mit Nvidias HVS Optimierungen) kann die GT (vorausichtlich) nicht Gewinnen.
Und ohne verliert sie sogar nochmal 10% :D
Crysis 1280x768 kein AA 16AF
8800 GT (Performance Driver)
AVG = 21 (-10% 19 fps)
HD2900XT
AVG = 20
HD3870
AVG = 22
StefanV
2007-11-08, 05:22:01
Die Bandbreite hat dem R600 auch nix gebracht.
Naja, wenn man die HD2900 GT mit der HD2900 PRO vergleicht, kann man zu 'nem anderen Schluss kommen...
Also das PCB ist komischerweise länger bei der ATI das wird teurer sein als die paar eingesparten Spanwan und Kondensatoren.
Das ist nicht der einzige Indikator für den Preis eines PCBs, da ich nicht denke, das du beurteilen kannst, wieivele Lagen die beiden haben, kannst auch nicht in der Lage sein, zu beurteilen welches denn nun das teurere/günstigere ist...
Besonders da Länge <<< Lagen...
Ailuros
2007-11-08, 05:45:16
http://forum.beyond3d.com/showpost.php?p=1088311&postcount=1071
Man kann manche Sache endlos wiederholen, aber es dauert wie immer bis manche es schnallen.
NVIDIA knabbert tatsaechlich an ihren eigenen Margen mit dem G92, aber mit den verrueckten Gewinnen der G80-Serie kann man es sich so oder so leisten.
Am Ende heisst es fuer beide IHVs dass sie weniger an RV670/G92 verdienen werden als sie sich gewuenscht haetten. AMD drueckt die Preise nach unten und NVIDIA schaltete noch einen cluster ein.
Wer jetzt aber so naiv sein will und glaubt dass AMD aus dem nichts mit dem Zeug sagen wir mal $100Mio Gewinn von der Geschichte macht und NVIDIA gar nichts, hat sich wohl gigantisch ins Bein geschossen. Im besten Fall kann (ohne die Schulden-verschreibung) AMD eine geringen Gewinn am Ende abkassieren und NVIDIA eben um einiges mehr aber eben nicht so viel wie sie sich gewuenscht haetten.
Was die Leistung betrifft es steht oben klipp und klar im Link drin; wer es anders interpretieren will na dann bon apetit ;)
James Ryan
2007-11-08, 05:56:42
Bei der 8800 GT wird es wahrscheinlich auch spätestens bei erscheinen der GTS möglich sein die letzten Shader Cluster zu aktivieren
Das freischalten hat NVIDIA seit der Gf 7800 GT schon stoppen können, bei der Gf 8800 GT wird man auch nix mehr freischalten können.
Deine Crysis-Werte sind so ;D , einfach mal pauschal 10% von der GT wegen den "Optimierungen" abziehen, trotz Beta-Treiber und non-Final-Crysis.
Nur mal so am Rande, der 169.04er ist auch mit exe-Umbenennung (= "Optimierungen" aus) schneller in Crysis als alle anderen Treiber vorher.
MfG :cool:
-/\-CruNcher-/\-
2007-11-08, 06:15:56
http://forum.beyond3d.com/showpost.php?p=1088311&postcount=1071
Was die Leistung betrifft es steht oben klipp und klar im Link drin; wer es anders interpretieren will na dann bon apetit ;)
Du weisst ja nicht auf was er es bezieht die HD3850 ist ganz klar unter der GT aber die HD3870 scheint ebenwürdig der GT gegenüber (im Catalyst wurden auch noch keine HVS Optimierungen bei Crysis gefunden) und nun darf man auch nicht den ganzen Mehrwert vergessen der verglichen mit der GT daherkommt wie er schon sagt (DX10.1 PShader 4.1 Marketing blabla wie damals bei Nvidia) volle VC-1 Bitstream Beschleunigung, Powerplay und Dual-Slot Kühler das ist alles Mehrwert, das einzige davon was man sich zu kaufen kann als GT user ist die bessere Kühlung dann verliert man bei den meisten Herstellern aber die Garantie (bei den Referenzkarten noch entscheidend bei den AIB Karten nicht mehr von Bedeutung kommen alle mit besserer Kühlung) Die Frage ist allerdings ob man mit den wahrscheinlich machbaren 50mhz mit den Referenz HD3870 auf die Geschwindigkeit einer 700mhz getakteten GT kommt das ist die Frage ;) aber die Stock GT Geschwindigkeit sollte man ereichen können und wenn ATI dann noch kräftig den Preis drückt dann haben wir hier 50€ unterschied am Ende für die gleiche Leistung beim Referenzdesign.
Bei den AIB Karten wird es schon anders aussehen da wird der Mehrwert bessere Kühlung wechfallen für die HD3870.
@James Ryan
Um wieviel schneller ? Demorias test waren mit dem 196.04 und sie decken sich
Adam D.
2007-11-08, 06:59:54
Da die 8800GT die HD2900XT in 99% der Fälle deutlich schlägt, ist es unrealistisch anzunehmen, dass die HD3870 plötzlich ebenbürtig ist. CJ hat's glaub ich oft genug gesagt, das Ding ist auf der Performance vom R600, mit einigen kleinen Verbesserungen und deutlich geringerem Preis.
seahawk
2007-11-08, 07:02:33
Bei der 8800 GT wird es wahrscheinlich auch spätestens bei erscheinen der GTS möglich sein die letzten Shader Cluster zu aktivieren das gibt den GT usern dann auch wieder einen kostenlosen boost gegenüber der HD 3870 aber das ist auch noch Spekulation (schaut man aber mal zurück ist es durchaus möglich, jeden Chip laser cuten kostet Zeit und die hatte man beim Launch nicht)
Nein, wird man nicht.
MadManniMan
2007-11-08, 07:04:21
Irgendwie will mir nicht in den Kopf, warum die 3870 105 W, die 3850 aber immernoch 95 W schlucken soll - das wären knapp 91 %, aber
...der Core taktet mit 668 statt 775 MHz - macht auch ohne Absenken des VCore (was ich für komplett unwahrscheinlich halte) 86 %
...der Ram taktet gar mit 828 statt 1200 MHz - macht wiederum ohne Absenken des VRam (ebenso doof) 69 %
Wenn wir dem Core nen größeren Anteil an der Verlustleistung zugestehen, dann haben wir immernoch ~ max. 80 % vom großen Bruder - bei angenommenen 105 W glaube ich an maximal 85 W beim 3850 :|
...und da - wie gesagt - bei nem großen Bruder irgendwie immer im Grenzbereich gearbeitet wird und man da kaum um höhere Spannungen herum kommt, kann das Ganze auch gern nochmal um 10 W inferior korrigiert werden.
Was denkt ihr?
seahawk
2007-11-08, 07:07:32
Wobei sich mit fortschreitender Zeit das Bild eher auf die Seite von AMD verlegen sollte. ;)
Abgesehen davon würde AMD wohl jetzt noch nicht damit herankommen, wenn kein Profit möglich wäre.
Leiber im Nov07 Kartenmit reduziertem Takt verkaufen. Als noch Wochen vergeuden um den alten Takt zu packen und den Yield in Waffern pro Chip zu messen.
Ist die Frage zu welchen Preisen. Mit 289 mm^2 ist das Ding eigentlich nicht für den Sub-200-€-Markt gemacht, andererseits hat Nvidia aber auch eine 8800 GTS 320 für 250€ verkauft, und der Chip war noch größer.
Man wird schon genug teildfefekte Chips haben um sich bs G96 zu retten.Woebi NV bei einer 180 Euro GT 256 und einer 210 Euro GT 512 ATI wenig Raum lassen wird um ihre Produkte zwischen der 130Euro (dann) 8600GTS zu platzieren.
-/\-CruNcher-/\-
2007-11-08, 07:57:41
Irgendwie will mir nicht in den Kopf, warum die 3870 105 W, die 3850 aber immernoch 95 W schlucken soll - das wären knapp 91 %, aber
...der Core taktet mit 668 statt 775 MHz - macht auch ohne Absenken des VCore (was ich für komplett unwahrscheinlich halte) 86 %
...der Ram taktet gar mit 828 statt 1200 MHz - macht wiederum ohne Absenken des VRam (ebenso doof) 69 %
Wenn wir dem Core nen größeren Anteil an der Verlustleistung zugestehen, dann haben wir immernoch ~ max. 80 % vom großen Bruder - bei angenommenen 105 W glaube ich an maximal 85 W beim 3850 :|
...und da - wie gesagt - bei nem großen Bruder irgendwie immer im Grenzbereich gearbeitet wird und man da kaum um höhere Spannungen herum kommt, kann das Ganze auch gern nochmal um 10 W inferior korrigiert werden.
Was denkt ihr?
Könnten sie nicht 10W fürs Overclocking angerechnet haben ?
Bei der 8800 GT scheint Nvidia das genauso gemacht zu haben der Max verbrauch stock liegt bei 100W und max stable overclock bei den meisten bei 700mhz und das ergibt anscheinend 110W TDP
Also das PCB ist komischerweise länger bei der ATI das wird teurer sein als die paar eingesparten Spanwan und Kondensatoren.
LOL. Das PCB ist Plastik, mehr nicht. Das kostet einen Dreck. Entscheidend sind die Bauteile/Layeranzahl.
reunion
AnarchX
2007-11-08, 08:05:35
AMD unveils 55nm Firestream 9170 Stream Processor (http://www.tcmagazine.com/comments.php?shownews=16734&catid=6)
Man wird schon genug teildfefekte Chips haben um sich bs G96 zu retten.Woebi NV bei einer 180 Euro GT 256 und einer 210 Euro GT 512 ATI wenig Raum lassen wird um ihre Produkte zwischen der 130Euro (dann) 8600GTS zu platzieren.
Nur das die 256MB 8800GT mit den Problemen beim Speichermanegement IMHO komplett unintressant ist. Unter 200$ braucht nV einfach ein kleineres Die. Und die 8600GTS muss sowieso enorm im Preis sinken, wenn sie noch beachtet werden will.
reunion
-/\-CruNcher-/\-
2007-11-08, 08:18:53
Jep das gegenstück zu Nvidias Tesla (CUDA) bassierend auf CTM, auf der Siggraph hat AMD/ATI einige schöne sachen auf dem RV670 nehm ich mal an gezeigt unter anderem Realtime HD 720p Mpeg-2 Encoding :D dazu benutze man die eigene Videobeschleunigungs Library (COBRA)
http://www.engadget.com/2007/11/08/amd-announces-firestream-9170-first-dedicated-stream-processor/
Nu wissen wir auch wie hoch die GPU max geht 800MHz die 825MHz scheinen komplett aus dem rennen, also max Overclock von + 25MHz das ja nicht sonderlich viel ob man mit 800MHz noch die Geschwindigkeit einer 700MHz GT erreicht ist fraglich
AnarchX
2007-11-08, 08:26:50
[...]
Was denkt ihr?
Der 900MHz-GDDR3 hat eine TDP von 2.6W pro Modul, der 1.2GHz-GDDR4 nur 1.9W pro Modul. ;)
http://www.engadget.com/2007/11/08/amd-announces-firestream-9170-first-dedicated-stream-processor/
2GiB GDDR3 bei einem 256Bit-Bus? Vielleicht doch ein RV670-512Bit?
w0mbat
2007-11-08, 08:45:16
[...]
2GiB GDDR3 bei einem 256Bit-Bus? Vielleicht doch ein RV670-512Bit?
Oder der mysteriöse RV680?
Henroldus
2007-11-08, 08:54:42
Irgendwie will mir nicht in den Kopf, warum die 3870 105 W, die 3850 aber immernoch 95 W schlucken soll - das wären knapp 91 %, aber
...der Core taktet mit 668 statt 775 MHz - macht auch ohne Absenken des VCore (was ich für komplett unwahrscheinlich halte) 86 %
...der Ram taktet gar mit 828 statt 1200 MHz - macht wiederum ohne Absenken des VRam (ebenso doof) 69 %
Wenn wir dem Core nen größeren Anteil an der Verlustleistung zugestehen, dann haben wir immernoch ~ max. 80 % vom großen Bruder - bei angenommenen 105 W glaube ich an maximal 85 W beim 3850 :|
...und da - wie gesagt - bei nem großen Bruder irgendwie immer im Grenzbereich gearbeitet wird und man da kaum um höhere Spannungen herum kommt, kann das Ganze auch gern nochmal um 10 W inferior korrigiert werden.
Was denkt ihr?
seit wann skaliert der Verbrauch linear mit dem Chiptakt? :|
die Spannung ist viel entscheidender, da sie quadratisch in die verlustleistung mit einfliesst.
und wie AnarchX schon darlegte braucht GDDR4 wenigen leistung bei gleichem takt
seit wann skaliert der Verbrauch linear mit dem Takt? :|
Schon immer, sofern sich an den anderen Faktoren nichts ändert.
reunion
Henroldus
2007-11-08, 09:06:28
Schon immer, sofern sich an den anderen Faktoren nichts ändert.
reunion
naja nicht ganz:
oberer teil
http://media.bestofmicro.com/A/2/54794/original/chart_power_load.png
erst ab 3,4 GHz wurde die spannung angehoben.
bei 3,3GHz hätten linear hochgerechnet 61,4W abfallen müssen
naja nicht ganz:
oberer teil
http://media.bestofmicro.com/A/2/54794/original/chart_power_load.png
erst ab 3,4 GHz wurde die spannung angehoben.
bei 3,3GHz hätten linear hochgerechnet 61,4W abfallen müssen
P=C*f*U². (P=Leistung, C=Gesamtkapazität der Prozessorgates, f=Taktfrequenz, U=Betriebsspannung.) Daran gibt es nichts zu rütteln. So genau lässt sich das ohnehin nicht messen.
reunion
Henroldus
2007-11-08, 09:24:28
P=C*f*U². (P=Leistung, C=Gesamtkapazität der Prozessorgates, f=Taktfrequenz, U=Betriebsspannung.) Daran gibt es nichts zu rütteln. So genau lässt sich das ohnehin nicht messen.
reunion
nagut,
sind sicher einige ungenauigkeiten drin, soviel unterschied isses ja nich.
"tötlich" ist jedenfalls die Spannung
Tom's Messungen scheinen mir etwas seltsam, der Quad soll bei 10% mehr Takt (3GHz -> 3,3GHz) 45% mehr Watt verbrauchen?
Nur das die 256MB 8800GT mit den Problemen beim Speichermanegement IMHO komplett unintressant ist. Unter 200$ braucht nV einfach ein kleineres Die. Und die 8600GTS muss sowieso enorm im Preis sinken, wenn sie noch beachtet werden will.
reunion
Welcher Fehler im Speichermanagement?
Tom's Messungen scheinen mir etwas seltsam, der Quad soll bei 10% mehr Takt (3GHz -> 3,3GHz) 45% mehr Watt verbrauchen?
lol? 4 kerne?
lol? 4 kerne?
1,40 * 8 = ?
1,40 * (4 *2) = ?
AnarchX
2007-11-08, 10:42:02
Oder der mysteriöse RV680?
Imo ist das doch eher ein RV670 in Revision A12 mit aktiver On-Die-PCIe-Bridge, der dann für das Dual-Die-Package R680-DDK genutzt wird, also die HD3870 X2.
Vielleicht doch nur 256-Bit bei der FireStream, sonst hatte AMD ja hier $2500 verlangt und hier sind es nur $1999.
Henroldus
2007-11-08, 10:49:51
Tom's Messungen scheinen mir etwas seltsam, der Quad soll bei 10% mehr Takt (3GHz -> 3,3GHz) 45% mehr Watt verbrauchen?
die spannung wurde kräftig angehoben ;)
(doppelte spannung -> 4facher Stromverbrauch)
LovesuckZ
2007-11-08, 10:55:02
AMD drueckt die Preise nach unten und NVIDIA schaltete noch einen cluster ein.
Selbst mit 6 Cluster wäre man noch wesentlich schneller als eine 8800GTS. Und hätte dabei noch einen geringeren Stromverbrauch.
Es ist für mich aber unbegreifbar, warum nVidia wirklich den G92 bei mindesten 8 Cluster belassen hat. Ein G92 mit nativen 6 Cluster und hohen Taktraten (z.B 700/2000/1000) und4 ROP-Partitionen wäre nicht nur wesentlich kleiner sondern auch noch stromsparender.
Henroldus
2007-11-08, 10:59:25
Selbst mit 6 Cluster wäre man noch wesentlich schneller als eine 8800GTS. Und hätte dabei noch einen geringeren Stromverbrauch.
Es ist für mich aber unbegreifbar, warum nVidia wirklich den G92 bei mindesten 8 Cluster belassen hat. Ein G92 mit nativen 6 Cluster und hohen Taktraten (z.B 700/2000/1000) und4 ROP-Partitionen wäre nicht nur wesentlich kleiner sondern auch noch stromsparender.
benötigen deaktivierte cluster denn auch strom und sind nur logisch nicht mehr angebunden?
AnarchX
2007-11-08, 10:59:53
Ein G92 mit nativen 6 Cluster und hohen Taktraten (z.B 700/2000/1000) und4 ROP-Partitionen wäre nicht nur wesentlich kleiner sondern auch noch stromsparender.
Vielleicht wird ja die 8800 GT im Q1 durch einen solchen refresht, CJ äußerte etwas, dass bei den Roadmap-Umwerfungen aus G94 der G96 wurde und dann gab es ja noch Foxconn, die der Meinung waren, dass auf der 88GT ein G96 sitzen würde. ;)
benötigen deaktivierte cluster denn auch strom und sind nur logisch nicht mehr angebunden?
Kommt ganz drauf an ob sie per Lasercut von der Stromversorgung gekappt wurden.
Selbst mit 6 Cluster wäre man noch wesentlich schneller als eine 8800GTS. Und hätte dabei noch einen geringeren Stromverbrauch.
Naja, selbst die alte 8800GTS hat auch sechs Cluster, und dabei einen ROP-Cluster mehr. Die neue 8800GTS auf G80-Basis wäre mit 7 Cluster zumindest vor einer hypotetischen sechs Cluster 8800GT. Und so wäre es wohl auch geplant gewesen. Jetzt macht weder die alte, noch die neue GTS wirklich Sinn.
reunion
LovesuckZ
2007-11-08, 11:15:32
Darum ging es mir nicht. Warum shrinkt nVidia den G80 1:1 mit ein paar Veränderungen und verkauft diesen für 250$ - dieser Bereich war von Anfang geplant gewesen, wenn ein nativer 6 Cluster Chip von der Leistung nicht schlechter wäre? Preislich könnte diese viel stärker gegen den rv670 positioniert werden und sich weniger auf die Margen auswirken.
Darum ging es mir nicht. Warum shrinkt nVidia den G80 1:1 mit ein paar Veränderungen und verkauft diesen für 250$ - dieser Bereich war von Anfang geplant gewesen, wenn ein nativer 6 Cluster Chip von der Leistung nicht schlechter wäre? Preislich könnte diese viel stärker gegen den rv670 positioniert werden und sich weniger auf die Margen auswirken.
Der wird schon noch kommen. Nur da RV670 früher kommt als erwartet, hat man eben aktuell nichts anderes. Würde mich nicht wundern, wenn die 8800GT ausläuft, sobald die Mittelklasse fertig ist.
reunion
Radeon HD3800 series launches on the 14th: http://www.fudzilla.com/index.php?option=com_content&task=view&id=4092&Itemid=1
Sollte bei uns also am 15. in den frühen Morgenstunden so weit sein.
reunion
Wo ist die GT denn geblieben in dem Treiber... ?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4100&Itemid=1
seahawk
2007-11-08, 11:52:29
Selbst mit 6 Cluster wäre man noch wesentlich schneller als eine 8800GTS. Und hätte dabei noch einen geringeren Stromverbrauch.
Es ist für mich aber unbegreifbar, warum nVidia wirklich den G92 bei mindesten 8 Cluster belassen hat. Ein G92 mit nativen 6 Cluster und hohen Taktraten (z.B 700/2000/1000) und4 ROP-Partitionen wäre nicht nur wesentlich kleiner sondern auch noch stromsparender.
NV fuhr seit dem NV30 Fisasko sehr gut mit der Strategie eher eine breitere Struktur bei niedrigem Takt zu bauen, als schmal und hoch getaktet. Auch würde ich nicht wetten, dass so ein Chip weniger Strom verbraucht.
AnarchX
2007-11-08, 11:56:14
Wo ist die GT denn geblieben in dem Treiber... ?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4100&Itemid=1
Die wird es wohl nicht mehr geben, immerhin wäre sie mit 600/800MHz kaum langsamer als die 3850 und preislich ist auch kein wirklicher Platz mehr da.
Vielleicht kommen ja noch HD 3770 und 3750 auf Basis des RV660(RV670@240SPs @256/128Bit?).
NV fuhr seit dem NV30 Fisasko sehr gut mit der Strategie eher eine breitere Struktur bei niedrigem Takt zu bauen, als schmal und hoch getaktet.
Aber auch nur im High-End.
NV43, NV42, G73 waren eher schmal und hoch getaktet. ;)
seahawk
2007-11-08, 12:01:06
Ich würde G92 aber auch eher als High-End-Chip sehen. Und selbst eine 6 cluster Version wäre immer noch ein großer Chip.
AnarchX
2007-11-08, 12:11:47
Ich würde G92 aber auch eher als High-End-Chip sehen. Und selbst eine 6 cluster Version wäre immer noch ein großer Chip.
Imo sollte eine 6 Cluster (nur 256Bit?)-GPU doch mit 55nm in Richtung 200mm² gehen und wäre mit entsprechenden Taktraten ein sehr guter RV670-Konkurrent, der auch preismäßig mitziehen könnte.
G92 ist natürlich eher ein High-End-Chip, weshalb der Verdacht besteht, das NV diesen mit oben genannten in gewissen Preissegmenten ersetzen könnte.
die spannung wurde kräftig angehoben ;)
(doppelte spannung -> 4facher Stromverbrauch)
->
erst ab 3,4 GHz wurde die spannung angehoben.
Könntest du dich vielleicht mal entscheiden?
BlackBirdSR
2007-11-08, 12:58:45
->
Könntest du dich vielleicht mal entscheiden?
Und du etwas Anstand zeigen? Danke!
3.0 GHz bei 1.3125V Idle
3.3 GHz bei 1.46V Idle
Unter Last entsprechend niedriger, wie gehabt.
Daher der große Unterschied. Aber es ging ja nur um die Dual-Cores, und hier wurde die Spannung ganz anders angehoben. Ist ja auch logisch, oder?
Und du etwas Anstand zeigen? Danke!
Wie bitte?
3.0 GHz bei 1.3125V Idle
3.3 GHz bei 1.46V Idle
Woher diese Werte? Aus Henroldus Posting jedenfalls nicht.
Aber es ging ja nur um die Dual-Cores, und hier wurde die Spannung ganz anders angehoben. Ist ja auch logisch, oder?
Und nochmal: Quelle?
BlackBirdSR
2007-11-08, 13:14:56
Wie bitte?
Woher diese Werte? Aus Henroldus Posting jedenfalls nicht.
Und nochmal: Quelle?
Such dir die Quelle, wie ich es auch getan habe. Ist alles da, wenn du dich etwas anstrengst. Das Posting enthielt alle relevanten Informationen zum Dual-Core. Die Frage nach dem Quad-Core wurde ebenfalls korrekt damit beantwortet, dass die Spannung angehoben wurde. Ich kann das bestätigen, und habe dir die Werte sogar extra gepostet.
Wenn du es nicht glaubst, such selbst.
AnarchX
2007-11-08, 13:27:44
http://img138.imageshack.us/img138/319/200711086962539c7b5c082zr7.jpg
http://img138.imageshack.us/img138/7735/2007110895ffb0e879d3d45pf2.jpg
http://img138.imageshack.us/img138/3694/200711084e93dbc4c9c7063eg1.jpg
http://img138.imageshack.us/img138/8605/200711086aa960ab9b89d89vm0.jpg
http://img138.imageshack.us/img138/4142/20071108659bf709ae85149vf4.jpg
http://img138.imageshack.us/img138/4451/200711086e66297927c109bgn2.jpg
http://img138.imageshack.us/img138/2912/200711086ce59cee982e351xl8.jpg
http://img261.imageshack.us/img261/8409/82na8.jpg
http://img264.imageshack.us/img264/8317/19513399pr7.jpg
http://img209.imageshack.us/img209/5046/10us8.jpg
Henroldus
2007-11-08, 13:38:00
->
Könntest du dich vielleicht mal entscheiden?
in der Quelle nachschauen herr gast.
beim Quadcore musste die spannung bereits früher angehoben werden!
@AnarchX
sieht alles sehr gut aus auch wenn die Balken wieder geschönt sind(beginnen bei 0,8 X-D )
interessantester Punkt ist nach wie vor die AA-Performance.
HD3870 Core Clockspeed: 775+ MHz? :|
Bot@work
2007-11-08, 13:54:32
Die Diagramme sollte man ja schon von diversen Herstellern gewohnt sein...
dildo4u
2007-11-08, 14:00:15
Laut dem 3Dmark Diagramm ist die 3870 höstens 5% schneller als die 2900XT und die Folie kommt von AMD selber.
AnarchX
2007-11-08, 14:03:02
Laut dem 3Dmark Diagramm ist die 3870 höstens 5% schneller als die 2900XT und die Folie kommt von AMD selber.
Naja, in den Default-Settings würde ich auch nichts anderes erwarten.
Interessant wird es beim Einsatz von MSAA.
dildo4u
2007-11-08, 14:04:34
Naja, in den Default-Settings würde ich auch nichts anderes erwarten.
Interessant wird es beim Einsatz von MSAA.
Warum sollte man dann sowas für eine Marketing Folie verwenden wenn der Balken kaum länger wird bei den restlichen Diagrammen waren sie ja auch sher "kreativ".
Warum sollte man dann sowas für eine Marketing Folie verwenden wenn der Balken kaum länger wird bei den restlichen Diagrammen waren sie ja auch sher "kreativ".
Der Sturm.....
Wunder - oh Wunder: die 3870 sieht aus wie die 2900... Flunder :biggrin:
seahawk
2007-11-08, 14:17:30
Laut dem 3Dmark Diagramm ist die 3870 höstens 5% schneller als die 2900XT und die Folie kommt von AMD selber.
Sie sagen ja so schnell wie X2900 per clock. 35 mhz mehr Takt sind 4,5% mehr.
w0mbat
2007-11-08, 14:27:08
Efficient use of bandwidth
Hier schreiben sie wieder etwas über die Leistung trotz reduziertem SI.
Wie denkt ihr über das "gute scalieren"?
Immerhin werden zwei "Fuffziger" für viele bezahlbar :wink:
Such dir die Quelle, wie ich es auch getan habe. Ist alles da, wenn du dich etwas anstrengst. Das Posting enthielt alle relevanten Informationen zum Dual-Core. Die Frage nach dem Quad-Core wurde ebenfalls korrekt damit beantwortet, dass die Spannung angehoben wurde. Ich kann das bestätigen, und habe dir die Werte sogar extra gepostet.
Wenn du es nicht glaubst, such selbst.
Hätte Henroldus nur die Werte des DualCore gepostet, dann wäre es hier nicht zum Missverständnis gekommen. Du kannst nicht von den Lesern des Threads verlangen selbst nach der Quelle zu suchen.
Henroldus
2007-11-08, 14:43:16
Hätte Henroldus nur die Werte des DualCore gepostet, dann wäre es hier nicht zum Missverständnis gekommen. Du kannst nicht von den Lesern des Threads verlangen selbst nach der Quelle zu suchen.
ist doch jetzt egal und OT, ausserdem waren beide Werte in einem Bild bei THG(und ich war zu faul, es zurechtzuschneiden)
Reunion hat doch schon alles korrigiert
Wie denkt ihr über das "gute scalieren"?
Immerhin werden zwei "Fuffziger" für viele bezahlbar :wink:
immerhin das 1,6fache mit CFX in GPU limitierender Auflösung, ist SLI da besser?
AnarchX
2007-11-08, 14:45:44
Wie denkt ihr über das "gute scalieren"?
Immerhin werden zwei "Fuffziger" für viele bezahlbar :wink:
Für AFR ist die hier gezeigte Skalierung eigentlich ziemlich mies, wird aber wohl darin liegen, dass in diesen Settings die 512MB zu wenig sind.
laser114
2007-11-08, 16:16:20
Kommt der RV670 wirklich mit double-precision floating point technology?
http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543~121775,00.html
750+ Mhz könnte auf "OC ab Werk" - Versionen hindeuten.
Interessant wirds wahrlich erst mit AA. 3D Murks sagt ja bekannterweise eher weniger aus.
Ansonsten siehts ja wie erwartet aus.
GeneralHanno
2007-11-08, 16:38:09
der schwerpunkt der präsentation liegt ja auch nicht auf der so tollen performence (etwas 2900), sondern auf stromverbrauch, features (DX10.1 , UVD) und preis/leistung.
bleibt nur noch zu hoffen, dass die AA-performence noch gesteigert werden konnte !
AnarchX
2007-11-08, 16:43:20
Kommt der RV670 wirklich mit double-precision floating point technology?
http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543~121775,00.html
War doch schon länger angekündigt.
Aber natürlich nicht in einem Takt bzw. durchgängig in der Architektur.
reunion
2007-11-08, 17:07:12
R680 soll im Januar, bei der CES kommen:
http://www.xbitlabs.com/news/video/display/20071108071020_AMD_Considers_New_High_End_Graphics_Product_Announcement_at_CES_S ources.html
Sie sagen ja so schnell wie X2900 per clock. 35 mhz mehr Takt sind 4,5% mehr.
Wo steht das?
laser114
2007-11-08, 18:04:48
Da:
http://img138.imageshack.us/img138/7735/2007110895ffb0e879d3d45pf2.jpg
GeneralHanno
2007-11-08, 18:05:11
equivalent heißt gleiche ;)
€dit: da war einer ne sekunde schneller *grafik wieder entfern*
reunion
2007-11-08, 18:10:29
Äquivalent heißt vergleichbare, nicht gleiche. Das kann also alles oder nichts bedeuten.
StefanV
2007-11-08, 18:10:50
Nein, es heißt nicht gleiche es heißt vergleichbare.
Vergleichbar, tolle Wurst. D.h. wieder nur 2xAA gratis und dann gehts in den Keller... Was ist überhaupt neu am Chip? Einfach geshrinkt und 2 Tapeouts später wäre das hier (RV670) ein R600 gewesen wie er hätte sein sollen?
Adam D.
2007-11-08, 18:20:08
Vergleichbar, tolle Wurst. D.h. wieder nur 2xAA gratis und dann gehts in den Keller... Was ist überhaupt neu am Chip? Einfach geshrinkt und 2 Tapeouts später wäre das hier (RV670) ein R600 gewesen wie er hätte sein sollen?
So in etwa, ja. Und dadurch die Möglichkeit einer X2 halt ...
Nakai
2007-11-08, 18:23:40
Und deutlich kleiner, weniger Transis und etwas schnellere Performance.
(Naja das werden wir noch sehen)
mfg Nakai
seahawk
2007-11-08, 19:06:08
Vergleichabr dürfte bei so einem Werbepapier sicher nicht besser bedeuten. Bestenfalls gleich, eher etwas schlechter
afaik gehts da um die Speicherperformance....
In der Tat - das was man bisher sah ist recht ernüchternd. Letztendlich kann man erst nach den ersten richtigen Benchmarks sagen wie die Sache aussieht. Dieses 775+MHz GPU-Takt lässt ja zumindest hoffen, dass es OC-Modelle geben wird. Wenn die dann 825MHz erreichen würde hätte die Karte gut 10% mehr Leistung als die 2900 XT. Selbst damit die 8800GT aber in Performance-Hinsicht wohl nicht zu knacken. Schade.
afaik gehts da um die Speicherperformance....
So lese ich das auch.
Wobei AMD/ATI damit indirekt eingesteht, daß die 512Bit beim R600 nix taugten.
horn 12
2007-11-08, 19:28:11
Also mein Gedanke:
Von einer HD 2900XT auf die 3870 zu wechseln halte ich für Unsinnig, da man die 2900XT unter 2D recht leise bekommt/ bereits ist wenn das Auf,-und Abdrehen mal endlich gefixt würde, und der Stromverbrauch auch sehr gut ist mit weniger Clock, sprich 200/200 bis 300/300.
Bleibt einzig noch die DX10.1 und die vielleicht!! etwas bessere AF Qualität und VIELLEICHT !! etwas ausgefeiltere AA Performance.
Aber warum wechslen?:
Für Crysis und Co wird wenn einem schon die GTS / 2900XT / GT zu langsam ist auch die 3870 nicht reichen, auch mit dem D3D10.1 Freature nicht!!
Vor allem mit 4fach AA und 16AF muss man wohl zumindest sicher auf die
X2-3870 warten, wenn nicht gar auf den R700.
Ich werde meiner 2900XT treu bleiben und hoffen das das 2D Problem beseitigt wurde (Hoch,- Runterdrehen des Lüfters) und der CAT 7.11 Crysis ordentlich Beine macht unter 3D310 mit Vista 32/64 Bit.
C4rn!vor
2007-11-08, 20:06:50
Moin, sagt mal gibt es eigentlich inzwischen irgendwo richtige benchmarks von der 2900GT?
Ich mein nicht diesen ominösen firingsquad test der bereits über 2 wochen vor release der Karte erschien. Aber nun haben die Online-Händler die Ampel auf grün gestellt und dann dachte ich dass die doch irgendjemand mal getestet haben muss, bzw ergebenisse online gestellt....
Interessiert mich echt hart aber bei google findet man (ich) nichts :-(
so far...
[MK2]Mythos
2007-11-08, 20:06:53
@horn12
Ich bezweifle auch einfach mal ganz dreist das ATi die ehemaligen Käufer der HD2900 Serie ansprechen möchte.
Viel mehr sollen die Leute zum Kauf animiert werden, die die HD2900 auf Grund der bekannten Nachteile bisher einfach nicht haben wollten.
afaik gehts da um die Speicherperformance....
Genau. :)
Da ist kein Wort über die eigentliche Performance, wobei ich keine Verbesserungen erwarte (insbesondere beim AA).
PCGH_Carsten
2007-11-08, 22:15:57
Equivalent heißt gleichwertig – nichts anderes.
-/\-CruNcher-/\-
2007-11-08, 22:35:30
AMD/ATI wird sich hier aber bei vielen ins bein geschossen haben, weil wenn es wirklich stimmt dann kommt die HD3870 in mini Stückzahlen (ala 8800 GT Launch) (und die AIB Boards mal wieder später, wobei Hersteller schon vorab Boards (HD3850) gezeigt haben, das war bei Nvidias 8800 GT nicht der fall und lässt hoffen) und bis dahin gibts bei den AIBs schon die ganzen neuen 3P Boards der 8800 GT tauchen schon überall in den Retailer listen auf und sind billiger (10€).
Damit kommt man dann sicher 700+ da brauch man dann bei der HD3870 ca 890mhz um das zu erreichen und man weiss nur das ATI sie mal bis zu 825MHz ATI = 600MHz Nvidia ? geplannt hatte da scheint der Overclocking buffer schon mit drin zu sein siehe 775+ sprich 135 TDP (aber ergeben +50MHz einen 30W anstieg ? wenn +100MHz bei Nvidia 10W ergeben und ATIs weniger W schluckt dann sind da doch noch massig Reserven nach oben). Bei Nvidia weiss man das die meisten Chips bis 850mhz gehen mit den AIB Boards werden also sicher 750+ drin sein (Also das Referenz PCB von ATI (HD3870) wird die AIB 8800 GT boards sicher nicht erreichen können, oder vieleicht doch ich meine die R600 pro geht von 600 bis 800 das sind + 200MHz, wenn die HD3870XT sich so verhält wären das 775 +
+200MHz = 975MHz Max das kommt denk ich mal einer Verlustleistung von 135W Max näher als +50MHz = 8.7W ?).
Wie kann der Inquirer die Hd3850 mit der 8800 GT vergleichen das ist doch schwachsinn wenn man Glück (und nochmal in neuen Kühler investiert oder auf AIB karten wartet) hat kommt man auf den gleichen Speed aber hat keine Reserven mehr wie die 8800 GT
http://www.theinquirer.net/gb/inquirer/news/2007/11/08/hd3850-3870-finally-quiet
BTW...
Anhand der 2600xt hat www.expreview.com neulich mal sehr ausführlich CF getestet.
Ich halte das für sehr aufschlußreich, weil teilweise sehr erstaunliche Ergebnisse erscheinen, die logischerweise mit der preiswerten 3750 nur noch besser ausfallen dürfden :wink:
System
http://www.expreview.com/review/2007-11-02/1193980323d6746_5.html
Ergebnisse:
http://www.expreview.com/review/2007-11-02/1193980323d6746_6.html
http://www.expreview.com/review/2007-11-02/1193980323d6746_7.html
deekey777
2007-11-08, 23:20:23
Equivalent heißt gleichwertig – nichts anderes.
Genau das macht diese Aussage so interessant: äquivalente Performance per Clock -> Optimized Memory Controller.
Vielleicht erinnert sich jemand noch an diesen Test:
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
(immernoch keine englische Version ;()
StefanV
2007-11-08, 23:23:59
+120%?! :|
Wie soll das gehen?
-/\-CruNcher-/\-
2007-11-08, 23:27:40
Hat den schonmal jemand getestet wie es mit dem Adaptiven AA aussieht (Edge Detected), ich bin überzeugt das AMD/ATI eher ihr ganzes R&D in diese Richtung konzentrieren weil es effektiver ist (wenn es richtig funktioniert Catalyst 7.11 ?) als wie alle anderen AA Einstellungen :D
Palpatin
2007-11-08, 23:29:31
+120%?! :|
Wie soll das gehen?
A.I.
Werden wohl irgendwelche Treiberoptimierungen sein die da greifen wenn man CF verwendet und nicht greifen wenn man kein CF verwendet. Oder sie ham Mist gebaut beim benchen.
Genau das macht diese Aussage so interessant: äquivalente Performance per Clock -> Optimized Memory Controller.
Vielleicht erinnert sich jemand noch an diesen Test:
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
(immernoch keine englische Version ;()
Der Sinn erschließt sich doch erstaunlich gut:
online-Englification: :wink:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.3dnews.ru%2Fvideo%2F512_bit_memory_bus_efficiency%2 F&langpair=ru%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Bokill
2007-11-08, 23:52:13
Also mein Gedanke:
Von einer HD 2900XT auf die 3870 zu wechseln halte ich für Unsinnig, da man die 2900XT unter 2D recht leise bekommt/ bereits ist wenn das Auf,-und Abdrehen mal endlich gefixt würde, und der Stromverbrauch auch sehr gut ist mit weniger Clock, sprich 200/200 bis 300/300.
Bleibt einzig noch die DX10.1 ... Hast du einen Hitzeschock bekommen, geht dir eiskalte Kola aus am PC?
Die R600 ist das derbste heisseste Stück an GPU-Technik, was mir jemals bislang meine Haare trockenfönte und meine Fingerkuppen verbrannte ... das einzigste was an der R600 gut ist, ist sein Nachfolger RV670.
Alleine wegen der Bauform und etwas geringerem Strombedarf "lohnen" sich die RV670-Karten. Nimmt man noch die HD-Video-Beschleunigung und PCI-Express 2.0 dazu, dann sind das auch Argumente für R600-Nutzer.
MFG Bobo(2007)
-/\-CruNcher-/\-
2007-11-09, 00:25:07
Hast du einen Hitzeschock bekommen, geht dir eiskalte Kola aus am PC?
"Die R600 ist das derbste heisseste Stück an GPU-Technik, was mir jemals bislang meine Haare trockenfönte und meine Fingerkuppen verbrannte ... das einzigste was an der R600 gut ist, ist sein Nachfolger RV670."
MFG Bobo(2007)
;D;D;D;D;D:up::up: ne wahre :popcorn: Maschine
Hast du einen Hitzeschock bekommen, geht dir eiskalte Kola aus am PC?
Die R600 ist das derbste heisseste Stück an GPU-Technik, was mir jemals bislang meine Haare trockenfönte und meine Fingerkuppen verbrannte ... das einzigste was an der R600 gut ist, ist sein Nachfolger RV670.
Alleine wegen der Bauform und etwas geringerem Strombedarf "lohnen" sich die RV670-Karten. Nimmt man noch die HD-Video-Beschleunigung und PCI-Express 2.0 dazu, dann sind das auch Argumente für R600-Nutzer.
MFG Bobo(2007)
Immer diese klisches.Die X2900 ist um längen leiser als eine X1900...Die Karte bleibt auch kühler....
Nimmt man noch die HD-Video-Beschleunigung und PCI-Express 2.0 dazu, dann sind das auch Argumente für R600-Nutzer.
MFG Bobo(2007)
PCI 2.0 lohnt sich ja mal richtg..lol und im Gamer PC interessiert keine HD Video Besch. dafür hat man ein Wohnzimmer PC mit Passiv Graka (2600er). Im übrigen gehen HD Videos auch mit der 2900XT.
sklave_gottes
2007-11-09, 01:37:47
Hast du einen Hitzeschock bekommen, geht dir eiskalte Kola aus am PC?
Die R600 ist das derbste heisseste Stück an GPU-Technik, was mir jemals bislang meine Haare trockenfönte und meine Fingerkuppen verbrannte ... das einzigste was an der R600 gut ist, ist sein Nachfolger RV670.
Alleine wegen der Bauform und etwas geringerem Strombedarf "lohnen" sich die RV670-Karten. Nimmt man noch die HD-Video-Beschleunigung und PCI-Express 2.0 dazu, dann sind das auch Argumente für R600-Nutzer.
MFG Bobo(2007)
Was ist mit den ATI FireGL Karten die auf R600 Basieren ?:cool: Oder Spieler die die Ganze Zeit Bioshock imDX9 Modus Spielen? :tongue:
Nee mal im Ernst so übel war die Karte Zeitweise für Knapp über 300€ auch wieder nicht. Ob der RV670 besser darsteht liegt nicht nur am chip(AMD) selber. Sondern auch an seiner Konkurenz.(Nvidia)
Noch 6 Tage...
StefanV
2007-11-09, 01:40:13
PCI 2.0 lohnt sich ja mal richtg..lol und im Gamer PC interessiert keine HD Video Besch. dafür hat man ein Wohnzimmer PC mit Passiv Graka (2600er). Im übrigen gehen HD Videos auch mit der 2900XT.
Noch nicht aber wenn die Karte nicht mehr zum gamen taugt, dann schon, hält nämlicz den Preis etwas weiter oben.
Ailuros
2007-11-09, 05:49:15
Du weisst ja nicht auf was er es bezieht die HD3850 ist ganz klar unter der GT aber die HD3870 scheint ebenwürdig der GT gegenüber (im Catalyst wurden auch noch keine HVS Optimierungen bei Crysis gefunden) und nun darf man auch nicht den ganzen Mehrwert vergessen der verglichen mit der GT daherkommt wie er schon sagt (DX10.1 PShader 4.1 Marketing blabla wie damals bei Nvidia) volle VC-1 Bitstream Beschleunigung, Powerplay und Dual-Slot Kühler das ist alles Mehrwert, das einzige davon was man sich zu kaufen kann als GT user ist die bessere Kühlung dann verliert man bei den meisten Herstellern aber die Garantie (bei den Referenzkarten noch entscheidend bei den AIB Karten nicht mehr von Bedeutung kommen alle mit besserer Kühlung) Die Frage ist allerdings ob man mit den wahrscheinlich machbaren 50mhz mit den Referenz HD3870 auf die Geschwindigkeit einer 700mhz getakteten GT kommt das ist die Frage ;) aber die Stock GT Geschwindigkeit sollte man ereichen können und wenn ATI dann noch kräftig den Preis drückt dann haben wir hier 50€ unterschied am Ende für die gleiche Leistung beim Referenzdesign.
Bei den AIB Karten wird es schon anders aussehen da wird der Mehrwert bessere Kühlung wechfallen für die HD3870.
Du kannst glauben was Du willst, ob ich weiss auf was er sich genau bezieht. Fuer den Rest stimme ich auf ein paar Punkten zwar oben zu, aber fuer das korrekte insgesamte Bild wuerde ich an Deiner Stelle die ersten zuverlaessigen unabhaengige Resultate abwarten.
Ganz kurz: es gibt afaik keinen Crysis-Skandal und hoffentlich werden zukuenftige Tests etwas weiter in die Tiefe gehen was diverse Optimierungen betrifft, dann wird man wohl schon sehen koennen wer und wo genau mehr optimiert.
Ailuros
2007-11-09, 05:58:59
Selbst mit 6 Cluster wäre man noch wesentlich schneller als eine 8800GTS. Und hätte dabei noch einen geringeren Stromverbrauch.
Es ist für mich aber unbegreifbar, warum nVidia wirklich den G92 bei mindesten 8 Cluster belassen hat. Ein G92 mit nativen 6 Cluster und hohen Taktraten (z.B 700/2000/1000) und4 ROP-Partitionen wäre nicht nur wesentlich kleiner sondern auch noch stromsparender.
Die Antwort auf Deine Frage ist Flexibilitaet fuer mehr als nur einen Markt. Man baut tatsaechlich kein >750M Monster um nur das Performance-Segment abzudecken.
Ich bin mir fast sicher dass es Experimente gegeben hat wo man tatsaechlich versucht hat die SPs auf =/>2.4GHz hochzujagen. Falls sie am Ende mit einer GX2 in 2008 ankommen dann hat jemand sehr stark auf die Bremse getreten bei NVIDIA und die Gruende werden wir wohl erst mit der Zeit herausfinden.
-/\-CruNcher-/\-
2007-11-09, 06:16:45
http://www.hwbot.org/cewolf/?img=369832876&width=600&height=300&iehack=.pnghttp://www.hwbot.org/cewolf/?img=2122467805&width=600&height=300&iehack=.pnghttp://www.hwbot.org/cewolf/?img=-1704872141&width=600&height=300&iehack=.png
Wenn man sieht was Nvidia hier geschaft hat nicht schlecht aber ich bin überzeugt AMD/ATI werden das selbe auch mit ihrem Refresh zeigen (aber es ist noch zu früh zu wenige Daten bzw keine)
@Ailuros
Ganz kurz: es gibt afaik keinen Crysis-Skandal und hoffentlich werden zukuenftige Tests etwas weiter in die Tiefe gehen was diverse Optimierungen betrifft, dann wird man wohl schon sehen koennen wer und wo genau mehr optimiert.
Und wieso äussert sich Nvidia dann nie zu solchen Anschuldigungen ?
http://forum.beyond3d.com/showthread.php?t=45019&page=7 <- Das ist sehr gut es beschreibt die Lage sehr genau, ein Reviewer muss auf sowas aufmerksam werden, tut er es nicht ist das fahrlässig und es zeigt das die Jungs und Mädels von Elitebastard auf ein bischen mehr achten wie andere (genauso die Jungs und Mädels bei HardOCP)
Das ist auch gut so bessonders vor dem Start eines Konkurenzproduktes und bei Crysis wo für die so gennanten Enthusiasten nicht der Preis zählt sondern die Framerate und 10% sind nunmal erheblich das kann gut +2 fps oder sogar mehr ergeben wenn du überlegst das +100MHz +6 fps darstellen dann ist diese HVS Optimierung (oder Bug) gleichzusetzen mit +3x MHz auf Nvidias seite.
Wen diese Optimierung nicht auffallen würde wäre sie ja nützlich und gut umgesetzt (auch kein Bug) aber sie tut nunmal auffallen und somit sollte klar sein das der 169.04 bei Crysis nicht gegen die HD3870 (bei der HD3850 ist es aber hose wie jacke selbst +10 fps seitens Nvidia würden sie nicht besser darstehen lassen in Reviews) eingesetzt werden sollte, wer dies doch tut sollte darauf hinweisen was es am Endresultat geändert hat (am Besten gleich alle Executables umbennen bevor man bencht, so das keine Spiel spezifischen Optimierungen erst eingesetzt werden).
seahawk
2007-11-09, 08:00:19
Naja, 1GHz sollten RV670 locker schaffen. ATI hat sicher einiges an Spielraum eingebaut.
AnarchX
2007-11-09, 08:05:41
Naja, 1GHz sollten RV670 locker schaffen. ATI hat sicher einiges an Spielraum eingebaut.
:lol:
Wenn es diesen Spielraum gäbe, würde man ihn ausnutzen.
Aber im Endeffekt werden die ~800MHz das Maximum für Serienfertigung sein, wie auch schon R430 und RV570 nahe am Limit liefen.
=Floi=
2007-11-09, 08:09:21
hey jungs, der takt ist nicht so wichtig
:lol:
Wenn es diesen Spielraum gäbe, würde man ihn ausnutzen.
Aber im Endeffekt werden die ~800MHz das Maximum für Serienfertigung sein, wie auch schon R430 und RV570 nahe am Limit liefen.
Selbst ein R600 schafft fast immer zwischen 850-900Mhz mit Standardkühler. Ja selbst die PROs kommen in ähnliche Regionen.
AnarchX
2007-11-09, 08:23:14
Selbst ein R600 schafft fast immer zwischen 850-900Mhz mit Standardkühler. Ja selbst die PROs kommen in ähnliche Regionen.
R580 und R420/480 ließen sich auch besser übertakten als ihre Performance-Shrinks...
Man sollte nicht den Fehler machen von High-End-GPUs auf Performance-GPUs zu schliessen, letzere verwenden nunmal eher Prozesse, die auf einen niedrigen Verbrauch und eine hohe Ausbeute ausgerichtet sind, als absolute Höchsttakte(wie z.B. bei R600 80 High-Speed).
Zusätzlich kommen eben auch noch die Einsparungen an PCB dazu, die für das entsprechende Marktsegment mit seinen Preisen gemacht werden müssen, die sich wiederrum auf Übertaktung negativ auswirken.
seahawk
2007-11-09, 08:24:15
Genau das macht diese Aussage so interessant: äquivalente Performance per Clock -> Optimized Memory Controller.
Vielleicht erinnert sich jemand noch an diesen Test:
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
(immernoch keine englische Version ;()
Naja, eigentlich heißt es nur, dass RV670 per Clock durch den "Optimized Memeory controller" nicht schlechter abschneidet als R600. Bösartig ist allerdings die Frage ob dies für den Nomralfall gilt, oder für R600 @ 600Mhz DDR. :biggrin:
AMD IS TELLING its graphics card-flogging partners that they should focus on the GDDR3 part - the $150 HD3850 - while GDDR4 part - the dual-slot 3870 - should be used "to complete the offering".
So it seems AMD is going to mostly focus on the 3850, the part that is going to succeed the 2600XT in that price bracket, and is set to absolutely dominate the Geforce 8600GTS and its own previous $150 part, the Radeon 2600XT.
[...]
But regardless of what AMD is saying to its partners, and what they should say to the end consumer, the fact of the matter is that both parts are really aggressively priced, compete and destroying price/performance ratio of both 8600GTS and 8800GT.
Second wave of cards will include 3850 AGP with 256 and 512MB GDDR3 memory, 3850 with 512MB memory and 3870 with 1GB of GDDR4 memory. Those boards are expected to hit the market just in time for Xmas.
http://www.theinquirer.net/gb/inquirer/news/2007/11/08/amd-tells-partners-focus-3850
seahawk
2007-11-09, 08:46:50
Ja, preis-/leistungsmäßig liegt ATI deutlich vorne.
Bokill
2007-11-09, 09:05:12
PCI 2.0 lohnt sich ja mal richtg..lol und im Gamer PC interessiert keine HD Video Besch. dafür hat man ein Wohnzimmer PC mit Passiv Graka (2600er). Im übrigen gehen HD Videos auch mit der 2900XT. Ja ... wenn dein Hauptprozessor die Hauptarbeit macht. :tongue:
Und es ging um den Zusatznutzen, und das ist nun mal auch die HD-Beschleunigung, die nun auch dem RV670 Kern spendiert wurde.
Dass die RV670 vermutlich deutlich weniger Strom benötigt und nun AMD/ATI auch aktive Stromspartechniken vom Mobilsektor nun bewerben, sollte einen R600 Nutzer nachdenklich stimmen ... und heile Fingerkuppen sind auch auch was schönes. :D
MFG Bobo(2007)
Marty98
2007-11-09, 09:10:21
http://forum.beyond3d.com/showpost.php?p=1089187&postcount=1104
AnarchX
2007-11-09, 09:12:45
CHH has seen the R680 card sample already. According to them, the card is very long as there are 2 GPUs on a PCB. Cooler looks like 2900XT but the fins are separated into 2 parts. We should see them by next year Chinese new year.
Also wohl doch kein Dual-Die-Package?
Argoth
2007-11-09, 09:33:50
Also wohl doch kein Dual-Die-Package?
Eben doch!
there are 2 GPUs on a PCB
2 GPUs = 2 Die's
PCB = Printboard (also die "Karte" wo alles darauf montiert ist und mit den Leiterbahnen drin)
AnarchX
2007-11-09, 09:39:33
Ich sprach aber von einem Package und nicht von einem PCB...
Ich sprach aber von einem Package und nicht von einem PCB...
Zwei Dice in einem Package (also wie beim Core2 Quad) scheint damit unwahrscheinlich. So wie es aussieht, werden wir wohl eine Dual-Karte bekannter Bauart sehen.
According to some early testers of the 3850 and 3870, users encounter random freezes of the screen or no boot. This seems only to happen on the Intel P35 chipset and not on the X38 chipset.
Another observation is that such problem only arise when the FSB is raised beyond 1066. The early tester tested one on MSI P35 board and tells us that the issue is very apparent. Sometimes, the driver can't be recognised and the system will not allow you to reinstall the catalyst driver.
Quelle (http://my.ocworkbench.com/bbs/showthread.php?p=423019#post423019)
Das wäre echt bitter :usad:
Adam D. @ work
Superheld
2007-11-09, 10:20:02
lol ;D
AnarchX
2007-11-09, 10:20:29
Peformance-Folien zur HD3800-Serie
http://img248.imageshack.us/img248/111/200711093f769dcf29d7443uz5.jpg
http://img250.imageshack.us/img250/590/2007110986a9d366b1782d1yd0.jpg
http://img117.imageshack.us/img117/7702/200711090308649de6f07e0ww4.jpg
http://img206.imageshack.us/img206/3317/20071109d00c1c11f60eb18en5.jpg
http://img261.imageshack.us/img261/7913/20071109ef3ac2bfcdf0698ju5.jpg
http://img267.imageshack.us/img267/1171/20071109b48982eb13b196cfm2.jpg
http://img117.imageshack.us/img117/9780/2007110999fa836fab86847ss7.jpg
http://img149.imageshack.us/img149/1605/20071109031b4f3d8d052afdm0.jpg
http://img337.imageshack.us/img337/3199/20071109dc51f84056c2b62yt5.jpg
http://img146.imageshack.us/img146/7236/200711099b6a39cf5a23871wv3.jpg
AnarchX
2007-11-09, 10:21:09
http://img214.imageshack.us/img214/4201/20071109d26ad3dddf7e00fux7.jpg
http://img210.imageshack.us/img210/5908/20071109cb4b5708aedf5adqh1.jpg
http://img204.imageshack.us/img204/6585/200711096cb5ec8caddd6aepz4.jpg
http://img148.imageshack.us/img148/6932/200711094eab719d5ee22d6aa2.jpg
LoL, Balkenlänge und effektiver Performance-Mehrwert stehen mal wieder in einem absoluten passendem Verhältnis :ulol:
Ist wohl wie zu erwarten war. Toll sind die deutlichen Steigerungen in UT3 :top:
Adam D. @ work
AnarchX
2007-11-09, 10:26:16
Da scheint wohl die niedrigere Bandbreite doch etwas zu kosten oder ist es das bessere AF?
Da scheint wohl die niedrigere Bandbreite doch etwas zu kosten oder ist es das bessere AF?
Rohleistung gleich oder höher, sobald AA&AF dazu kommen, leichter Rückstand. Kann man wohl damit bestätigen :D
Superheld
2007-11-09, 10:29:48
das letzte Bild mit 4xAA 8xAF ist hoffentlich nur ein Messfehler:tongue:
seahawk
2007-11-09, 10:38:36
Auf den eigenen Marketingfolien ? Wohl kaum.
Das die HD3850 eine 2600XT/8600GTS klar schlägt, war abzusehen. In ihrem Preissegment ist sie absolut konkurrenzlos. Interessieren würde mich, warum die 3850 in UT3 selbst eine 2900XT schlägt - da muss doch etwas stark verbessert worden sein. Bei den AA/AF-Benchs bleibt die Frage, ob die Bildqualität vergleichbar ist, da AMD explizit von höherer AF-Qualität sprach.
reunion
Henroldus
2007-11-09, 10:43:52
die 3850 mit ner 8600GTS zu vergleichen ist ja wohl ein Armutszeugnis :( ne
und ob die 3870 sich im AA Bereich gegenüber der 2900XT verbessert hat wissen wir immer noch nicht.
weiter auf unabhängige reviews warten...
im 3. Bild steht COSSFIRE ;D
LoL, Balkenlänge und effektiver Performance-Mehrwert stehen mal wieder in einem absoluten passendem Verhältnis :ulol:
Adam D. @ work
Bis auf die aller letzte Folie steht die Balkenlänge - soweit ich das sehen konnte - in einem absolut korrektem Verhältnis zur Leistung.
reunion
die 3850 mit ner 8600GTS zu vergleichen ist ja wohl ein Armutszeugnis :( ne
Gegen was soll man sie sonst stellen? nV hat schlicht nichts in diesem Preisbereich, die 8600GTS kommt dem am nächsten, wird aber wohl bald deutlich im Preis fallen.
reunion
Henroldus
2007-11-09, 10:50:05
Gegen was soll man sie sonst stellen? nV hat schlicht nichts in diesem Preisbereich, die 8600GTS kommt dem am nächsten, wird aber wohl bald deutlich im Preis fallen.
reunion
ja es gibt noch nix, aber ne GTS kostet nunmal deutlich weniger(als die zu erwartenden 150€)
eine 8800GS ist ja bisher auch nur ein Gerücht..
ja es gibt noch nix, aber ne GTS kostet nunmal deutlich weniger(als die zu erwartenden 150€)
eine 8800GS ist ja bisher auch nur ein Gerücht..
Deswegen hat man ja auch eine teurere OC-Version genommen. :D
Quelle (http://my.ocworkbench.com/bbs/showthread.php?p=423019#post423019)
Das wäre echt bitter :usad:
Adam D. @ work
tja, selber Schuld wer Schrott MSi Kauft xD
Micro Shit International
Die sollen lieber anständige Hardware nehmen nicht son PCB Abfall wie MSI :D
Es ist fraglich, ob das nur an MSI liegt. Ich wage es übrigens stark zu bezweifeln.
Adam D. @ work
-/\-CruNcher-/\-
2007-11-09, 11:40:27
Auf dem letzten slide sieht man die schon vorausgesagten 10% (bei UT3 und WIC ja sogar 20%) aber sehr ergibig ist das alles nicht wirklich, was man sieht.
AnarchX
2007-11-09, 11:43:37
http://img214.imageshack.us/img214/3201/rv67061db88e1cxs0.jpg
http://img261.imageshack.us/img261/1139/rv67051db8a732bn6.jpg
sklave_gottes
2007-11-09, 11:57:14
Ich muss hier nochmal an der stelle sagen das ich es mit den neuen Namen sehr gut finde.
Ich mochte diese Kürzel am ende noch nie. Ich meine wer als leihe soll da noch durchblicken, ob pro XT XL oder was auch immer besser ist. siehe GT GTS GTX.
Ich meine ob 50 oder 70 besser ist sollte wohl jeder hinkriegen. NICE
Ich finde aus den 3dmark werten sieht man das die HD 3850 anscheinent mit aa/af weniger bunkte verliert als eine HD2900XT. Klar bei unterschiedlichen systemen
Also etwas wurde verändert. Vieleicht funkrioniert es jetzt mit den ROPs das 2xaa for free ist.
LovesuckZ
2007-11-09, 12:28:45
Die 3870 gegen 2900XT Folien sind ja mal ein Rotz. Das passt das Verhältnis von Angabe und Balkenlänge in keinsterweise mehr zusammen.
Bei nahe einanderliegenden Ergebnissen macht die Skalierung eines Diagramms schon Sinn, aber hier hat es AMD doch etwas übertrieben.
Gortha
2007-11-09, 12:43:20
Etwas!? LoL ;D
Also die 38XX Serie hat genauso Null Chance gegen die 8800er wie die 2900er vorher.
Ati/AMD wird wohl noch ne ganze Zeit bluten müssen, bis sie vernünftige Performance
und High-End Karten draußen haben.
D.h. bis zum R700, wenn der dann was werden sollte...
seahawk
2007-11-09, 12:54:53
Naja für 150 Euro ist die 3850 schon schmackhaft und konkurrenzlos.
Hmm naja, für mich persönlich ist diese GraKa Generation von ATi "perfekt".
Dank des guten P/L Verhältnisses ist sie für mich optimal meine x1900GT in Rente zu schicken. Je nach dem wie sich die Preise einpendeln werde ich umsteigen - und da ich ein kleiner ATi Fanboy mit kleinem Geldbeutel bin, kommt eben die 88GT für mich nicht in Frage.
AnarchX
2007-11-09, 12:55:55
http://img155.imageshack.us/img155/6707/07dfaa869al7.jpg
300MHz GPU im Idle und GPU-Activity für PowerPlay.
Aha, 825/1200 sind Overdrive Einstellungen - was für'n Müll.
Und 66° mit einem Dual-Slot Kühler?
Gaestle
2007-11-09, 12:58:04
Ich vermute, am AA ist nix passiert. Sonst würden das die Folien schon ordentlich rausstellen. Ergo eine 2900XT+ein paar Features für relativ kleines Geld. Kein Kraut gegen die GT, man wird auf den Preisunterschied warten müssen.
-/\-CruNcher-/\-
2007-11-09, 13:01:54
Aha, 825/1200 sind Overdrive Einstellungen - was für'n Müll.
Und 66° mit einem Dual-Slot Kühler?
Das frag ich mich auch gerade im idle 66° naja ok bei 777MHz, aber die eigentliche Frage Bios oder nur Software restricted? auf 825MHz oh junge wenn das der Fall sein sollte auf Jedenfall zu wenig um gegen 700+ GTs anzukommen.
Ich denke AA wird überbewertet für Äktschn: genau wie Blur...
1920x1200 und FPS rulez!
Wer sich gerne Halflife-Städtetouren anguckt oder 3d-Briefmarkensammlungen: ok-ok :biggrin:
Gortha
2007-11-09, 13:11:06
Hmm naja, für mich persönlich ist diese GraKa Generation von ATi "perfekt".
Dank des guten P/L Verhältnisses ist sie für mich optimal meine x1900GT in Rente zu schicken. Je nach dem wie sich die Preise einpendeln werde ich umsteigen - und da ich ein kleiner ATi Fanboy mit kleinem Geldbeutel bin, kommt eben die 88GT für mich nicht in Frage.
Na, du bist wenigstens ehrlich.
Find ich gut.:up:
Ich bin da eher der reine Preis/Leistungs-Mensch.
-/\-CruNcher-/\-
2007-11-09, 13:13:09
Hmm naja, für mich persönlich ist diese GraKa Generation von ATi "perfekt".
Dank des guten P/L Verhältnisses ist sie für mich optimal meine x1900GT in Rente zu schicken. Je nach dem wie sich die Preise einpendeln werde ich umsteigen - und da ich ein kleiner ATi Fanboy mit kleinem Geldbeutel bin, kommt eben die 88GT für mich nicht in Frage.
Naja nur die GT Preise fallen momentan auch kontinuirlich und die 3 Phasen Karten werden sicherlich vor der HD3870 die Retailer erreichen und die sind auch noch billiger als zu Anfang die Referenz Karten. Also da muss die HD3870 aber schon sehr günstig werden.
Aha, 825/1200 sind Overdrive Einstellungen - was für'n Müll.
Und 66° mit einem Dual-Slot Kühler?
Vielleicht läuft die Karte in 2D komplett passiv? Bei nur 300Mhz CPU-Takt in 55nm würde mich das jedenfalls nicht wundern, und es würde auch die relativ hohen Temperaturen erklären.
reunion
Etwas!? LoL ;D
Also die 38XX Serie hat genauso Null Chance gegen die 8800er wie die 2900er vorher.
Ati/AMD wird wohl noch ne ganze Zeit bluten müssen, bis sie vernünftige Performance
und High-End Karten draußen haben.
D.h. bis zum R700, wenn der dann was werden sollte...
3870 X2 kommt im Januar.
300MHz GPU im Idle und GPU-Activity für PowerPlay.
Damit sollten endlich wieder akzeptabel idle-Werte möglich sein.
reunion
Gortha
2007-11-09, 13:25:20
3870 X2 kommt im Januar.
Einen DualG92 quasi ne 8800GTS-GX2 soll es dann aber auch geben...
Die wird auch wesentlich mehr power haben.
Was hat Ati eigentlich Leistungsmäßig & Preislich gegen die neue 8800GTS@G92 entgegenzusetzen?
Da fehlt komplett was.
-/\-CruNcher-/\-
2007-11-09, 13:33:03
Nice
http://godlike.cl/up/im/20/pplay.jpg
http://godlike.cl/up/im/20/pplay2.jpg
Da wird sich die Merkel aber freuen :D
Wäre die Leistung etwas besser, dann könnte ich echt schwach werden. Aber so bleibt die 3870 vielleicht trotzdem eine Versuchung, vorausgesetzt sie ordnet sich preislich unter der 8800gt ein.
http://www.madboxpc.com/contenido.php?id=5430
Hier sind Marketing PowerPoint Bilder der neuen Grafikkarte drin.
( einfach runterscrollen )
Neu war mir bisher, dass das Powerplay auch im 3d Mode funktionoiert. Dabei wird zwischen Intensive Gaming und Light Gaming unterschieden.
Wieso erwaehnen die dann nicht, dass es auch bei Aero klappt? Ist ja auch nichts anderes als "Light Gaming" :)
Nice
http://godlike.cl/up/im/20/pplay.jpg
http://godlike.cl/up/im/20/pplay2.jpg
Da wird sich die Merkel aber freuen :D
Respekt!
26 Watt Idle für ne HD3850 PRO, damit ist für mich die 8800 GT aus dem Rennen, da ich 80% meiner Zeit am PC auf den Desktop verbringe. Jetzt muss nur noch der Preis feststehen, weil eine Dual-Slot HD3870 für mein HTPC einfach besser geeignet ist. die hohem Temperaturen (LOL, 66Grad im Vergleich zu den fast 100 einer 8800GT..) könnten auf einen extrem leisen Kühler hin deuten.
Respekt!
26 Watt Idle für ne HD3850 PRO, damit ist für mich die 8800 GT aus dem Rennen, da ich 80% meiner Zeit am PC auf den Desktop verbringe. Jetzt muss nur noch der Preis feststehen, weil eine Dual-Slot HD3870 für mein HTPC einfach besser geeignet ist. die hohem Temperaturen (LOL, 66Grad im Vergleich zu den fast 100 einer 8800GT..) könnten auf einen extrem leisen Kühler hin deuten.
Vermutlich weit weniger, da das wohl TDP-Werte sind. Oder seit wann braucht eine 2900XT 200W real?
Respekt!
26 Watt Idle für ne HD3850 PRO, damit ist für mich die 8800 GT aus dem Rennen, da ich 80% meiner Zeit am PC auf den Desktop verbringe. Jetzt muss nur noch der Preis feststehen, weil eine Dual-Slot HD3870 für mein HTPC einfach besser geeignet ist. die hohem Temperaturen (LOL, 66Grad im Vergleich zu den fast 100 einer 8800GT..) könnten auf einen extrem leisen Kühler hin deuten.
Die 25 Watt sind IMO TDP Angabe, der reale Verbrauch sollte noch niedriger sein.
Schlammsau
2007-11-09, 14:49:13
am 14/15. November wird die neue Generation ja vorgestellt.....ab wann kann man eigentlich mit lieferbaren Karten rechnen? Die ganzen Preisvergleichsdienste zeigen noch nichts an.
Wundert mich, weil z.B. die 2900GT auch schon seit Monaten gelistet wird und jetzt erst lieferbar geworden ist!
HD 3870 X2:
http://images.vnu.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870/r680.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870
reunion
seahawk
2007-11-09, 15:00:07
Scheisse die ist so lang wie die 7900GX2, oder ?
Scheisse die ist so lang wie die 7900GX2, oder ?
Nein, full-size ist die sicher nicht. Die Karte ist kaum länger als eine 8800Ultra/GTX.
laser114
2007-11-09, 15:03:36
Ich würde so ~ 8800 GTX-Niveau-tippen. Das kann man dann auch relativ ohne Probleme bauen, weil dafür ja inzwischen viele Systeme ausgelegt sind.
Henroldus
2007-11-09, 15:08:56
Ich würde so ~ 8800 GTX-Niveau-tippen. Das kann man dann auch relativ ohne Probleme bauen, weil dafür ja inzwischen viele Systeme ausgelegt sind.
auch die vorhandenen? :|
bei mir würde eine GTX an den Festplattenkäfig anschlagen, zum glück sind die stromanschlüsse oben :)
mir gefällt diese Lösung aber besser als so ein doppel PCB ala GX2
laser114
2007-11-09, 15:14:24
auch die vorhandenen? :|
Naja, Einschränkungen gibts bei solchen langen Karten immer, aber deutlich kürzer geht wohl nicht. Also ist solche eine Länge doch noch eine gute Lösung - da ja, wie du selber sagst - sie auf einem PCB basiert.
Die_Allianz
2007-11-09, 16:07:17
Bin ich der einzige, der nicht gewillt ist, solche doppel-GPU/doppel-PCB-Lösungen zu akzeptieren, nur weil der hersteller keinen schnellen Single-chip zustande bringt?
Wer kauft sowas?
Diese runde wurde ich mal wieder sehr enttäuscht, was die Produkte von ATi angeht.
Wer kauft sowas?
Mir ist egal wie die Leistung zustande kommt, so lange sie zustande kommt. Mehrere GPUs auf einer Platine sind nicht schlecht, wenn gut umgesetzt. Theoretisch führt uns dieser Weg zu mehr Leistung bei weniger Verbrauch, denn man muss die Taktraten nicht ausreizen, sondern kann z.B. 100-200 MHz wegnehmen und die Core voltage deutlich reduzieren. Da sind zum Teil dann 2 gedrosselte GPUs sparsamer als eine schnelle.
Allerdings muss die Rohpower dann so hoch sein, das selbst bei Ausfall der zweiten GPU die Leistung noch genügend hoch ist. Ansonsten machts echt keinen Sinn.
Die Skalierung bei CF oder SLI gleicht immer noch einem Glücksspiel, deswegen machts eigentlich nur bei den schnellen GPUs wirklich sinn sowas zu bauen.
MadManniMan
2007-11-09, 16:22:44
Bin ich der einzige, der nicht gewillt ist, solche doppel-GPU/doppel-PCB-Lösungen zu akzeptieren, nur weil der hersteller keinen schnellen Single-chip zustande bringt?
[x] nein
Ich finds bekloppt, durchweg.
GeneralHanno
2007-11-09, 16:23:41
@gast: die sache mit 2 GPUs sind effizienter weil die vcore geringer ist, ist leider eine milchmädchenrechnung. denn die eingesparte energie bringt einem ja nix, wenn die CF effizienz bei 50-70% liegt. damit haben multi-GPU systeme doch kein gutes performence/watt verhältnis mehr.
AnarchX
2007-11-09, 16:56:16
Da muss man wohl sich für sein 8 Monitor-Setup, was mit CF befeuert werden soll, doch 4 Karten holen...
reunion
2007-11-09, 17:08:47
Da muss man wohl sich für sein 8 Monitor-Setup, was mit CF befeuert werden soll, doch 4 Karten holen...
Mehr als zwei DVI-Ausgänge sind mit einer Blende nunmal nicht machbar, und die heiße Luft soll ja auch nicht im Gehäuse bleiben. Aber vielleicht wird es ja eine Zusatzblende von bestimmten Herstellern geben. Denn prinzipiell wäre das natürlich kein Problem.
N0Thing
2007-11-09, 17:09:49
Naja für 150 Euro ist die 3850 schon schmackhaft und konkurrenzlos.
Ist das der Preis zu dem die Karte auf den Markt kommt, oder gibt es nur den Inquierer als Quelle?
Und gibt es schon Informationen über den Preis der 3870?
AnarchX
2007-11-09, 17:17:42
@reunion
Das wäre natürlich eine Möglichkeit.
Wobei noch wichtiger wäre, dass die AIBs auch HD3870 X2 mit 2x 1GiB anbieten, da doch effektive 512MB für die hier gebotene Rechenleistung, erst recht im Q-CF imo definitiv zu wenig sind, wie man auch an der schlechten(50-60%) Skalierung auf manchen Folien sieht.
denn die eingesparte energie bringt einem ja nix, wenn die CF effizienz bei 50-70% liegt. damit haben multi-GPU systeme doch kein gutes performence/watt verhältnis mehr.
Das bleibt nicht ewig so. Es gibt auch keine technische Notwendigkeit dafür, das ein Multi GPU System immer so mies skaliert. Mit der Erfahrung in den nächsten Jahren wird auch die Skalierung zunehmen.
Zur Zeit scheitert die Skalierung zum großen Teil am Treiber und der lässt sich jederzeit verbessern ...
HD 3870 X2:
http://images.vnu.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870/r680.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870
reunion
Die Karte ist erstaunlich handlich für 2 GPUs dieser Klasse. Wenn ich so an das Asus dual-Geforce6 Monster denke, oder die GX2...
Was mir irgendwie nicht in den Kopf will: Die 2900 XT konnte man eigentlich in allen Fällen über 800MHz GPU-Takt bringen, in vielen Fällen sogar auf an die 900Mhz. Damals hieß es auch der R600 würde in 65nm deutlich mehr Takt zulassen. Jetzt kommt der RV670 in 55nm daher und hat 35Mhz mehr Takt. Wieso so wenig? Wo genau liegt das Problem? Ich hätte eigentlich nur eine Erklärung: Die 3870 x2 ist höher getaktet als die 3870 und die Margen der wirklich gut taktbaren Chips ist wegen der 55nm Fertigung noch nicht so gut. Aber rein theoretisch sollte der RV670 sich doch deutlich höher takten lassen?!
laser114
2007-11-09, 17:39:44
Das ist der übliche 55nm-Prozess und kein High-Speed. Ansonsten liegts wahrscheinlich an den Yields.
-/\-CruNcher-/\-
2007-11-09, 17:39:45
Also ich bezweifele das Das eine HD3870 X2 sein soll wie sie in den Handel kommt, eine Gemini hat noch nie so ausgesehen.
-/\-CruNcher-/\-
2007-11-09, 17:44:25
Was mir irgendwie nicht in den Kopf will: Die 2900 XT konnte man eigentlich in allen Fällen über 800MHz GPU-Takt bringen, in vielen Fällen sogar auf an die 900Mhz. Damals hieß es auch der R600 würde in 65nm deutlich mehr Takt zulassen. Jetzt kommt der RV670 in 55nm daher und hat 35Mhz mehr Takt. Wieso so wenig? Wo genau liegt das Problem? Ich hätte eigentlich nur eine Erklärung: Die 3870 x2 ist höher getaktet als die 3870 und die Margen der wirklich gut taktbaren Chips ist wegen der 55nm Fertigung noch nicht so gut. Aber rein theoretisch sollte der RV670 sich doch deutlich höher takten lassen?!
Offiziel sind es +50MHz 300-775-825MHz, aber man kann sicherlich Powerplay abschalten und manuel versuchen noch was rauszuholen.
Denke mal ATI hat es beschränkt, weil es ansonsten Probleme mit der Automatischen Spannungsumschaltung gegeben hätte. Mit den 775MHz kommt man nicht ganz an die Stock GT mit ca 800MHz schon eher also die Stock GT zu erreichen was viele ja möchten ist 0 Problem aber alles dadrüber was die GT kann 700MHz+ ist nicht machbar mit Powerplay (laut den Screenshots), aber wie gesagt manueles Overiden ist denkbar.
Trotzdem. Ich verstehe nicht wieso man von den (anscheinend ursprünglich geplanten) 825Mhz auf 775MHz gegangen ist. Irgendwie bezweifle ich, dass man runtergehen musste.
AnarchX
2007-11-09, 17:59:29
Trotzdem. Ich verstehe nicht wieso man von den (anscheinend ursprünglich geplanten) 825Mhz auf 775MHz gegangen ist. Irgendwie bezweifle ich, dass man runtergehen musste.
Weil man mit diesen bei ~130W gelegen hätte und somit überhalb einer 8800 GT. ;)
Und wie -/\-CruNcher-/\- schon sagt, wäre hier dann wohl auch kein Spielraum mehr für Overdrive gewesen.
Das bleibt nicht ewig so. Es gibt auch keine technische Notwendigkeit dafür, das ein Multi GPU System immer so mies skaliert. Mit der Erfahrung in den nächsten Jahren wird auch die Skalierung zunehmen.
Zur Zeit scheitert die Skalierung zum großen Teil am Treiber und der lässt sich jederzeit verbessern ...
Die Skalierung ist momentan das geringste Problem. ;)
Was würde ich dafür geben, wenn nur 50 Prozent Boost da wären aber dafür in gleichmäßiger Abfolge.
Mit den 775MHz kommt man nicht ganz an die Stock GT mit ca 800MHz schon eher also die Stock GT zu erreichen was viele ja möchten ist 0 Problem aber alles dadrüber was die GT kann 700MHz+ ist nicht machbar mit Powerplay (laut den Screenshots), aber wie gesagt manueles Overiden ist denkbar.
Manuelles OC zählt aber nich für den Massenmarkt. Da muss die Karte mit Standard Taktraten und ein paar Cheats im Treiber sich absetzen oder zumindest gleichziehen um ordentlich zu laufen.
Wer weiß ob überhaupt der Chip in 1600*1200*4xAA noch mithalten kann...
Also nach meinen Berechnungen bräucht die 3870 bei gleicher Pro-MHZ-Leistung wie die 2900xt ziemlich genau 825MHz Takt um mit der 8800GT mit Qualitätseinstellungen (1600x1200, 4xaa 16xaf) annähernd gleichziehen zu können. Und Overdrive/TDP sind ja schön und gut, doch ich denke ein Überwältigender Teil der Endkunden legt deutlich mehr wert auf gute Leistung. Jetzt auf einmal den Kurs wechseln und neue Prioritäten setzen ist irgendwie komisch, zumal die Karte mit den Stromspaarfeatures unter 2d noch immer geglänzt hätte.
LovesuckZ
2007-11-09, 20:11:46
So ein Quatsch. Die 2900XT benötigt wesentlich mehr Leistung als die paar läpperlichen Prozent. Bei CB.de ist die Karte im Durchschnitt 19% schneller als die 2900XT.
rob]SK[
2007-11-09, 20:18:45
also ati scheint es nicht so recht zu packen mit den grafikkarten :/ wollte mir ati karten holen demnaechst, aber das wird dann wohl doch nix.
http://resources.vr-zone.com/newzhunter/RV670/Test-1.jpg
und bei den spielen unten siehts auch nicht wirklich besser aus.
mfg rob
R680 indeed real, and arrives sooner than possible?
http://www.nordichardware.com/news,7026.html
Die Werte auf vr-zone sind doch gefaked.Schaut euch doch mal die SM2.0 und 3.0 Werte beim E6850 DC an und dann die des Q6600!Passt vorne und hinten nicht.
mfg
So ein Quatsch. Die 2900XT benötigt wesentlich mehr Leistung als die paar läpperlichen Prozent. Bei CB.de ist die Karte im Durchschnitt 19% schneller als die 2900XT.
Tatsache. Ich hatte die Werte aus der Hardwareluxx genommen. Ist die 2900xt seit Release langsamer geworden? Komisch...
laser114
2007-11-09, 20:42:46
Tatsache. Ich hatte die Werte aus der Hardwareluxx genommen. Ist die 2900xt seit Release langsamer geworden? Komisch...
Wieso, zum Release gabs doch mit der GT gar keinen vergleich?
Hängt btw sehr von der Einstellung ab, ohne AA/AF ist die ATI natürlich deutlich näher dran:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/24/
Ums kurz zu machen, hier der Test auf den ich mich bezog:
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=565
Ich halte die Redaktion von Hardwareluxx eigentlich auch recht fähig und hier liegt die 2900xt "nur" etwa 10-20% hinter der 8800GT. In sofern finde ich meine Rechnung nach wie vor nicht so falsch. Aber vielleicht habe ich ja doch irgendwas nicht bedacht.
LovesuckZ
2007-11-09, 20:55:07
Ich halte die Redaktion von Hardwareluxx eigentlich auch recht fähig und hier liegt die 2900xt "nur" etwa 10-20% hinter der 8800GT. In sofern finde ich meine Rechnung nach wie vor nicht so falsch. Aber vielleicht habe ich ja doch irgendwas nicht bedacht.
In den vier Spielen mit 4AA/16AF in 1600*1200 liegt die 8800GT im Gesamtdurchschnitt um 24,53% vor der 2900XT mit 512mb.
Jetzt kommt der RV670 in 55nm daher und hat 35Mhz mehr Takt. Wieso so wenig? Wo genau liegt das Problem? Ich hätte eigentlich nur eine Erklärung: Die 3870 x2 ist höher getaktet als die 3870 und die Margen der wirklich gut taktbaren Chips ist wegen der 55nm Fertigung noch nicht so gut. Aber rein theoretisch sollte der RV670 sich doch deutlich höher takten lassen?!
Das Problem? Kann ich dir sagen:
R420 vs. R430
R580 vs. RV570
Alle im kleineren Prozess und die Taktbarkeit war bescheiden.
AnarchX
2007-11-09, 21:15:04
Visionary hat schon seine HD3800-Karten und scheut sich nicht davor sie zu präsentieren/testen:
http://forums.vr-zone.com/showthread.php?t=202510
http://img135.imageshack.us/img135/3424/12961dz2.jpg
Radeon HD 3870 (777/1126MHz) @ 860/1351MHz
Nicht schlecht, da hat die 3870 der 8800GT beim Speicher definitiv etwas vorraus...
LovesuckZ
2007-11-09, 21:19:18
Dies hat sie auch schon im Auslieferungszustand. ;)Man sollte aber erstmal gucken, inwieweit hier nicht der Speichertyp zur Limitierung werden kann.
Schlammsau
2007-11-09, 21:25:07
SK[;6012854']also ati scheint es nicht so recht zu packen mit den grafikkarten :/ wollte mir ati karten holen demnaechst, aber das wird dann wohl doch nix.
http://resources.vr-zone.com/newzhunter/RV670/Test-1.jpg
und bei den spielen unten siehts auch nicht wirklich besser aus.
mfg rob
ich glaube manche Leute erwarten zuviel. Die Karten werden ungefähr das Niveau einer 2900XT haben, bei wesentlich besserem Preis, Stromverbrauch, besserer Temp und hoffentlich besserer Performance mit eingeschaltetem AA!
Mir reichen die bekannten positiven Punkte, um für einen Kauf meinerseits in Frage zu kommen!
Das sehe ich ja auch alles so. Aber es hängt echt vom Preis ab. Ich kann mir im Moment nicht vorstellen, dass die 3870 deutlich unter 200€ kosten wird - genau das sollte sie aber um einen Kauf gegenüber der gf88gt wirklich zu rechtfertigen.
GeneralHanno
2007-11-09, 21:30:07
wenn die 3850 dafür etwa 150€ kostet, wäre das doch auch ok ;)
☯Stephan☯
2007-11-09, 22:55:24
http://pictrade.in/thumbs/opt1194639497o.JPG (http://pictrade.in/viewer.php?id=opt1194639497o.JPG)
lol?
so schlecht kann man doch gar nicht faken oder? :D
laser114
2007-11-09, 23:06:18
Hmm, wird das aktuelle Ergebnis sofort auch im Hintergrund übernommen?
Eventuell steht dort ja noch das alte. ;)
Hmm, wird das aktuelle Ergebnis sofort auch im Hintergrund übernommen?
Eventuell steht dort ja noch das alte. ;)
Nein, das wird nur übernommen, wenn du das aufpoppende Ergebnisfenster schließt. Also steht da mit Sicherheit das alte Ergebnis.
dargo
2007-11-09, 23:43:56
HD 3870 X2:
http://images.vnu.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870/r680.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/11/09/inq-reveals-r680-radeon-hd-3870
reunion
Gibts davon auch ein Bild ohne den Kühler? Ich frage mich gerade wo da die doppelte Auslegung von GPU und Speicher Platz gefunden haben ohne in die Höhe zu gehen.
Gibts davon auch ein Bild ohne den Kühler? Ich frage mich gerade wo da die doppelte Auslegung von GPU und Speicher Platz gefunden haben ohne in die Höhe zu gehen.
Hexxxerei.
Es sieht noch nach einem Konzeptbild aus.
Argoth
2007-11-10, 03:36:22
http://pictrade.in/thumbs/opt1194639497o.JPG (http://pictrade.in/viewer.php?id=opt1194639497o.JPG)
lol?
Die Bildqualität um die gefakten zahlen sind gleichmässig identisch schlecht-auflösend, dass das imho, kein fake ist^^
So ein Quatsch. Die 2900XT benötigt wesentlich mehr Leistung als die paar läpperlichen Prozent. Bei CB.de ist die Karte im Durchschnitt 19% schneller als die 2900XT.
In den vier Spielen mit 4AA/16AF in 1600*1200 liegt die 8800GT im Gesamtdurchschnitt um 24,53% vor der 2900XT mit 512mb.
Lol und mit 8xA und 16xAF ist die 2900xt 9% schneller als die 8800gt, schade das die nicht 1920x1200 benchen.
Ich hatte die 8800gt gegen die 2900xt in Crysis gebencht
1650x1050, High,Shadow und PP Med.
8800gt (stock) avg. 36,87fps
2900xt (825/950) avg. 37,91fps
Nein, das wird nur übernommen, wenn du das aufpoppende Ergebnisfenster schließt. Also steht da mit Sicherheit das alte Ergebnis.
Richtig
-/\-CruNcher-/\-
2007-11-10, 04:04:48
Lol und mit 8xA und 16xAF ist die 2900xt 9% schneller als die 8800gt, schade das die nicht 1920x1200 benchen.
Ich hatte die 8800gt gegen die 2900xt in Crysis gebencht
1650x1050, High,Shadow und PP Med.
8800gt (stock) avg. 36,87fps
2900xt (825/950) avg. 37,91fps
so und nun mach das mal @700MHz dan landest mit der GT vorausichtlich bei 42 fps -10% (so lange bis der bug in den Performance treibern gefixed ist) dann kommen 37,8 fps raus und so haste auch in real nur 32 fps keine 36 :) ergo die XT ist durchgehend schneller (im AVG)
Das hier fällt auf
http://resources.vr-zone.com/newspics/Nov07/09/HD3870-3DMark06-3.jpghttp://img155.imageshack.us/img155/6707/07dfaa869al7.jpg
885MHz zeigte der Slider nicht max 825MHz an ändert sich das durch das Auto Tune ?
so und nun mach das mal @700MHz dan landest mit der GT vorausichtlich bei 42 fps -10% (so lange bis der bug in den Performance treibern gefixed ist) dann kommen 37,8 fps raus und so haste auch in real nur 32 fps keine 36 :) ergo die XT ist durchgehend schneller (im AVG)
Ich hab noch andere Games getestet u.a. Colin McRay bei 1920x1200 High 4xAA da war die 8800gt ca. 10% schneller als die stock 2900xt, aber nach 1,5 runden beim Pickup Rennen hat es an dauernt gestockt auch der 8800gt (ich schätze der Speicher war voll).
Dann Stalker 1920x1200 alles High 16xAF, waren es 58Fps bei der gt und 52Fps bei der xt.
Ich hab die 8800gt mit ein wenig Gewinn an ein Kumpel verkauft, weil mir das mit dem Speicher und die Phasengeschichte sowie die miese Kühlung nicht gefallen haben, von den Bluescreen will ich erst garnich anfangen.
Die 8800gt ist keine schlechte Karte, aber das Superduper Wunderding für das sie manche hier halten ist sie auch nicht.
N8
-/\-CruNcher-/\-
2007-11-10, 07:14:26
Hier die Sapphire im Versuchsaufbau
http://i9.tinypic.com/82jok1t.jpg
Die kleine gefällt mir Lara Crofts Schwester? ;D
http://img205.imageshack.us/img205/4436/198specimage13fba856sn1.jpg
hmmm??
Vorauszusehen ist jedenfalls das im Sommer, bei nicht ausreichender Gehäuselüftung mehr GTs bei Ottonormalverbrauchern sterben werden als HD3870 ;) nun wundert es auch nicht das Nvidia die OEM Systeme vorher auf korekten Wärmefluß geprüft hat, bin mal gespannt wie viele System Builder sich daran halten werden, da würde ich die HD3850 aber bevorzugen *g*.
Nvidia wollte einfach nur die schnellste Karte koste es was es wolle rausbringen (und sparen beim Lüfterdesign) so sieht es jedenfalls aus, aber Ati zeigt eindeutig eine menge mehr Inovation bei ihrer Karte :D
Nvidia ist nicht dumm sie wissen das sich nen Otto Normalverbraucher eh nicht so ne Karte holt und bringen OC Versionen und das unsichere Design laden sie auf dem Kunden ab der muss sich drum kümmern das sie nicht durchbrennt, Ati baut da zig Sicherheitstufen ein das das nicht passiert selbst bei ihrer HD3870 deren Zielgruppe die selbe wie bei Nvidia ist.
Für mich ist ganz klar das AMD/ATI hier den Anfang gemacht hat um wieder positive Ergebnisse einzufahren die HD3850 ist einfach nen Kracher für den Preis und jeder Kunde egal ob HD3850 oder HD3870 spart auch noch bei den Stromkosten (und unserer Umwelt tuts gut), also wer die ganzen Vorteile und Mehrwert nicht sieht dem kann man echt nicht mehr helfen.
Auch mal ganz abgesehen von der AA Performance selbst wenn sie einbricht wenn interessiert das wirklich, solange es jedenfalls das Spielgefühl nicht verschlechtert und bei 1680x1050 sollte da selbst Crysis rund laufen, AA kann man da doch selbst bei der 8800 GT vergessen (bei minimum Ergebnissen von 10 Fps helfen auch keinem mehr +6fps es wird trotzdem ruckeln).
Ganz klare Kaufempfehlung im idle ist sie zudem 10° kühler als die 8800 GT die HD3850 sogar 20° und dadurch die meiste Zeit leise und selbst bei voller Belastung hat sie diese 10° dann in Reserve und kann somit unmöglich so laut werden wie die 8800 GT :) die Reviews werden das sicherlich alles bestätigen und die gezeigten 885MHz reichen auch schon fast um an eine 8800 GT mit 700MHz zu kommen, also fällt der Vorteil auch flach für Nvidia und selbst mit diesem Vorteil was auch wiederum ein Nachteil ist, kann sie bis auf ihre minimal höhere Geschwindigkeit nichts anderes vorweisen und die RV670 ist kein gewöhnlicher Refresh da sie von Grund auf hohe Leistung bei minimalem Stromverbrauch Designed worden ist (und das Dynamisch umsetzt) Nvidia hat sich nur gedanken gemacht ums Die Shrinking.
Nvidia wird dies natürlich nun bei ihrem nächsten Design G100? sicher auch berücksichtigen aber nichts destotrotz hat AMD/ATI hier den Anfang gemacht und wird es sicherlich kontinuirlich verbessern und auch höhere Leistungen damit erreichen bei ihrem R700 Design.
Hier die Sapphire im Versuchsaufbau
http://i9.tinypic.com/82jok1t.jpg
Die kleine gefällt mir Lara Crofts Schwester? ;D
http://img205.imageshack.us/img205/4436/198specimage13fba856sn1.jpg
hmmm??
Wenn der 70er-Kühler schön leise bleibt und der Preis stimmt, könnte das eine verdammt geile Karte werden. :)
Ich brauch die HD3870 für mein HTPC, verdammt, wann kommt sie endlich?????
reunion
2007-11-10, 09:03:09
Gibts davon auch ein Bild ohne den Kühler? Ich frage mich gerade wo da die doppelte Auslegung von GPU und Speicher Platz gefunden haben ohne in die Höhe zu gehen.
Schau seitlich auf den Kühler, da sieht es so aus, als ob der Kühlblock zweigeteilt wäre. Dadurch kann man die Plätze der zwei Chips gut erahnen. ATi war schon immer spitze, was die Packdichte am PCB betraf. Vermutlich sind auf jeder Seite pro Chip nur vier Speicherbausteine, oder womöglich sind sogar alle Speicherbausteine auf der Rückseite. Die Stromversorgung wird wohl auch teilweise auf die andere Seite gewandert sein.
Hier die Sapphire im Versuchsaufbau
http://i9.tinypic.com/82jok1t.jpg
Die kleine gefällt mir Lara Crofts Schwester? ;D
http://img205.imageshack.us/img205/4436/198specimage13fba856sn1.jpg
Jetzt hat auch AMD diese bescheuerten Löcher in der Abdeckung. Klar senken diese den Strömungswiderstand, dafür bleibt die Hälfte der heißen Luft im Gehäuse. Gefällt mir nicht.
GeneralHanno
2007-11-10, 09:05:51
wenn sie tatsächlich nur 4 speicherchips verbauen, dann wird es wohl vorerst keine (2*)1GiB version der 3870X2 geben.
dargo
2007-11-10, 09:20:33
Vermutlich sind auf jeder Seite pro Chip nur vier Speicherbausteine, oder womöglich sind sogar alle Speicherbausteine auf der Rückseite.
Nun, das dürfte keine Rolle spielen. Der Platz auf dem PCB ist trotzdem weg. Zumindest bei der zweiten Variante. Bei der ersten Variante würde es eher Sinn machen. Dann müssten aber je 4 Speicherchips je Seite an der gleichen Stelle vorhanden sein.
Fakt ist jedenfalls das im Sommer mehr GTs sterben werden als HD3870 ;) bei den Otto Normalverbrauchern mit nicht aussreichender Gehäuselüftung nun wundert es auch nicht das Nvidia die OEM Systeme geprüft hat auf korekten Wärmefluß.
Fakt ist etwas erst, wenn es eingetreten und nachgewiesen ist. ;D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.