Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008, multicore und 55 nm? Teil 2
Seiten :
1
2
3
4
5
[
6]
7
8
9
10
reunion@work
2008-05-14, 08:45:24
Das meiste kam hier in die Foren von Zeit zu Zeit und es gab viel mehr Einzelheiten ueber R600 als ueber G80 selbst zu diesem Zeitpunkt und es ist heute auch nicht anders. Wir wissen eigentlich viel mehr ueber RV770 als ueber GFNext wenn Du's genau ueberdenkst.
Und da ich nicht immer zu deutlich werden will, RV770 hat den Nachteil dass hauptsaechlich Einheiten dazugeklebt wurden; es hilft zwar aber es heisst auch dass die theoretischen Spezifikationen eine um einiges hoehere Steigerung zeigen werden als die durchschnittliche Echtzeitleistung.
D.h die Gerüchte über 32TMUs, 480SPs, und 16ROPs sind korrekt?
robbitop@work
2008-05-14, 09:11:41
D.h die Gerüchte über 32TMUs, 480SPs, und 16ROPs sind korrekt?
Bei 50% mehr Fläche sollte das schon möglich sein. Das sollte dann zu Faktor 1,5 bis 2 führen in der Performance. (in der GDDR5-Version)
Das sollte dann, je nach Situation, 8800 Ultra Niveau oder sogar etwas darüber sein. Wenn Arithmetik gefragt ist, eher mehr.
Sieht, für 200 EUR, nach einer sehr guten Karte aus! Ob G92b da mithalten kann, hängt stark von der Taktrate ab. Dafür brächte sie vermutlich >2 GHz Shaderclock und GDDR5.
AnarchX
2008-05-14, 09:41:21
Wobei 192 auf 256mm² nur knapp über 30% sind.
Und da ich nicht immer zu deutlich werden will, RV770 hat den Nachteil dass hauptsaechlich Einheiten dazugeklebt wurden; es hilft zwar aber es heisst auch dass die theoretischen Spezifikationen eine um einiges hoehere Steigerung zeigen werden als die durchschnittliche Echtzeitleistung.
Und da muss sich wohl erstmal zeigen, ob ATi, wenn diese Specs von reunion stimmen, bei Chiphell kamen ja auch öfters 800SPs, wohl 400 je Chip, die ~50% einer 8800GTS/9800GTX gegenüber der 3870 erreichen kann, die sich ja auch um die 200€ befinden.
Ailuros
2008-05-14, 09:45:28
D.h die Gerüchte über 32TMUs, 480SPs, und 16ROPs sind korrekt?
Nach was klingen denn eigentlich 3 cluster?
Und es wird so langsam Zeit damit wir User den SP-Marketing-Scheiss beider IHVs loswerden. Man kann wenn man will die Faehigkeiten jeglicher Architektur im Detail definieren, aber G80 hat quasi 16 Prozessoren und R600 dann 4 Prozessoren (schlank/hochgetaktet vs. fett/moderat getaktet). Und nein es soll nicht heissen dass es sich um ein 4:1 Verhaeltnis handelt, aber absolut gerechtfertigt so viel SPs zu behaupten waere eigentlich eher etwas in Richtung reine MIMD Einheiten oder anders siehe D3D11. Pro cluster SIMD / zwischen den clusters MIMD vs. MIMD/MIMD.
Und da muss sich wohl erstmal zeigen, ob ATi, wenn diese Specs von reunion stimmen, bei Chiphell kamen ja auch öfters 800SPs, wohl 400 je Chip, die ~50% einer 8800GTS/9800GTX gegenüber der 3870 erreichen kann, die sich ja auch um die 200€ befinden.
400 geben keine logische Clusteranzahl mit 32 ALUs/cluster oder? Ausser sie bauen chips mit 2.5 cluster LOL. Bei NV heisst es manchmal GT200, manchmal G100, mal 55nm mal 65nm, mal single chip mal dual chip, mal $500 und mal $600 usw. Merkst Du was?
deekey777
2008-05-14, 10:03:55
Diese 800 SPs sind nach meiner kreativen Zählweise 6 TMU-Quads, 4 RBEs und 6 Shader-Cluster mit 24 Einheiten. :biggrin:
32 TMUs und 480 SPs müssen nicht zwangsläufig 3 Cluster bedeuten, 32 können auch 2*16 sein, was bedeuten kann:
- 6 Shader-Cluster mit dem gleichen Aufbau und 2 TMU-Cluster.
- 6 Shader-Cluster und 1 TMU-Cluster, der wiederum "32 TMUs" enthält ("Okto-TMUs).
AnarchX
2008-05-14, 10:09:35
400 geben keine logische Clusteranzahl mit 32 ALUs/cluster oder?
32 ALUs pro Cluster? :|
400 SPs wären doch einfach machbar mit 5 SIMDs mit je 80SPs/16ALUs oder eben vertikal skaliert 4 SIMDs mit 100SPs/20ALUs, was dann 5 TUs/20TMUs nach sich zieht. Eben die Skalierbarkeit die ATis aktuelles Design doch erlaubt.
Hvoralek
2008-05-14, 11:44:09
32 ALUs pro Cluster? :|Wenn ich das richtig verstanden habe, wäre das notwendig bei 32 TMUs (und nicht 2x16).
Ailuros
2008-05-14, 11:58:36
32 ALUs pro Cluster? :|
400 SPs wären doch einfach machbar mit 5 SIMDs mit je 80SPs/16ALUs
Wenn Du 16 ALUs pro cluster hast wie willst Du dann mehr als 16 TMUs genau dranhaengen ohne zu radikalen Aenderungen an der Architektur zu greifen?
oder eben vertikal skaliert 4 SIMDs mit 100SPs/20ALUs, was dann 5 TUs/20TMUs nach sich zieht. Eben die Skalierbarkeit die ATis aktuelles Design doch erlaubt.
20 ALUs : 20 TMUs klappt dann schon. Aber was genau sollen laecherliche 4 mehr TMUs genau bringen?
AnarchX
2008-05-14, 12:03:36
Wenn Du 16 ALUs pro cluster hast wie willst Du dann mehr als 16 TMUs genau dranhaengen ohne zu radikalen Aenderungen an der Architektur zu greifen?
Also kann man wohl doch keine Textur-SIMDs nacheinander schalten?
20 ALUs : 20 TMUs klappt dann schon. Aber was genau sollen laecherliche 4 mehr TMUs genau bringen?
Es gibt ja noch die TMU-Optimierung für 30% mehr Leistung bei gleichem Takt. :D
Ailuros
2008-05-14, 12:25:10
32 TMUs und 480 SPs müssen nicht zwangsläufig 3 Cluster bedeuten, 32 können auch 2*16 sein, was bedeuten kann:
- 6 Shader-Cluster mit dem gleichen Aufbau und 2 TMU-Cluster.
- 6 Shader-Cluster und 1 TMU-Cluster, der wiederum "32 TMUs" enthält ("Okto-TMUs).
Wo ist denn der eigentliche Unterschied zwischen:
32+32+32
32+32+32
und
(16+16)+(16+16)+(16+16)
(16+16)+(16+16)+(16+16)
Wenn dann hat G92 auch 16 anstatt 8 cluster.
Es gibt ja noch die TMU-Optimierung für 30% mehr Leistung bei gleichem Takt. :D
Fast tri-TMUs waere eine Idee die eventuell Sinn machen koennte. Ich bezweifle aber dass sie an so was gedacht haben. Bloss aber kein SW-Scheiss bitte....*seufz*
GeneralHanno
2008-05-14, 13:09:48
im westen nix neues R700(=2*RV770) kommt einen monat nach dem RV770
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7321&Itemid=1
deekey777
2008-05-14, 14:02:12
Wo ist denn der eigentliche Unterschied zwischen:
32+32+32
32+32+32
und
(16+16)+(16+16)+(16+16)
(16+16)+(16+16)+(16+16)
Wenn dann hat G92 auch 16 anstatt 8 cluster.
...
Argh, Mißverständnis: 32 TMUs können 2x16 TMUs sein, sprich es bleibt alles beim alten, nur die Anzahl der Cluster wird erhöht. Oder reden wir noch mehr aneinder vorbei?
Ailuros
2008-05-14, 14:15:51
Argh, Mißverständnis: 32 TMUs können 2x16 TMUs sein, sprich es bleibt alles beim alten, nur die Anzahl der Cluster wird erhöht. Oder reden wir noch mehr aneinder vorbei?
Wenn ich 6 cluster mit jeweils 16 ALUs/cluster habe dann sind es normalerweise auch 16 TMUs.
Was Du mir vorschlaegst sind 16 ALUs/cluster, wobei 32 TMUs (egal ob 32 oder 2*16) auf irgend eine Art 16 ALUs in einer SIMD Logik bedienen sollen? Was entgeht mir gerade hier dass keinen besonderen Sinn macht?
deekey777
2008-05-14, 14:23:58
Eine Möglichkeit: 2 eigenständige TMU-Cluster.
Zweite Möglichkeit: 1 TMU-Cluster mit "Octo-TMUs", spirch es sind in jedem der vier "Blocks" 8 TMUs (ist eigentlich falsch, machen wir daraus 8 TFs und 8 TAs oder in die Richtung).
Zur Erinnerung:
http://forum.beyond3d.com/showpost.php?p=1160725&postcount=1565
Bear in mind that these types of spec don't necessarily require filtered textures - in which case there are 2x the total texture units available on R6xx (i.e. there are 16 filtering units plus 16 point samplers on R600/RV670). Single component textures can also be fed into the shader are 4x the filtered rate as well (Fetch4/Gather4).
Ailuros
2008-05-14, 14:40:35
Eine Möglichkeit: 2 eigenständige TMU-Cluster.
Entschuldige aber ich kapier immer noch nicht wie Du 16 ALUs mit 2*16 TMUs in SIMD bedienen willst. Ich verpasse irgend etwas oder man muesste MIMD cluster haben.
Zweite Möglichkeit: 1 TMU-Cluster mit "Octo-TMUs", spirch es sind in jedem der vier "Blocks" 8 TMUs (ist eigentlich falsch, machen wir daraus 8 TFs und 8 TAs oder in die Richtung).
Zur Erinnerung:
http://forum.beyond3d.com/showpost.php?p=1160725&postcount=1565
Und warum nicht 32 TF / 16 TA? Es sind in solch einem Fall immer noch eigentlich streng genommen 16 TMUs, denn wenn Du mir TMUs sagst dann denk ich auch an volle TMUs.
deekey777
2008-05-14, 15:03:35
Entschuldige aber ich kapier immer noch nicht wie Du 16 ALUs mit 2*16 TMUs in SIMD bedienen willst. Ich verpasse irgend etwas oder man muesste MIMD cluster haben.
Wenn man zwei eigenständige TEX-SIMDs hat, dann können diese auch unabhängig voneinander ihre eigenen Threads bearbeiten.
Ein R600-Thread besteht aus 4 Blocks mit 4 Quads, diese werden nacheinander abgearbeitet. Meine Idee wäre, dass bei einem TEX-SIMD, in dem 2 TMU-Quads "nebeneinander" sind, 2 solcher Blocks dann parallel bearbeitet werden.
Und warum nicht 32 TF / 16 TA?
Weil das noch zu wenig wäre?
Es sind in solch einem Fall immer noch eigentlich streng genommen 16 TMUs, denn wenn Du mir TMUs sagst dann denk ich auch an volle TMUs.
Man kann beim R600 als "TMU" deutlich mehr hineininterpretieren als beim R580.
Aber als TMU bezeichne ich mindetens ein Gleichgewicht TAs<->TFs.
Psychopat
2008-05-14, 17:16:20
http://www.hartware.de/news_44785.html
Hartware hat den 11. Juni als Release gesteckt bekommen.
AffenJack
2008-05-14, 17:24:31
sie ham nur von chiphell abgeschrieben wette ich
AnarchX
2008-05-14, 20:11:55
Chiphell bestätigt nun nochmal die bekannten 256mm²:
http://img98.imageshack.us/img98/3483/20080515450515a91407ef9vj5.jpg (http://imageshack.us)
http://en.chiphell.com/?p=11
und warum ist der rest nicht sichtbar? :(
anddill
2008-05-14, 20:17:19
Das Bild besagt nur, daß der Autor von GPU-Z diese Zahlen da eingetragen hat.
K4mPFwUr$t
2008-05-14, 20:19:21
muss nicht, die neuste version von GPU-Z hat RV770 und GT200 support ;)
das der rest ausgeblendet ist kann vieleicht mit der NDA zusammen hängen.
AnarchX
2008-05-14, 20:21:28
muss nicht, die neuste version von GPU-Z hat RV770 und GT200 support ;)
Natürlich hat W1zzard sie manuell eingetragen oder glaubst du die Die-Size wird live ermittelt? :D
Aber die 25xmm² schwirren nun schon seit längeren herum und kamen von verschieden Quellen, also kann man diese wohl als ziemlich sicher ansehen.
RV770 ungefähr 256mm²
GT200 ungefähr 600mm² *autsch*
Da kann man sich ja vorstellen, welcher dieser beiden GPU´s schneller sein wird! ;(
Wie wahrscheinlich ist es denn, dass R700 KEINE X2 wird und A/A damit doch noch ne High-End single-GPU bringt?
weil ~600mm² vs. 256mm² ist echt.. erm... Autsch.
reunion
2008-05-14, 20:39:18
RV770: 55nm, ~250mm²
GT200: 65nm, <600mm²
Und das entscheidende: GT200: High-End, RV770: Performance/Midrage.
K4mPFwUr$t
2008-05-14, 20:39:29
schon lustig das die leute highend chip mit values chip vergleichen.
der GT200 wird mehr leistung haben, aber auch mehr schlucken und mehr kosten.
der RV770 wird weniger leistung haben, weniger schlucken und weniger kosten.
es zeigt sich doch klar eine abzeichnung :conf:
der R700 soll wohl sowas werden wie der R680.
w0mbat
2008-05-14, 20:56:36
Chiphell bestätigt nun nochmal die bekannten 256mm²:
http://img98.imageshack.us/img98/3483/20080515450515a91407ef9vj5.jpg (http://imageshack.us)
http://en.chiphell.com/?p=11
Jup, soviel habe ich auch schon zu sehen bekommen, damals noch in Version 0.1.9 welche auch 256mm² anzeigte. Die gleiche Quelle redet aktuell auch von dem 512Bit SI. Also es ist echt verzwickt, da ich der Quelle schon trauen kann, aber das große SI einfach unglaubwürdig und unlogisch ist. Auf Nachfrage wurde aber gesagt das man weder den Ringbus verwechselt hat und es sich auch nicht um den RV770x2 handeln würde (Fudos Quelle liefert ja das gleiche). Deshalb bin ich zZt auch so skeptisch was die RV770 Specs (abseits vom Herstellungsverfahren, Die-Size, usw.) angeht.
deekey777
2008-05-14, 21:53:19
Das Bild besagt nur, daß der Autor von GPU-Z diese Zahlen da eingetragen hat.
Vielleicht steckte eine RV770 schon drin.
anddill
2008-05-14, 21:59:38
Vielleicht steckte eine RV770 schon drin.
Ja mag sein, aber wie gesagt, das Tool wird kaum einen Meßschieber ausfahren und nachmessen. Da steht nur, was jemand vorher da rein geschrieben hat. Und das kann stimmen oder genausogut ein Platzhalter sein.
Wie wahrscheinlich ist es denn, dass R700 KEINE X2 wird und A/A damit doch noch ne High-End single-GPU bringt?
Das ist sehr unwahrscheinlich, weil A/A derzeit nicht mehr die Resourcen hat für eine High-End GPU.
Tarkin
2008-05-14, 22:19:09
kommt nur mir das so vor oder sind 600mm^2 für den neuen nVidia Chip etwas exorbitant RIESIG?!? Ich meine... gabs jemals eine GPU die derat BOMBASTISCH groß war?
Ich meine 600?!?!? das wäre 50% größer als der R600 - und der war alles anders als kompakt und sparsam ;)
Wie siehts da mit Verbrauch und Hitzeentwicklung aus?
Also ganz ehrlich... für mich klingt das schon etwas unrealistisch/ übertrieben.
Oder nicht?
Hvoralek
2008-05-14, 22:32:48
kommt nur mir das so vor oder sind 600mm^2 für den neuen nVidia Chip etwas exorbitant RIESIG?!? Ich meine... gabs jemals eine GPU die derat BOMBASTISCH groß war?
Ich meine 600?!?!? das wäre 50% größer als der R600 - und der war alles anders als kompakt und sparsam ;)
Wie siehts da mit Verbrauch und Hitzeentwicklung aus?
Also ganz ehrlich... für mich klingt das schon etwas unrealistisch/ übertrieben.
Oder nicht?Das wäre die größte GPU und m.W. auch der größte Consumerchip überhaupt. Bisheriger Rekordhalter ist G80, der aber mit 480 mm² auch nicht soo viel kleiner ist.
LovesuckZ
2008-05-14, 22:36:35
G80 war 480mm² groß, G70 war 333mm².
Ich sehe hier kein Problem.
Sorkalm
2008-05-14, 22:46:13
Jup, soviel habe ich auch schon zu sehen bekommen, damals noch in Version 0.1.9 welche auch 256mm² anzeigte. Die gleiche Quelle redet aktuell auch von dem 512Bit SI.
Ist das nicht ein Widerspruch in sich? 256 mm² an ein 512-Bit-Interface zu verdrahten dürfte schon ein ganz schöner Aufwand sein.
deekey777
2008-05-14, 22:51:14
Ist das nicht ein Widerspruch in sich? 256 mm² an ein 512-Bit-Interface zu verdrahten dürfte schon ein ganz schöner Aufwand sein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6496815&postcount=1164
LovesuckZ
2008-05-14, 22:56:11
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6496815&postcount=1164
r600 ist 400mm², r770 soll nur 256mm² groß sein. Es werde kein großer Die benötigt, aber man braucht eine bestimmte Fläche. Es kann natürlich sein, dass der r770 ein 512bit Speicherinterface besitze, dann hat er aber keine 32TMUs und 96 Recheneinheiten.
BlackBirdSR
2008-05-14, 23:07:57
r600 ist 400mm², r770 soll nur 256mm² groß sein. Es werde kein großer Die benötigt, aber man braucht eine bestimmte Fläche. Es kann natürlich sein, dass der r770 ein 512bit Speicherinterface besitze, dann hat er aber keine 32TMUs und 96 Recheneinheiten.
Was haben Anschlusspads mit FUs zu tun?
Es gibt sicherlich eine minimale DIE-Fläche um die Pads kostengünstig und effizient unterzubringen. Ob diese hier unterschritten wird, ist die Frage.
K4mPFwUr$t
2008-05-14, 23:20:54
bei einem RV chip kann man doch kostenintensive dinge schon vorher ausschließen?
es wird sicherlich teurer sein wenn man zum 512bit SI greift als zum 256bit SI.
das fängt ja schon bei der verdrahtung an und endet am PCB.
imho sind sollche sachen nur highend produkten vorenthalten und gehören nicht gerade zu einem preis leistung kracher.
Henroldus
2008-05-14, 23:29:20
Das ist sehr unwahrscheinlich, weil A/A derzeit nicht mehr die Resourcen hat für eine High-End GPU.
A/A lässt sein GPUs bei Auftragsfertigern (TSMC) fertigen und die bauen ständig an ;)
deekey777
2008-05-14, 23:34:13
bei einem RV chip kann man doch kostenintensive dinge schon vorher ausschließen?
es wird sicherlich teurer sein wenn man zum 512bit SI greift als zum 256bit SI.
das fängt ja schon bei der verdrahtung an und endet am PCB.
imho sind sollche sachen nur highend produkten vorenthalten und gehören nicht gerade zu einem preis leistung kracher.
Die 9600GT als Midrange-Chip hat ein 256-bit-SI, warum sollte ein RV770 nicht über ein 512-bit-SI verfügen?
Ich glaube zwar wie die meisten auch an ein 256bit-SI, aber so eine kategorische Haltung "Das geht nicht!" kann ich nicht gut heißen.
K4mPFwUr$t
2008-05-14, 23:36:56
@deekey777
ich habe ja nicht behauptet das es nicht ginge.
nur sollte man bei einem values chip die wirtschaftlichkeit bedenken.
bzw. die spätere zielgruppe und deren preisvorstellungen.
eine aufwendigere verdrahtung, aufwendigeres PCB erhöhen nur die kosten bzw. den späteren preis.
@deekey777
ich habe ja nicht behauptet das es nicht ginge.
nur sollte man bei einem values chip die wirtschaftlichkeit bedenken.
bzw. die spätere zielgruppe und deren preisvorstellungen.
eine aufwendigere verdrahtung, aufwendigeres PCB erhöhen nur die kosten bzw. den späteren preis.
würde eh nur bei massiv mehr leistung sinn machen... und wenn wir das wissen, dann wohl auch der eine oder andere ingenieur bei ATI/AMD
Psychopat
2008-05-15, 03:15:32
Andere Erklärung: Marketing, um gut gegen GT200 dazustehen. Bzw. bei der GDDR3-Version würden 512bit ja Sinn machen.
Für was genau wird denn Speicherbandbreite hauptsächlich gebraucht? AA, AF oder was? Könnte man die Bandbreite für tolle Filter nutzen?
ich glaube nicht an einem 512Bit SI. Zu klein ist die GPU und billig muss die Karte auch noch gehalten werden.
Da ist irgendwo der Wurm drin! Evtl. ist der Chip ja doch grösser als alle erwarten!?
Tarkin
2008-05-15, 07:48:32
http://www.tgdaily.com/content/view/37453/135/
GT200 vor RV770 und R700?
Also ehrlich gesagt verliere ich langsam den Glauben daran, dass AMD/ ATI mit der neuen GPU erfolgreicher sein wird als mit den letzten (rv670).
Sieht so aus als ob der Bereich zwischen $250 und $450 wieder mal komplett nvidia überlassen wird - das kanns doch wohl nicht sein, oder???!
Im Bereich unter $250 relativ gut positioniert aber darüber wird die X2 (vermutlich) allein gegen zig Varianten neuer nVidia Karten ankämpfen (von GTX über GTS.. und was ihnen sonst noch neues einfällt...)
Und im Ultra High End wird nVidia wahrscheinlich ebenfalls ganz alleine auf weiter Front dastehen...
Oder hat AMD vielleicht noch mehr als single und dual RV770 auf Lager??? - andernfalls sehe ich jedenfall keinerlei (gravierenden) Vorteile gegenüber dem letzten Produkt-Launch.
Schlammsau@work
2008-05-15, 08:01:25
@Tarkin
wichtig ist das Performance Segment! Hier muss ATi gut aufgestellt sein, sonst ist alles für die Katz.
Was ist den der GT200? Absoluter High End, jenseits der 500€ Marke! Viel billiger kann der GT200 gar nicht werden...nicht bei der spekulierten DIE Grösse! Und für dieses Segment gibt es kaum Käufer.
Ich hoffe wirklich, dass ATi es geschafft hat, mit dem RV770 die Leistung mindestens um den Faktor 1,5 zu erhöhen. Das wäre momentan 9800GTX Bereich! Und das für nen Preis von etwas über 200€, weniger Stromverbrauch, und zusätzlich DX10.1 Support!? Wäre doch Traumhaft!!
Tarkin
2008-05-15, 08:06:49
@Tarkin
wichtig ist das Performance Segment! Hier muss ATi gut aufgestellt sein, sonst ist alles für die Katz.
Was ist den der GT200? Absoluter High End, jenseits der 500€ Marke! Viel billiger kann der GT200 gar nicht werden...nicht bei der spekulierten DIE Grösse! Und für dieses Segment gibt es kaum Käufer.
Ich hoffe wirklich, dass ATi es geschafft hat, mit dem RV770 die Leistung mindestens um den Faktor 1,5 zu erhöhen. Das wäre momentan 9800GTX Bereich! Und das für nen Preis von etwas über 200€, weniger Stromverbrauch, und zusätzlich DX10.1 Support!? Wäre doch Traumhaft!!
das Problem ist nur dass "nur" GTX Geschwindigkeit etwas zu wenig wäre IMO - vor allem um nVidia etwas mehr unter Druck zu setzen - und der geschrumpfte G92 wird wohl kaum langsamer sein als der schon jetzt erhältliche ;)
Rv770 müsste schon 30% schneller sein als jetzige G92 Varianten... sonst wird sich wohl kaum etwas beim Marktanteil zum Positiven verändern.
Schlammsau@work
2008-05-15, 08:12:32
hmmm....im Punkto Geschwindigkeit kann ATi glaube ich, nicht mit nV mithalten. Also müssen sie mit anderen Aspekten Punkten!
Preis, niedrigerer Stromverbrauch, DX10.1 Support, und evtl. besserer Bildqualität!?
Wenn diese Punkte konsequent umgesetzt wurden, dürfte ATi endlich wieder Licht gegen die Übermacht nVidia sehen!
robbitop@work
2008-05-15, 08:25:37
Was haben Anschlusspads mit FUs zu tun?
Es gibt sicherlich eine minimale DIE-Fläche um die Pads kostengünstig und effizient unterzubringen. Ob diese hier unterschritten wird, ist die Frage.
Ja, da gibt es beim R600 interessante Patente. Allerdings kostet ein so breites SI Transistoren. Und das kostet zusätzliche Fläche.
Bei 250 mm^2 wird aber wohl weniger die Rohleistung da sein, um ein 512-bit-SI sinnvoll zu nutzen.
GeneralHanno
2008-05-15, 09:14:27
angeblich das komplette RV770 lineup bekannt:
http://www.pcgameshardware.de/aid,643685/News/AMD_Neue_Details_zum_Launch_der_HD48x0-Reihe_und_Preise_bekannt/
AnarchX
2008-05-15, 10:37:50
Nach Taiwan's Grafikkarte Industrie sagte, AMD plant am 16. Juni eine neue ATI Radeon HD 4800-Familie, den Kern-Code-Namen "RV770, das erste Modell für die ATI Radeon HD 4850, Shader Processing Unit werden bis zu 480, verwendet werden GDDR3-Speicher Teilchen, der Preis beträgt etwa $ 229 US-Dollar.
Unmittelbar nach dem 23. Juni AMD wird Release HD ATI Radeon 4870, Spezifikationen und HD-Radeon 4850 werden die gleichen, aber der Kern Uhr wird weiter verbessert werden, aber die Erinnerung wird Umstellung auf die neue GDDR5 Speicher Teilchen, etwa $ 349 US-Dollar.
Allerdings, der Industrie festgestellt, dass der 23. Juni Release ATI Randeon HD 4870 wird Paper Launch der offiziellen Versanddatum wird etwas verzögert, vor allem GDDR5 Speicher für die Spannungen, die durch Teilchen, und die Zukunft kann Radeon 4870 HD Verfügbarkeit Keine glatte, GDDR5 Speicher wird ein wichtiges Thema des Schlüssels.
Darüber hinaus AMD auch Pläne zur Einführung einer neuen Generation von Dual-R700-Grafikchip-Grafikkarten, Modell für die ATI Radeon HD 4870 X2, wird erwartet, dass formell Zeitplan für das dritte Schiff an das Ende vom Anfang des vierten Quartals, der Preis ist ungefähr $ 549 US-Dollar.
http://hkepc.com/?id=1165&fs=c1h
X2 erst am Ende Q3/Anfang Q4? :|
Sorkalm
2008-05-15, 10:44:47
Theo Valich hat auch Informationen, die sich aber nur zum Teil decken:
http://www.tgdaily.com/content/view/37453/135/
According To AMD’s current introduction schedule, the Radeon 4800 series will launch in week 25, which puts the day of the introduction somewhere between June 15 and June 22.
Das passt noch.
The Radeon 4850, code-named “Makedon,” is AMD's launch board. The name, by the way, is likely to refer to Terry "Catalyst" Makedon, group manager for software and video in the AMD (ATI) graphics division. Of course, there is a small chance that Alexander Makedonski (Alexander the Great) may have influenced the naming, but somehow we feel that Terry has won this time.
The 4850 board features 512 MB of GDDR3 memory and is expected to be available in volume at launch. We heard that card vendors will start printing their boxes next week, which means that the specifications are final at this time. According to our sources, the 4850 will come with single-slot cooling; CrossFireX is supported with up to four boards in a single system (if you have the appropriate board based on AMD 790FX, 790GX, Intel Skulltrail, X48) and each board will require a single 6-pin PCIe power connector.
AMD will follow up in July and launch the Radeon 4870 512 MB GDDR5 and the 4870 X2 1024 MB GDDR5 (R700). The Radeon 4870 chip is built onto a board codenamed “Trojan” (could be named after a condom brand or a horse; we pick the latter) and comes with a dual-slot cooler, following the tradition of earlier XX70 boards. Our previous information about the memory buffer was a bit inaccurate, since the cost of Qimonda's GDDR5 memory apparently was not compatible with the targeted pricing of these cards. The 4870 includes 512MB GDDR5 memory and surpasses upcoming Nvidia cards in terms of bandwidth. However, if any ATI partner wants to build a 1024 MB GDDR5 board, ATI will not say no, we were told. But don't expect this to happen until early fall, since everybody wants to move as many units as possible.[...]
usw.
Er nennt ganz andere Preise:
The Radeon 4850 will succeed the 3850 512MB and should cost about $189-$219 at launch. Our sources indicated that 4870 GDDR5 cards will cost between $249 and $279, but somehow we feel that AMD might aim go for $199 and $249 at launch.
reunion
2008-05-15, 10:51:03
X2 erst am Ende Q3/Anfang Q4? :|
Wen interessiert die X2? Wenn schon CF dann ist es ohnehin wesentlich sinnvoller sich gleich zwei RV770-Karten zu kaufen. Das ist billiger, in der Regel deutlich leiser, und dank der höheren PCIe-Bandbreite auch schneller.
Was ist den der GT200? Absoluter High End, jenseits der 500€ Marke! Viel billiger kann der GT200 gar nicht werden...nicht bei der spekulierten DIE Grösse! Und für dieses Segment gibt es kaum Käufer.
Jo, ham wir jetzt gelacht.
Die Stückzahlen des G80 (GTX, GTS) waren gigantisch und so wird es auch beim GT200 sein.
Schlammsau@work
2008-05-15, 11:23:15
Jo, ham wir jetzt gelacht.
Die Stückzahlen des G80 (GTX, GTS) waren gigantisch und so wird es auch beim GT200 sein.
Was???
wie kommst du jetzt auf die GTS????
Die 8800 GTX wird jetzt gut verkauft, aber doch nicht im ersten halben bis ganzen Jahr nach dem Release!
Du wirst sehen, wenn der GT200 doch nur eine MultiGPU Lösung oder neue Rekorde im Stromverbrauch aufstellt, kaufen ihn nur wenige Enthusiasten like Tombman und Co.!
K4mPFwUr$t
2008-05-15, 11:27:09
@Schlammsau@work
da wäre ich mir nicht so sicher, es gibt auch viele die sich den G80 gekauft haben, troz das er kein 2D modus hat/hatte. imho wird die 240W TDP überbewertet.
PS: du bist nicht umsonst gesperrt, warum postest du dann als gast? :rolleyes:
Preis, niedrigerer Stromverbrauch, DX10.1 Support, und evtl. besserer Bildqualität!?
Bessere Bildqualität?
Eher wird diese noch schlechter werden als die jetzt schon ist, weil der Leistungsvorsprung von Nvidia sich vergrößern wird.
Hvoralek
2008-05-15, 11:41:25
Für was genau wird denn Speicherbandbreite hauptsächlich gebraucht? AA, AF oder was? Könnte man die Bandbreite für tolle Filter nutzen?V.a. MSAA. Auch große Texturen brauchen einiges an Bandbreite.
Preis, niedrigerer Stromverbrauch, DX10.1 Support, und evtl. besserer Bildqualität!?Bessere BQ glaube ich nicht so recht (v.a. nicht, solange nicht bekannt ist, was hinter der angeblich 30% höheren Filterleistung pro Takt steckt). Unter Last braucht schon ein 55- nm- RV670 (3870) so viel Energie wie ein deutlich schnellerer 65- nm- G92 (8800 GT). Das wird sich kaum zu Gunsten von AMD verschieben, wenn beide in 55 nm fertigen. Man könnte also wohl höchstens über Idleverbrauch (Wenn der G92b immer noch keinen vernünftigen 2D- Modus hat), D3D10.1 und den Preis punkten. Bliebe alles wie gehabt.
K4mPFwUr$t
2008-05-15, 11:44:40
bezüglich stromverbrauch ...
http://www.xbitlabs.com/images/video/geforce9800gtx/9800gtx_power.gif
... liegt die 8800GT vor der 3870, troz das sie 65nm benutzt.
allerdings liegt die 3000er im bereich 2D vorne.
deekey777
2008-05-15, 11:45:03
...
Bessere BQ glaube ich nicht so recht (v.a. nicht, solange nicht bekannt ist, was hinter der angeblich 30% höheren Filterleistung pro Takt steckt). Unter Last braucht schon ein 55- nm- RV670 (3870) so viel Energie wie ein deutlich schnellerer 65- nm- G92 (8800 GT). Das wird sich kaum zu Gunsten von AMD verschieben, wenn beide in 55 nm fertigen. Man könnte also wohl höchstens über Idleverbrauch (Wenn der G92b immer noch keinen vernünftigen 2D- Modus hat), D3D10.1 und den Preis punkten. Bliebe alles wie gehabt.
Moment, es muss ja nicht heißen, dass der RV770 in dem gleichen Verfahren gefertigt wird wie der RV670. Bei 55 nm für RV620/RV635/RV670 hatte AMD (bzw. der Auftragsfertiger) kein besonders gutes Händchen, so dass die 55nm-Fertigung keine deutlichen Vorteile zu 65 nm hat. Bei RV770 könnte dies anders aussehen.
K4mPFwUr$t
2008-05-15, 11:46:57
@deekey777
65nm zu 55nm ist doch ein rein optischer shrink. in wie fern sollte die fertigung des RV770 in 55nm groß besser sein, als das TSMC und AMD das ganze optimiert haben aus erfahrungswerten?
deekey777
2008-05-15, 12:05:15
bezüglich stromverbrauch ...
http://www.xbitlabs.com/images/video/geforce9800gtx/9800gtx_power.gif
... liegt die 8800GT vor der 3870, troz das sie 65nm benutzt.
allerdings liegt die 3000er im bereich 2D vorne.
Bei der 8800GT ist ein ganzer Cluster deaktiviert, da ist der Blick auf die 8800GTS interessanter.
@deekey777
65nm zu 55nm ist doch ein rein optischer shrink. in wie fern sollte die fertigung des RV770 in 55nm groß besser sein, als das TSMC und AMD das ganze optimiert haben aus erfahrungswerten?
Das weiß ich nicht. Aber schaue dir die Entwicklung an: Der RV670 wurde - für viele überraschend - im November 2007 als A11 (?) veröffentlicht, da diese die Ansprüche von AMD erfühlte. Etwa drei Monate später kam die 3870X2, bei der jeder RV670 um 50 MHz höher getaktet ist (neue Revision?), auch sind die meisten HD3870 mit 825 MHz getaktet, es gibt nur wenige Standardmodelle.
Wäre der RV670 zum geplanten Termin (Januar 2008!) fertig, so wäre er möglicherweise besser, was die Energieeffizienz betrifft (die 81 Watt der HD3870 stammen noch aus Dezember 2007 (http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0)).
Hvoralek
2008-05-15, 13:07:28
Moment, es muss ja nicht heißen, dass der RV770 in dem gleichen Verfahren gefertigt wird wie der RV670. Bei 55 nm für RV620/RV635/RV670 hatte AMD (bzw. der Auftragsfertiger) kein besonders gutes Händchen, so dass die 55nm-Fertigung keine deutlichen Vorteile zu 65 nm hat. Bei RV770 könnte dies anders aussehen.Afaik nutzen RV770 und G92b denselben 55- nm- Prozess. Soll nun der Wechsel von einem 55- nm- Prozess auf einen anderen mehr bringen als der von 65 nm auf denselben 55- nm- Prozess?
Bei der 8800GT ist ein ganzer Cluster deaktiviert, da ist der Blick auf die 8800GTS interessanter.Selbst die teildeaktivierte GT ist schon ein gutes Stück schneller als die 3870 bei ähnlichem Energieverbrauch. Wieso soll mit Blick auf Energieeffizienz die GTS aussagekräftiger sein?
Das weiß ich nicht. Aber schaue dir die Entwicklung an: Der RV670 wurde - für viele überraschend - im November 2007 als A11 (?) veröffentlicht, da diese die Ansprüche von AMD erfühlte. Etwa drei Monate später kam die 3870X2, bei der jeder RV670 um 50 MHz höher getaktet ist (neue Revision?), auch sind die meisten HD3870 mit 825 MHz getaktet, es gibt nur wenige Standardmodelle.
Wäre der RV670 zum geplanten Termin (Januar 2008!) fertig, so wäre er möglicherweise besser, was die Energieeffizienz betrifft (die 81 Watt der HD3870 stammen noch aus Dezember 2007 (http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0)).Müsste man mal die neueren RV670 vermessen. Übertaktete Versionen gibt es bei G92 jedenfalls auch reichlich.
GeneralHanno
2008-05-15, 13:09:51
Das weiß ich nicht. Aber schaue dir die Entwicklung an: Der RV670 wurde - für viele überraschend - im November 2007 als A11 (?) veröffentlicht, da diese die Ansprüche von AMD erfühlte. Etwa drei Monate später kam die 3870X2, bei der jeder RV670 um 50 MHz höher getaktet ist (neue Revision?), auch sind die meisten HD3870 mit 825 MHz getaktet, es gibt nur wenige Standardmodelle.
Wäre der RV670 zum geplanten Termin (Januar 2008!) fertig, so wäre er möglicherweise besser, was die Energieeffizienz betrifft (die 81 Watt der HD3870 stammen noch aus Dezember 2007).
die X2 ist auch A11, also die selbe rev wie die singelkarten auch ;)
uhrspürglich was A11 ja nur für ES gedacht und A12 sollte marktreif sein. doch A11 lief wider erwarten fehlerfrei. ob die mobilen 3800er nun doch noch auf A12 setzen vermag ich nicht zu sagen ...
Afaik nutzen RV770 und G92b denselben 55- nm- Prozess. Soll nun der Wechsel von einem 55- nm- Prozess auf einen anderen mehr bringen als der von 65 nm auf denselben 55- nm- Prozess?
...
Steht den irgend wo dass das MEHR bringen soll? Ich lese dass beide evtl noch Potential zur Verbesserung haben. Zumal es nicht nur DEN 55nm Prozess gibt.
Zwischenfrage;
Hanno, was meinst du mit "ES"?
Gruß
AnarchX
2008-05-15, 13:27:42
Wäre der RV670 zum geplanten Termin (Januar 2008!) fertig, so wäre er möglicherweise besser, was die Energieeffizienz betrifft (die 81 Watt der HD3870 stammen noch aus Dezember 2007 (http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0)).
Müsste man mal die neueren RV670 vermessen. Übertaktete Versionen gibt es bei G92 jedenfalls auch reichlich.
Wenn ich mir den Verbrauch der X2 anschaue, dann scheint es keine Verbesserungen gegeben zu haben:
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
Sieht ganz nach den ~125W für die 825MHz 2950XT aus, die mal in den Folien existierte.
btw.
Bei PCZilla gibt es nochmal eine brauchbare Übersetzung des HKEPC-Textes:
Information leaking! Radeon HD 4800 VS. GeForce GTX 200! (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html)
Und dann noch etwas über die Potentialfreisetzung von GDDR5 durch den Treiber:
ATI now focuses on improving the RV770 drivers (http://r800.blogspot.com/2008/05/ati-now-focuses-on-improving-rv770.html)
CJ meint, dass RV770XT unter 800MHz liegen soll:
http://forum.beyond3d.com/showpost.php?p=1162197&postcount=1630
:|
CJ meint, dass RV770XT unter 800MHz liegen soll:
http://forum.beyond3d.com/showpost.php?p=1162197&postcount=1630
:|
Wer auch immer CJ ist, er ist offenbar Realist.
Eine Taktsteigerung zum RV670 wird es beim RV770 nicht geben, weil der Chip größer (breiter) ist.
CJ meint, dass RV770XT unter 800MHz liegen soll:
http://forum.beyond3d.com/showpost.php?p=1162197&postcount=1630
:|
Also doch evt. Core und Shader getrennt?
Hvoralek
2008-05-15, 14:24:39
Steht den irgend wo dass das MEHR bringen soll? Ich lese dass beide evtl noch Potential zur Verbesserung haben. Zumal es nicht nur DEN 55nm Prozess gibt.Wenn AMD mit Energieeffizienz punkten können soll (und darum geht es ja), müsste ihr Wechsel von einem 55- nm- Prozess auf einen anderen deutlich mehr bringen als der Nvidia- Wechsel von 65 nm auf den (m.W.) gleichen 55- nm- Prozess.
CJ meint, dass RV770XT unter 800MHz liegen soll:
http://forum.beyond3d.com/showpost.php?p=1162197&postcount=1630
:|Bei 7xx MHz würden 32 TMUs/ 96 Vec5 ganz gut zu 50-60% Mehrleistung passen.
reunion
2008-05-15, 14:27:59
AMD To Launch RV770 On June 18th: http://www.vr-zone.com/articles/AMD_To_Launch_RV770_On_June_18th/5777.html
AMD has just confirmed the marketing name for RV770 yesterday which is no surprise to anyone, the Radeon HD 4800 series. RV770PRO is Radeon HD 4850, RV770XT is Radeon HD 4870 and R700 is Radeon HD 4870 X2. AMD will be shipping RV770 GPUs to AIB by end of this month and you can expect different card designs from the manufacturers at launch. AMD is set to launch the Radeon HD 4850 on June 18th and it is definitely a hard one with retail availability on the same day. Radeon HD 4870, however, will be launched a week later on June 25th with retail availability in July due to GDDR5 availability. Radeon HD 4870 X2 will come later in Q3. As for the clocks, we won't be revealing them yet but the RV770XT core clock is not going anywhere above 800MHz.
Also doch evt. Core und Shader getrennt?
Eher unwahrscheinlich, weil dies größere Änderungen an der Chiparchitektur erfordern würde.
AnarchX
2008-05-15, 14:31:19
VR-Zone folgt also auch der <800MHz Theorie, wobei sie auch in Verbindung mit CJ stehen.
Selbst wenn dieser Takt aus TDP-Gründen festgelegt wurde, dann passt es doch nicht ganz zu den 980MHz OC @ Singleslot die Chiphell behaupten...
[fu]121Ah
2008-05-15, 14:32:38
ich dachte da auch an mehr... für die pro, naja, für die xt hätte ich ca. 900 erwartet.
Hvoralek
2008-05-15, 14:36:35
Selbst wenn dieser Takt aus TDP-Gründen festgelegt wurde, dann passt es doch nicht ganz zu den 980MHz OC @ Singleslot die Chiphell behaupten...Das war mit einer Pro. Ist sicher, dass die nur heruntergetaktet und nicht teildeaktiviert ist?
Sorkalm
2008-05-15, 14:43:27
AMD To Launch RV770 On June 18th
Dass hieße RV770 und GT200 starten am selben Tag.
K4mPFwUr$t
2008-05-15, 15:24:10
wäre ja ideal ;D
so könnte man perfekt vergleichen und zur richtigen greifen ;)
fragt sich nur ob die review seiten 2 grakas für ein review packen ;)
fragt sich nur ob die review seiten 2 grakas für ein review packen ;)
Wiso nicht? Die bekommen doch die HW rechtzeitig genung und so lang dauert das auch wieder nicht.
Ailuros
2008-05-15, 15:43:08
Wer auch immer CJ ist, er ist offenbar Realist.
Eine Taktsteigerung zum RV670 wird es beim RV770 nicht geben, weil der Chip größer (breiter) ist.
CJ hat ausgezeichnete Quellen bei TSMC und hat aeusserst selten unrecht. Es hat gar nichts mit Realismus zu tun in diesem Fall.
Realismus war als manche von uns schon vor einiger Zeit den Bloedsinn ueber angebliche =/>900MHz Frequenzen als Wunschtraum abstempelten.
[fu]121Ah
2008-05-15, 16:08:23
CJ hat ausgezeichnete Quellen bei TSMC und hat aeusserst selten unrecht. Es hat gar nichts mit Realismus zu tun in diesem Fall.
Realismus war als manche von uns schon vor einiger Zeit den Bloedsinn ueber angebliche =/>900MHz Frequenzen als Wunschtraum abstempelten.
naja, obs wunschtraum ist hängt von der fertigung und der komplexität ab (wie du ja weisst). meine rv670 macht bei default spannung auch 880 mit... wenn du die 900 als wunschtraum bezeichnest, ok, damit kann ich leben, aber unmöglich waren/sind sie nicht.
K4mPFwUr$t
2008-05-15, 16:11:35
@[fu]121Ah
nur weil du einen guten erwischt hast, machen alle anderen RV670 das natürlich auch mit :rolleyes:
die spezifikationen sind nicht umsonst so wie sie sind. zugunsten der yield und einen gewissen sicherheitsabstand.
CJ hat ausgezeichnete Quellen bei TSMC und hat aeusserst selten unrecht. Es hat gar nichts mit Realismus zu tun in diesem Fall.
Realismus war als manche von uns schon vor einiger Zeit den Bloedsinn ueber angebliche =/>900MHz Frequenzen als Wunschtraum abstempelten.
Ich glaub eher, dass da Dinge durcheinandergeworfen wurden. Wenn es diese separate Shaderdomain-Taktung mit über 1GHz gibt, kann da schnell mal 1GHz Chiptakt draus werden.
Wieso soll die X2 denn so viel später releast werden? Kommt das vielleicht doch etwas Größeres auf uns zu? In der PCGH Quelle steht zumindest, dass kein PLX Chip mehr für die Kommunikation zum Zuge kommen wird.
Psychopat
2008-05-15, 17:35:25
Standardantwort: die X2 wird ein verbessertes Stepping haben, das energieeffizienter ist.
GeneralHanno
2008-05-15, 17:39:02
wenn der RV770 tatsächlich 480SP+32TMUs bekommen sollte und ein "abkömmling" des RV670 ist (gleicher prozess, ähnliche TDP), dann heißt das doch zwangsläufig, dass AMD wesentlich moderatere taktraten fahren muss ...
anddill
2008-05-15, 18:13:03
Wieso soll die X2 denn so viel später releast werden? Kommt das vielleicht doch etwas Größeres auf uns zu? In der PCGH Quelle steht zumindest, dass kein PLX Chip mehr für die Kommunikation zum Zuge kommen wird.
Doch ein direkter Crossbar zwischen Ram und den beiden Chips? -hoff-:smile:
Doch ein direkter Crossbar zwischen Ram und den beiden Chips? -hoff-:smile:
würde es dann sozusagen wie ein chip arbeiten?
robbitop
2008-05-15, 18:19:36
Man wird vermutlich, um die Margen zu schonen, eine eigene Bridge entworfen haben. Die PLX soll ja sau hohe Listenpreise gehabt haben.
@[fu]121Ah
nur weil du einen guten erwischt hast, machen alle anderen RV670 das natürlich auch mit :rolleyes:
die spezifikationen sind nicht umsonst so wie sie sind. zugunsten der yield und einen gewissen sicherheitsabstand.
sagte ja auch nicht dass ich ein "std.exemplar" habe, nur, dass es prinzipiell möglich ist. erinnere mich da an die gf2 ultra, welche in extrem kleinen mengen verkauft wurde, einfach eine gute auslese machen und die wirklich guten chips mit extremen taktraten anbieten.
anddill
2008-05-15, 18:25:38
Man wird vermutlich, um die Margen zu schonen, eine eigene Bridge entworfen haben. Die PLX soll ja sau hohe Listenpreise gehabt haben.
Bääh. Aber ich fürchte, Du hast Recht.
K4mPFwUr$t
2008-05-15, 18:33:59
aus der reaktion darf man wohl ableiten das es wohl nichts brauchbares sein wird.
halt nur eine einfache und billige lösung.
aus der reaktion darf man wohl ableiten das es wohl nichts brauchbares sein wird.
halt nur eine einfache und billige lösung.
oder einfach bridge < vrossbar...
:tongue:
sagte ja auch nicht dass ich ein "std.exemplar" habe, nur, dass es prinzipiell möglich ist. erinnere mich da an die gf2 ultra, welche in extrem kleinen mengen verkauft wurde, einfach eine gute auslese machen und die wirklich guten chips mit extremen taktraten anbieten.
so isses, sah zuletzt bei der 8800U genauso aus.
selektion und evtl. noch ne kleine anhebung der Vss und fertig
deekey777
2008-05-15, 22:23:25
Man wird vermutlich, um die Margen zu schonen, eine eigene Bridge entworfen haben. Die PLX soll ja sau hohe Listenpreise gehabt haben.
Es hat sich wohl kostenmäßig gelohnt, den Chip von PLX zu nutzen, selbst wenn PLX hohe Preise verlangt haben sollte.
Gaestle
2008-05-15, 22:42:49
Man wird vermutlich, um die Margen zu schonen, eine eigene Bridge entworfen haben. Die PLX soll ja sau hohe Listenpreise gehabt haben.
Wenn AMD in der nächsten Serie (Rx8xx) evtl. tatsächlich Multichip auf einem Die oder einem Träger haben sollten, warum sollte AMD dann noch hier in die Entwicklung investieren? Ob sich das lohnt?
deekey777
2008-05-15, 23:14:17
Wenn AMD in der nächsten Serie (Rx8xx) evtl. tatsächlich Multichip auf einem Die oder einem Träger haben sollten, warum sollte AMD dann noch hier in die Entwicklung investieren? Ob sich das lohnt?
Man kann so einen Chip auch auf Mainboards verwenden.
Außerdem ist eine Bridge von der Komplexität her lächerlich, da gibt´s nicht viel zu entwickeln.
Sorkalm
2008-05-15, 23:41:47
Vll. ist die Bridge direkt im Die integriert wurden, viele Transistoren enthält die ja nicht...
Sorkalm
2008-05-16, 00:55:46
http://forums.vr-zone.com/showthread.php?t=276250
Das einzige darin ist wohl die Angabe "256-bit memory interface", was wohl aber auch mit einem logischen Denken klar wird...
AnarchX
2008-05-16, 08:46:57
Vielleicht doch Hoffnung:
RV770XT (160W) GDDR5 = 1.3 faster vs RV770PRO (110W) GDDR3
RV770PRO = 1.25 faster vs 8800GT
RV7700XT = 1.25 faster vs 9800GTX
... von der Quelle (http://gathering.tweakers.net/forum/view_message/30074804), die doch bisher richtige Daten im Falle von RV670 und G92 verkündet hat.
http://forums.vr-zone.com/showthread.php?t=276250
Das einzige darin ist wohl die Angabe "256-bit memory interface", was wohl aber auch mit einem logischen Denken klar wird...
UVD 2 ;)
Bei PCpop will man schon mehr darüber wissen:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F294%2F294011_2.shtml&sl=zh-CN&tl=de&hl=de&ie=UTF-8
Was heißt hier "Hoffnung"? Im Mainstream/Performance Segment wird ATI vermutlich dass bessere Angebot haben:
- Weniger Verbrauch
- Weniger Wärme
- DX10.1
Den Enthusiastbereich haben sie, wenn man den GTX280 Meldungen glauben darf, hoffnugnslos verloren. Und wenn sie mit einer X2 kontern kommen sie vielleicht auf das gleiche Niveau, allerdings mit SLI/CF Nachteil (Lärm, Wärme, Microruckler).
[fu]121Ah
2008-05-16, 09:38:45
Was heißt hier "Hoffnung"? Im Mainstream/Performance Segment wird ATI vermutlich dass bessere Angebot haben:
- Weniger Verbrauch
- Weniger Wärme
- DX10.1
Den Enthusiastbereich haben sie, wenn man den GTX280 Meldungen glauben darf, hoffnugnslos verloren. Und wenn sie mit einer X2 kontern kommen sie vielleicht auf das gleiche Niveau, allerdings mit SLI/CF Nachteil (Lärm, Wärme, Microruckler).
wobei mir der lärm und der verbrauch bei diesen watt-zahlen eigentlich noch erträglich erscheint. besseres stepping, etwas weniger vss und jut ist. dürfte dann gut und gerne 10 - 20 % unter dem verbrauch einer 3870 x2 liegen - > dann würde selbst ich mir das überlegen (wenns ne geile crossbar gibt, ist das ding eh gekauft.)
GeneralHanno
2008-05-16, 10:26:20
RV770XT (160W) GDDR5 = 1.3 faster vs RV770PRO (110W) GDDR3
RV770PRO = 1.25 faster vs 8800GT
RV7700XT = 1.25 faster vs 9800GTX
das würde doch bedeuten (kombinatorik^^), dass die 9800GTX 30% schneller wäre als die 8800GT :|
naja egal, hauptsache ein indiez, dass der RV770 den G92 mehr oder minder klar schlägt ... alles andere wäre aber auch enttäuschend ...
das würde imo für die 480SP+32TMU theorie sprechen ...
reunion
2008-05-16, 10:58:06
http://forums.vr-zone.com/showthread.php?t=276250
Das einzige darin ist wohl die Angabe "256-bit memory interface", was wohl aber auch mit einem logischen Denken klar wird...
Naja, UVD2 und 7.1 Sound über den HDMI ist auch neu.
naja egal, hauptsache ein indiez, dass der RV770 den G92 mehr oder minder klar schlägt ...
In Vram-Lastigen Games und mit 8xAA wird der RV770 regelrecht Bahnen um den G92 ziehn :P
reunion
2008-05-16, 11:03:59
RV770XT and Pro to launch on June 16th: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7362&Itemid=1
robbitop@work
2008-05-16, 12:01:27
Es hat sich wohl kostenmäßig gelohnt, den Chip von PLX zu nutzen, selbst wenn PLX hohe Preise verlangt haben sollte.
Man war gezwungen, das Ding zu nehmen. Da man nichts eigenes hatte und man Produkte auf den Markt bringen wollte.
So ein Ding zu entwickeln ist aber natürlich auch eine Frage des Marktpotenzial so eines Dings.
Hvoralek
2008-05-16, 12:31:25
Vielleicht doch Hoffnung:
... von der Quelle (http://gathering.tweakers.net/forum/view_message/30074804), die doch bisher richtige Daten im Falle von RV670 und G92 verkündet hat.Wenn die TDP- Angaben stimmen, bin ich mal gespannt auf die X2- Ausführung. Selbst wenn das nur zwei Pro- Chips sind, wäre das eine Stromschleuder wie eine 9800 GX2. An zwei XT- Chips möchte ich gar nicht denken; dagegen sähen ja sogar die vermuteten 250W TDP für die GTX 280 sparsam aus :|
Was heißt hier "Hoffnung"? Im Mainstream/Performance Segment wird ATI vermutlich dass bessere Angebot haben:
- Weniger Verbrauch
- Weniger Wärme
- DX10.1Auf die ersten beiden Punkte würde ich nicht wetten. Im Leerlauf wird AMD sicher weiterhin vorne liegen (selbst wenn Nvidia sich noch besinnen sollte, einen 2D- Modus anzubieten), aber bei der Energieeffizienz unter Last wäre ich sehr erstaunt, wenn RV770 G92b schlägt. Die Kühlung wird man jeweils abwarten müssen, allerdings hat sich AMD/ ATI bei Einzelkarten mit einer TDP >> 100W bisher nicht gerade mit Ruhm in Form von leisen Kühlern beckleckert.
reunion
2008-05-16, 12:36:15
Wenn die TDP- Angaben stimmen, bin ich mal gespannt auf die X2- Ausführung. Selbst wenn das nur zwei Pro- Chips sind, wäre das eine Stromschleuder wie eine 9800 GX2. An zwei XT- Chips möchte ich gar nicht denken; dagegen sähen ja sogar die vermuteten 250W TDP für die GTX 280 sparsam aus :|
Mehr als 300W TDP ist ohnehin nicht drinnen, wenn man nicht noch einen dritten Stromanschluss verbauen und damit die PCIe-Specs verlassen will. Ich denke, dass man zwei PRO-Chips verwendet. Damit sollte man ungefähr die TDP einer 3870 X2 erreichen, also nicht ungewöhnliches.
allerdings hat sich AMD/ ATI bei Einzelkarten mit einer TDP >> 100W bisher nicht gerade mit Ruhm in Form von leisen Kühlern beckleckert.
Nee garnich :rolleyes: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/29/#abschnitt_lautstaerke
[fu]121Ah
2008-05-16, 12:54:03
Mehr als 300W TDP ist ohnehin nicht drinnen, wenn man nicht noch einen dritten Stromanschluss verbauen und damit die PCIe-Specs verlassen will. Ich denke, dass man zwei PRO-Chips verwendet. Damit sollte man ungefähr die TDP einer 3870 X2 erreichen, also nicht ungewöhnliches.
na, 300w wird so n ding eh nicht überschreiten, ausser du taktest die chips je auf 1ghz... persönlich denke ich, dass die Angaben ziemlich "normal" erscheinen, nicht vergessen, sind TDPs und nicht der reale verbrauch...
Schlammsau
2008-05-16, 13:01:11
also der RV770Pro soll eine TDP von 110Watt haben und ungefähr auf 9800GTX Niveau sein!? Hat nicht schon der RV670 eine gleich hohe TDP?
Der RV770XT soll dann ungefähr auf 3870X2 Augenhöhe sein!?
Wenn das stimmen sollte, kann man dem GT200 paroli bieten.
War es nicht auch so, dass AMD/ATi und nVidia verschiedene "Ansichten" bei den Angaben des maximalen Verbrauchs haben? Oder verwechsle ich da was?
Sorkalm
2008-05-16, 13:01:19
Die Kühlung wird man jeweils abwarten müssen, allerdings hat sich AMD/ ATI bei Einzelkarten mit einer TDP >> 100W bisher nicht gerade mit Ruhm in Form von leisen Kühlern beckleckert.
Die Kühlung der 3800er war doch OK. :)
Hvoralek
2008-05-16, 13:05:20
Nee garnich :rolleyes: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/29/#abschnitt_lautstaerkeLies nochmal das durch, was Du gerade zitiert hast. Ich habe bewusst nicht geschrieben, "> 100W", sondern ">>100 W". Die TDP der 3870 liegt bei 105 W, also nur sehr knapp darüber. Einzelkarten mit einer TDP deutlich über 100W (X1950XT, 2900 XT) sind klar lauter als vergleichbar stromhungrigen Nvidiakarten (v.a. 8800 GTX/ Ultra). Natürlich hat sich auch Nvidia nicht bei allen Modellen "mit Ruhm in Form von leisen Kühlern beckleckert" und v.a. bei billigeren auch am Kühler gespart. Bei Einzelkarten mit Stromverbrauch in der Region aber schon, ebenso auch in dem Bereich, in dem G92b liegen sollte (8800 GT, GTS 512, 9800 GTX).
Wenn eine 4870 mit 160W TDP wirklich gegenüber G92b mit signifikant geringerer Lautstärke punkten können sollte, würde mich das schon erstaunen.
Und falls Du es jetzt als nervige Wortklauberei empfindest, gezielt von Karten mit deutlich über 100W TDP zu sprechen, nimm meinetwegen Karten mit 100W Realverbrauch unter Volllast. Da würde eine 160W- TDP- 4870 auch liegen.
Die Kühlung der 3800er war doch OK. :)Wie gesagt: Die 3870 wollte ich mit der Formulierung gerade ausschließen, weil deren Stromverbrauch schon deutlich unter den hier genannten 160W TDP liegt.
Schlammsau
2008-05-16, 13:11:06
............
Dann nimm doch die Standardkühlung der 3870X2!
Hvoralek
2008-05-16, 13:28:08
Dann nimm doch die Standardkühlung der 3870X2!Nennst Du so etwas (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/22/#abschnitt_lautstaerke) gerade leise, insbesondere verglichen mit einer G92- ähnlichen Verlustleistung/ Kühlung?
[fu]121Ah
2008-05-16, 14:59:59
Nennst Du so etwas (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/22/#abschnitt_lautstaerke) gerade leise, insbesondere verglichen mit einer G92- ähnlichen Verlustleistung/ Kühlung?
achtung, dual lüfter sind immer lauter, weil die schallwellen sich ja nicht gegenseitig aufheben sondern ANheben!
Schlammsau
2008-05-16, 15:15:14
Nennst Du so etwas (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/22/#abschnitt_lautstaerke) gerade leise, insbesondere verglichen mit einer G92- ähnlichen Verlustleistung/ Kühlung?
Die X2 ist nach der GX2 die zweitschnellste Karte auf dem Markt!!
Der Verbrauch liegt unter Last leicht unter dem der GX2!
Und was sagen uns diese Tabellen? Richtig, der Kühler der X2 ist der zweitlauteste nach der GX2 in diesem Test!
Ehrlich gesagt möchte ich nicht wissen, was für eine Turbine der Kühler der GT200 inne hat!
[fu]121Ah
2008-05-16, 15:19:56
Die X2 ist nach der GX2 die zweitschnellste Karte auf dem Markt!!
Der Verbrauch liegt unter Last leicht unter dem der GX2!
Und was sagen uns diese Tabellen? Richtig, der Kühler der X2 ist der zweitlauteste nach der GX2 in diesem Test!
Ehrlich gesagt möchte ich nicht wissen, was für eine Turbine der Kühler der GT200 inne hat!
keine anfeindungen hier schlammsau ;) der GT200 wird die R700 wohl auch zum Frühstück nehmen (nach den theoretischen zahlen). also ruhig blut. ich wünsche beiden IHVs, dass sie intel ein paar prozente marktanteil abjagen können!
Schlammsau
2008-05-16, 15:21:25
121Ah;6506596']keine anfeindungen hier schlammsau ;) der GT200 wird die R700 wohl auch zum Frühstück nehmen (nach den theoretischen zahlen). also ruhig blut. ich wünsche beiden IHVs, dass sie intel ein paar prozente marktanteil abjagen können!
wieso anfeindungen?
Hvoralek
2008-05-16, 15:29:28
121Ah;6506543']achtung, dual lüfter sind immer lauter, weil die schallwellen sich ja nicht gegenseitig aufheben sondern ANheben!Der Vergleich war nicht meine Idee.
Wäre denn ein Lüfter, der eine ähnliche Abwärme von einem Chip ableiten muss, nennenswert leiser? Ich weiß, dass die TDP der X2 über 160W liegt (müssten etwa 200W sein). Naheliegend wäre wohl ein Vergleich mit der X1950XT.
Die X2 ist nach der GX2 die zweitschnellste Karte auf dem Markt!!
Der Verbrauch liegt unter Last leicht unter dem der GX2!
Und was sagen uns diese Tabellen? Richtig, der Kühler der X2 ist der zweitlauteste nach der GX2 in diesem Test!
Ehrlich gesagt möchte ich nicht wissen, was für eine Turbine der Kühler der GT200 inne hat!Um die Leistung dieser Karten geht es doch gar nicht. Lautstärkevergleiche 3870X2 - 9800GX2 oder (spekulativ) RV770XT gegen GT200 interessieren mich in diesem Zusammenhang auch eher weniger, sondern (spekulativ) RV770 - G92b.
Die Frage ist also, ob man erwarten kann, dass AMD diese vermuteten 160W TDP leise wegkühlen kann, und zwar leiser als Nvidia die Abwärme des G92b. Gibt es überhaupt einen einzigen AMD-/ ATI- Kühler, der eine Karte mit einer TDP auch in der Nähe von 160W leise in den Griff bekommen hätte? Die 1950XT dürfte in dem Bereich liegen, mit dem bekannten Ergebnis. Dass es möglich ist, so etwas leise zu kühlen, zeigt ja die 8800 Ultra. Ob AMD es auch mal schafft, einen vergleichbaren Kühler zu bauen und das noch auf einer Performancekarte, wird man sehen müssen. Wenn G92b eine ähnliche Abwärme produziert wie G92 und ähnlich gekühlt wird, ist das jedenfalls eine harte Nuss.
Auf den GT200- Kühler bin ich auch mal gespannt. Das gehört aber hier nicht hin.
LovesuckZ
2008-05-16, 15:34:12
Vielleicht doch Hoffnung:
... von der Quelle (http://gathering.tweakers.net/forum/view_message/30074804), die doch bisher richtige Daten im Falle von RV670 und G92 verkündet hat.
Die Werte sehen ziemlich komisch aus. Die XT hat 50 Watt mehr drauf und soll nur 25% schneller als die Pro sein, die trotz 30% mehr Transistoren nicht mehr strom aufnimmt wie die 3870?
Na, da sollte man wohl doch eher auf eine andere Quelle warten.
Sorkalm
2008-05-16, 15:37:12
Die XT hat eine relativ hohe Spannung, die Pro eine niedrige. War beim RV670 so und wird wohl auch beim RV770 so.
Apparently, RV770XT with GDDR5 (160W) will run 1.3X faster than RV770PRO with GDDR3 (110W). Two key factors that contribute to the 30% difference in performance between the 2 cards: a 100MHz core clock difference and a faster GDDR5 at 1.96GHz vs GDDR3 at 1GHz.
http://www.vr-zone.com/articles/RV770_Preliminary_Performance_Revealed/5782.html
Stellt sich auch die Frage wer diese Performance-Unterschied aufzeichnet, sind das Folien von AMD?
reunion
2008-05-16, 15:41:51
Die Werte sehen ziemlich komisch aus. Die XT hat 50 Watt mehr drauf und soll nur 25% schneller als die Pro sein, die trotz 30% mehr Transistoren nicht mehr strom aufnimmt wie die 3870?
Na, da sollte man wohl doch eher auf eine andere Quelle warten.
Das ist nicht komisch, sondern logisch. Mit den Taktraten steigt auch die Spannung, was zu einer überproportionalen Steigerung der Leistungsaufnahme führt. Zudem dürfte der GDDR5 mit ~2Ghz auch nicht gerade stromsparend sein. Übrigens soll die XT 30% schneller sei, nicht 25%.
Schlammsau
2008-05-16, 15:44:07
Zudem dürfte der GDDR5 mit ~2Ghz auch nicht gerade stromsparend sein.
eigentlich dachte ich, dass GDDR5 um einiges sparsamer als GDDR3 ist!
klar macht das der hohe Takt wieder wett aber den absoluten Löwenanteil wird mit Sicherheit die höhere VCore der GPU sein.
LovesuckZ
2008-05-16, 15:44:57
Das ist nicht komisch, sondern logisch. Mit den Taktraten steigt auch die Spannung, was zu einer überproportionalen Steigerung der Leistungsaufnahme führt. Zudem dürfte der GDDR5 mit ~2Ghz auch nicht gerade stromsparend sein. Übrigens soll die XT 30% schneller sei, nicht 25%.
Zwischen der 8800GTS und der 8800GTX liegen knapp 30Watt (19%) und der Leistungsunterschied lag zwischen 30-50%.
Dort sollen es 50 Watt (45%) und nur maximal 30% sein. Abgesehen davon, wir will man 25% schneller als die 3870 sein und nur 5 Watt mehr verbrauchen?
Dazu kommt, wie Schlammsau erwähnte, dass GDDR5 wohl kaum stromhungriger wie GDDR3 auf 1000MHz sein sollte. Entweder ist der rv770 nicht wirklich effizient oder die Angaben sind falsch.
Schlammsau
2008-05-16, 15:54:16
Zwischen der 8800GTS und der 8800GTX liegen knapp 30Watt (19%) und der Leistungsunterschied lag zwischen 30-50%.
Dort sollen es 50 Watt (45%) und nur maximal 30% sein. Abgesehen davon, wir will man 25% schneller als die 3870 sein und nur 5 Watt mehr verbrauchen?
Dazu kommt, wie Schlammsau erwähnte, dass GDDR5 wohl kaum stromhungriger wie GDDR3 auf 1000MHz sein sollte. Entweder ist der rv770 nicht wirklich effizient oder die Angaben sind falsch.
das sind alles nur Spekulationen.....
LovesuckZ, vergleich doch mal die 8800GTS 512MB mit der 9800GTX! Die GTX ist doch im Schnitt auch nur 6% schneller, verbraucht unter Last aber 11% mehr Strom!
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/23/#abschnitt_leistungsaufnahme
wer weiss, ob die angegebenen Taktraten wirklich stimmen! Vielleicht hat der RV770XT ja 200Mhz mehr Takt?!
[fu]121Ah
2008-05-16, 15:54:45
Zwischen der 8800GTS und der 8800GTX liegen knapp 30Watt (19%) und der Leistungsunterschied lag zwischen 30-50%.
Dort sollen es 50 Watt (45%) und nur maximal 30% sein. Abgesehen davon, wir will man 25% schneller als die 3870 sein und nur 5 Watt mehr verbrauchen?
Dazu kommt, wie Schlammsau erwähnte, dass GDDR5 wohl kaum stromhungriger wie GDDR3 auf 1000MHz sein sollte. Entweder ist der rv770 nicht wirklich effizient oder die Angaben sind falsch.
wobei bei bieden 88er die gleichen rambausteine drauf sind, die spannung wohl auch nicht übermässig viel höher ausfällt und so die höhere leistung (aufgrund des breiteren interfaces) auch logisch, und in diesem zusammenhange, ohne viel höheren stromhunger zu erreichen ist.
^^schlammsau, meinte ich nur, damit keine GT200 vs RV770 diskussion daraus wird. ;)
Schlammsau
2008-05-16, 15:57:51
121Ah;6506711']
^^schlammsau, meinte ich nur, damit keine GT200 vs RV770 diskussion daraus wird. ;)
Aso :redface:
Hatte ich gar nicht vor!
reunion
2008-05-16, 15:57:51
Zwischen der 8800GTS und der 8800GTX liegen knapp 30Watt (19%) und der Leistungsunterschied lag zwischen 30-50%. Dort sollen es 50 Watt (45%) und nur maximal 30% sein.
Der Vergleich hinkt. Die 8800GTS war teildeaktiviert (und das nicht zu knapp). Der Speicher war identisch, nur etwas niedriger getaktet. Die Chipspannung dürfte sich kaum unterscheiden. Zumal ich erstmal gerne eine Quelle für deine Angaben hätte.
Abgesehen davon, wir will man 25% schneller als die 3870 sein und nur 5 Watt mehr verbrauchen?
Ein breiterer Chip benötigt weniger hohe Taktrate und damit weniger Spannung um auf dieselbe Leistung zu kommen.
Dazu kommt, wie Schlammsau erwähnte, dass GDDR5 wohl kaum stromhungriger wie GDDR3 auf 1000MHz sein sollte. Entweder ist der rv770 nicht wirklich effizient oder die Angaben sind falsch.
GDDR5 kann auch keine Wunder vollbringen. Doppelter Takt kostet, das gleicht die etwas niedrigere Spannung niemals aus.
LovesuckZ
2008-05-16, 15:58:31
121Ah;6506711']wobei bei bieden 88er die gleichen rambausteine drauf sind, die spannung wohl auch nicht übermässig viel höher ausfällt und so die höhere leistung (aufgrund des breiteren interfaces) auch logisch, und in diesem zusammenhange, ohne viel höheren stromhunger zu erreichen ist.
Dafür ist die 8800GTS nicht nur heruntergetaktet, sondern auch beschnitten.
Egal wie man es betrachtet, scheint entweder der GDDR5 oder die Architektur nicht auf hohe Taktraten ausgelegt zu sein.
Ein breiterer Chip benötigt weniger hohe Taktrate und damit weniger Spannung um auf dieselbe Leistung zu kommen.
Dafür hat der rv770 30% mehr Transistoren (spekuliert von mir). Und eine geringere Taktrate: Wo soll die für 25% Mehrleistung liegen?
GeneralHanno
2008-05-16, 15:58:43
1. verwechsel bitte nicht TDP mit reellem verbrauch
2. die XT kann eine großzügig bemessene TDP bekommen, da sie über einen dual-slot-kühler verfügt, die pro ist wohl genauer kalkuliert, damit ein singel-slot-kühler verbaut werden kann ...
3. solange nix genaueres zu taktraten und spannungen bekannst ist, sind die ganzen spekulationen sowieso sinnlos ;)
4. die performencegerüchte (xt 30% schneller als pro und auch schneller als G92) wurden von insidern auf B3D bestätigt
LovesuckZ
2008-05-16, 16:02:45
Ja, cj. Der, den auch vr-zone zitiert. ;)
reunion
2008-05-16, 16:06:10
Dafür hat der rv770 30% mehr Transistoren (spekuliert von mir). Und eine geringere Taktrate: Wo soll die für 25% Mehrleistung liegen?
Auf dem Niveau der 3850 würde ich meinen. Warum?
LovesuckZ
2008-05-16, 16:10:54
Auf dem Niveau der 3850 würde ich meinen. Warum?
Das wären 668Mhz. Eine 16% niedrige Taktung, bei 30% mehr Transistoren soll für eventuell 44% Mehrleistung reichen (ausgehend, dass eine 8800GT 15% schneller als eine 3870 ist) und das bei 5 Watt mehr?
Ich lass mich überraschen.
Schlammsau
2008-05-16, 16:11:52
was ist eigentlich aus diesen taktraten geworden? Da steht was von 200Mhz mehr GPU Takt und "nur" 800Mhz mehr Speichertakt!
http://www.hardware-infos.com/news.php?news=2008
Interessant ist die identische TDP der RV770Pro mit beiden Speicherarten!
http://www.abload.de/img/unbenanntg5y.png
reunion
2008-05-16, 16:18:05
Das wären 668Mhz. Eine 16% niedrige Taktung, bei 30% mehr Transistoren soll für eventuell 44% Mehrleistung reichen (ausgehend, dass eine 8800GT 15% schneller als eine 3870 ist) und das bei 5 Watt mehr?
Ich lass mich überraschen.
Warum nicht? Wenn wie spekuliert die Flaschenhälse angegangen wurden (doppelte Texelfüllrate, doppelte Z-Füllrate), dann kann ich auch mit deutlich weniger als der doppelten Transistorenanzahl die Leistung erheblich steigern und dank niedrigerer Taktraten trotzdem kaum mehr verbrauchen als ein hochgetakteter Chip mit weniger Transistoren.
LovesuckZ
2008-05-16, 16:23:46
Warum nicht? Wenn wie spekuliert die Flaschenhälse angegangen wurden (doppelte Texelfüllrate, doppelte Z-Füllrate), dann kann ich auch mit deutlich weniger als der doppelten Transistorenanzahl die Leistung erheblich steigern und dank niedrigerer Taktraten trotzdem kaum mehr verbrauchen als ein hochgetakteter Chip mit weniger Transistoren.
33% mehr Transistoren sollen zu 100% mehr Leistung führen? Das klingt unglaubwürdig.
Etwas, was ich sehr abwegig finde. Nehmen wir doch mal G71 und G80 zum Vergleich. Dort hat man fast genauso viele Transistoren aufbringen müssen, wie es die Leistung am Ende darstellen: 2,5 fache.
Ich glaube nicht an doppelte Texturleistung und doppelte Z-Füllrate und 50% mehr Recheneinheiten. Denn absolut gesehen, wären das 16 TMUs, 160SP und 2 Z-Füllratedinger pro ROP mehr.
reunion
2008-05-16, 16:33:48
33% mehr Transistoren sollen zu 100% mehr Leistung führen? Das klingt unglaubwürdig.
Etwas, was ich sehr abwegig finde.
Ich habe auch nicht geschrieben 100% mehr Leistung, sondern erheblich mehr Leistung. Wieviel muss sich noch herausstellen. Theoretisch wäre es aber allemal möglich.
Nehmen wir doch mal G71 und G80 zum Vergleich. Dort hat man fast genauso viele Transistoren aufbringen müssen, wie es die Leistung am Ende darstellen: 2,5 fache.
Nur das G80 zusätzlich mal eben ein viel höheres Tech-Level unterstützt, welches massiv Transistoren verschlingt.
Ich glaube nicht an doppelte Texturleistung und doppelte Z-Füllrate und 50% mehr Recheneinheiten. Denn absolut gesehen, wären das 16 TMUs, 160SP und 2 Z-Füllratedinger pro ROP mehr.
Wie die Specs wirklich aussehen werden weiß ich nicht. Ich bin aber davon überzeugt, dass TEX- und Z-Füllrate erheblich steigen, darauf deuten die Benchs von AMD hin. Zumal man auch immer beachten muss das die Transistorenanzahl natürlich nicht linear mit den Ausführungseinheiten steigt. Ein doppelter RV670 benötigt bsw. sicher nicht die doppelte Transistorenanzahl.
AnarchX
2008-05-16, 16:34:57
Nehmen wir doch mal G71 und G80 zum Vergleich. Dort hat man fast genauso viele Transistoren aufbringen müssen, wie es die Leistung am Ende darstellen: 2,5 fache.
D3D9c vs D3D10...
Relevanter ist da doch RV635 vs RV670: 378M vs 666M -> 76% mehr Transitoren bei 2.5-3-facher Leistung (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3650/22/#abschnitt_performancerating_qualitaet).
Und da passen doch 100%(woher kommen die eigentlich?) zu 33% mehr Transitoren gar nicht so schlecht.
btw.
VR-Zone scheint eine Erklärung für den Performance-Unterschied zwischen XT und Pro zu haben:
Two key factors that contribute to the 30% difference in performance between the 2 cards: a 100MHz core clock difference and a faster GDDR5 at 1.96GHz vs GDDR3 at 1GHz.
http://www.vr-zone.com/articles/RV770_Preliminary_Performance_Revealed/5782.html
LovesuckZ
2008-05-16, 16:47:05
D3D9c vs D3D10...
Relevanter ist da doch RV635 vs RV670: 378M vs 666M -> 76% mehr Transitoren bei 2.5-3-facher Leistung (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3650/22/#abschnitt_performancerating_qualitaet).
Und da passen doch 100%(woher kommen die eigentlich?) zu 33% mehr Transitoren gar nicht so schlecht.
Ich würd nicht die 3650 nehmen, denn die ist noch wesentlich langsamer als die 8600GTS - trotz deutlich mehr Transistoren.
Von G84 zu G94 liegen 75% mehr Transistoren und die G94 ist rund 2fach schnell (wenn man den mehr an Speicher mal nicht betrachtet). Bei der Fläche sind es 66,7%.
Ich habe auch nicht geschrieben 100% mehr Leistung, sondern erheblich mehr Leistung. Wieviel muss sich noch herausstellen. Theoretisch wäre es aber allemal möglich.
Es müssen mindesten 60% mehr sein, um bei 3850 Taktrate einen Vorsprung von ca. 45% zu erzielen.
Ein doppelter RV670 benötigt bsw. sicher nicht die doppelte Transistorenanzahl.
Ja. Aber es ist aus meiner Sicht unvorstellbar, das sbei einer gleichen Grundarchitektur pro 1% Mehrtransistor 2% Mehrleistung herausspringt.
also wenn die Spekulationen mit den $229 für die XT stimmen dann ist das mein nächstes CrossFire-Gespann
AnarchX
2008-05-16, 16:55:23
Ich würd nicht die 3650 nehmen, denn die ist noch wesentlich langsamer als die 8600GTS - trotz deutlich mehr Transistoren.
Von G84 zu G94 liegen 75% mehr Transistoren und die G94 ist rund 2fach schnell (wenn man den mehr an Speicher mal nicht betrachtet). Bei der Fläche sind es 66,7%.
Reden wir über ATis Architektur oder nicht?
Ja. Aber es ist aus meiner Sicht unvorstellbar, das sbei einer gleichen Grundarchitektur pro 1% Mehrtransistor 2% Mehrleistung herausspringt.
Wie reunion es schon angedeutet hat, mit x% Transitoren lässt sich nunmal ein Flaschenhals um das doppelte verbreitern, was dann entsprechende Resultate nach sich zieht.
Wie auch bei R520 vs R580, wo die 3-fache ALU-Zahl keine 60M Transitoren gekostet hat, ~20% mehr Transistoren gegenüber R520. Und gegen Ende 2006 stellte sich in shaderlastigen Games eine Steigerung deutlich jenseits dieser 20% ein. ;)
LovesuckZ
2008-05-16, 17:03:21
Reden wir über ATis Architektur oder nicht?
Was bringt es über ein Design zu reden, dass verdammt ineffizient ist? nVidia schlägt es mit 100 Millionen Transistoren weniger! Und eine 3850 ist gegenüber einer 8600GTS auch nur doppelt so schnell.
Wie reunion es schon angedeutet hat, mit x% Transitoren lässt sich nunmal ein Flaschenhals um das doppelte verbreitern, was dann entsprechende Resultate nach sich zieht.
Ich sehe hier jedoch ein paar Probleme: Die Texturleistung ist nicht der limitierende Faktor im Design. Die Einheiten sind wohl wesentlich teurer als die Recheneinheiten. Und hier muss man beim Vergleich r520 zu r580 immer noch bemerken, dass die dreifache Anzahl nur zur doppelten Leistung gereicht hat.
Sorkalm
2008-05-16, 17:08:31
Was bringt es über ein Design zu reden, dass verdammt ineffizient ist? nVidia schlägt es mit 100 Millionen Transistoren weniger! Und eine 3850 ist gegenüber einer 8600GTS auch nur doppelt so schnell.
Wenn das Setup teuer ist, die Einheiten aber relativ günstig kann man das nicht so pauschalisieren. Und so sieht die AMD-Architektur für mich momentan auch aus...
AnarchX
2008-05-16, 17:12:26
Was bringt es über ein Design zu reden, dass verdammt ineffizient ist? nVidia schlägt es mit 100 Millionen Transistoren weniger! Und eine 3850 ist gegenüber einer 8600GTS auch nur doppelt so schnell.
Schlecht balanciert trifft es wohl eher, die Rechenleistung, wenn man sie konkret bei R6xx abruft ist nicht so schlecht.
Nur hat man massiv den Einfluss von Z-Fill und Tex-Fill unterschätzt, was man aber beim 3. Anlauf doch langsam mal in Angriff nehmen sollte.
Und zu den Transitoren siehe Sorkalm.
Ich sehe hier jedoch ein paar Probleme: Die Texturleistung ist nicht der limitierende Faktor im Design. Die Einheiten sind wohl wesentlich teurer als die Recheneinheiten. Und hier muss man beim Vergleich r520 zu r580 immer noch bemerken, dass die dreifache Anzahl nur zur doppelten Leistung gereicht hat.
Da geistern ja noch seit Mitte 2007 die ominösen 30% die ATi aus ihren TMUs durch eine "Optimierung" holen will.
Wäre dann immerhin schon ein theoretischer Faktor 2.6 zu RV670 bei gleichem Takt, wenn es 32 TMUs sind.
LovesuckZ
2008-05-16, 17:14:59
Wenn das Setup teuer ist, die Einheiten aber relativ günstig kann man das nicht so pauschalisieren. Und so sieht die AMD-Architektur für mich momentan auch aus...
Der einzige Fall, wer rv670 mehr als die doppelte Anzahl an Einheiten hat, ist bei den ROPs und den Recheneinheiten. Die TMUs und die Pixelleistung sind nicht der limitierende Faktor im Design und eine Verdopplung wird nicht in annährend so hoher Mehrleistung resultieren.
Beachtlich, wie lange du an einer schlechten Argumentationskette festhalten kannst. Aber mach weiter so, ist unterhaltsam :).
GeneralHanno
2008-05-16, 17:44:12
meine güte, bevor ihr euch hier gegenseitig zerfleischt schauen wir uns mal ein paar fakten an ;)
Name - RV620 - RV635 - RV670
Trans - 181M - 378M - 666M
SP - 40 - 120 - 320
TMU - 4 - 8 - 16
SI - 64 - 128 - 256
ROP - 4 - 4 - 16
Auffällig ist vor allem die überproportionale steigerung der SP, die daher recht billig sein werden ...
Nakai
2008-05-16, 18:04:23
Auffällig ist vor allem die überproportionale steigerung der SP, die daher recht billig sein werden ...
Eigentlich hab ich das auch schon mal im Thread erwähnt gehabt, dass die Einheiten vom R600 billiger sind als angenommen.
Die Skalierung und das Drumherum kostet noch am meisten Transistoren.
mfg Nakai
Sterems
2008-05-16, 18:51:46
Was hat Amd gegen die GF200 specs gegenzusetzten?Es sieht so aus als wurde Amd mit der 4800 kein absatz machen.Könnte sich Amd wenn es so kommt aus den Grafik geschäft bald verabschieden?
GeneralHanno
2008-05-16, 19:01:53
naja, je nach lage kanns sein, dass der GT200 doppelt so schnell ist wie der RV770 (aber eher 50-70%). dafür kostet der GT200 auch das doppelte ;)
Sorkalm
2008-05-16, 19:02:57
GT200 und RV770 bedienen unterschiedliche Marktsegmente. Davon gehe ich jedenfalls aus, daher ist ein Vergleich nicht so sinnvoll...
Was hat Amd gegen die GF200 specs gegenzusetzten?Es sieht so aus als wurde Amd mit der 4800 kein absatz machen.Könnte sich Amd wenn es so kommt aus den Grafik geschäft bald verabschieden?
Warum sollte sich AMD aus dem GFX Geschäft verabschieden?
Weil du den RV770 mit dem Highend vergleichst?
Du weißt für was das V steht? Das sind unterschiedliche Marktsegmente die sich nicht nur in der Leistung sondern auch deutlich im Preis ausdrückt.
K4mPFwUr$t
2008-05-16, 19:13:04
@Sterems
sry, aber das ist einfach bullshit.
nur weil nV vieleicht die highendkrone hat mit einem singlechip heißt es nicht sofort das AMD endgültig aus dem 3d markt austritt. AMD macht momentan das beste aus seiner situation.
sie setzen auf das midrange/performance segment, dort kann man die meiste kohle machen, zwar nicht pro grafikkarte (besser gesagt GPU) aber die masse ist größer.
aber dass das auch kein runninggag ist, sieht man ja an den steamstatistiken. die vermarktung von AMD ist nicht gerade deren stärke und war es noch nie. bis AMD sich endgültig aus dem markt verabschieden wird es noch lange dauern.
Was hat Amd gegen die GF200 specs gegenzusetzten?Es sieht so aus als wurde Amd mit der 4800 kein absatz machen.Könnte sich Amd wenn es so kommt aus den Grafik geschäft bald verabschieden?
JA!
AMD wird auf allen produzierten Chips sitzen bleiben und nicht eine Grafikkarte verkaufen.
Danach geht die CPU Sparte den Bach hinunter und AMD mach dicht!
Sterems
2008-05-16, 19:23:19
JA!
AMD wird auf allen produzierten Chips sitzen bleiben und nicht eine Grafikkarte verkaufen.
Danach geht die CPU Sparte den Bach hinunter und AMD mach dicht!
So sieht es zurzeit leider aus.
K4mPFwUr$t
2008-05-16, 19:34:12
@sterems
wie ich sehe kannst du nicht zwischen ironie und keiner ironie unterscheiden.
aber troll dich lieber in deinen konsolenforen rum, wo du den PC ja eh als tot betrachtest :rolleyes:
Sterems
2008-05-16, 19:39:28
Man kann es einfach nicht abstreiten das Ati so ziemlich unter druck steht.Ich habe selber eine Hd 3870 also ich bin keineswegs ein hater.Ich sehe denn tatsachen nur ins auge,das macht mich übrigens traurig.es kann jetzt ganz gefährlich für AMD/ATI werden.Zurzeit verkaufen sie sogut wie keine Karten.In jeden Preissegment ist NV besser aufgestellt.
Und das Dx 10.1 Argument ist wie es aussieht für AMD auch nicht Marketingtmässig ein erfolg.Nvidia ist halt der Spielestudio puscher.Wenn Nvidia Dx 10.1 hätte und Ati nicht,was glaubt ihr wieviel Spiele es jetzt mit Dx 101 support geben würde.;)
Du begibst dich aber gewaltig aufs Glatteis.
Sterems
2008-05-16, 19:51:04
Du begibst dich aber gewaltig aufs Glatteis.
Nur ist es trauriger weise die pure Wahrheit.....:(;)
gamingforce
2008-05-16, 20:03:53
Sterems, bitte hör auf dein Schrott kann man ja nicht lesen :|
LovesuckZ
2008-05-16, 20:05:16
Nur hat man massiv den Einfluss von Z-Fill und Tex-Fill unterschätzt, was man aber beim 3. Anlauf doch langsam mal in Angriff nehmen sollte.
Und wie willst du das in ca. 229 Millionen Transistoren schaffen?
Vergleicht man rv635 und rv670 miteinander stehen hier 72mm² und 288 Millionen transistoren als Unterschied zur Buche. Darin befindet sich ein verdoppeltes Speicherinterface, 8 TMUs, 12 ROPs (2z) und 40(5d) Recheneinheiten.
Ich schätze, man benötigt 50mm², um diese Sachen in einem rv670 einzubauen.
gamingforce
2008-05-16, 20:08:42
Zurzeit verkaufen sie sogut wie keine Karten.In jeden Preissegment ist NV besser aufgestellt.
Du hast ja überhaupt keine Ahnung Junge, mit der karte haben sie genau ins Schwarze getroffen ganz einfach.
Wie Kampfwurst schon sagt, das Geld verdient man nicht mit Highend sondern mit den Ultimativen P/L Karten und da steht der HD3870 einfach NICHTS nach.
Intel ist auch Marktführer bei grafikkarten und die haben nicht eine graka womit man anständig zocken kann.
Nvidia verdient ihr Geld nicht nur weil sie soviel Grakas verkaufen oder weil sie schnelle Hardware haben, sondern weil sie für jedes Game wo ihr Logo auftaucht Kohle Kassieren und das nicht zu wenig.
LovesuckZ
2008-05-16, 20:13:12
Du hast ja überhaupt keine Ahnung Junge, mit der karte haben sie genau ins Schwarze getroffen ganz einfach.
Wie Kampfwurst schon sagt, das Geld verdient man nicht mit Highend sondern mit den Ultimativen P/L Karten und da steht der HD3870 einfach NICHTS nach.
Interessant. AMD's Grafikabteilung machte letztens 11 Millionen Verlust und verkauft heute nicht mehr als vor einem Jahr. Das widerspricht irgendwie deiner These...
Nvidia verdient ihr Geld nicht nur weil sie soviel Grakas verkaufen oder weil sie schnelle Hardware haben, sondern weil sie für jedes Game wo ihr Logo auftaucht Kohle Kassieren und das nicht zu wenig.
Ahso, nVidia erhält Geld für das Sponsoring des eigenen Logos auf den Spielepackungen und als Intro? ;D
K4mPFwUr$t
2008-05-16, 20:18:26
@LovesuckZ
das hat auch andere gründe, fernab der eigentlichen graka.
ganz einfach die promotion fehlt bei AMD und darin war AMD noch nie gut oder ATI.
selbst zur zeit des R300 kaufen viele leute die hoffnungslos unterlegende GF FX.
@gamingforce
man macht schon das meiste geld in dem bereich, allerdings ist es immer gut wenn man im highend die nase vorne hat, so als prestige. nur hat AMD momentan nicht die personalen als auch finanziellen mittel (fusion projekt lässt grüßen) um expirimentierfreudig zu werden.
man versuch ganz einfach mit der X² mit wenig R&D viel gewinn aus dem highend heraus zu bekommen, allerdings mit mäßigen erfolg. statt sich auf expirimente einzulassen wie dem ursprünglichen multi-DIE R700.
reunion
2008-05-16, 20:20:40
Und wie willst du das in ca. 229 Millionen Transistoren schaffen?
Vergleicht man rv635 und rv670 miteinander stehen hier 72mm² und 288 Millionen transistoren als Unterschied zur Buche. Darin befindet sich ein verdoppeltes Speicherinterface, 8 TMUs, 12 ROPs (2z) und 40(5d) Recheneinheiten.
Ich schätze, man benötigt 50mm², um diese Sachen in einem rv670 einzubauen.
Und was ist daran zu unglaubwürdig? RV770 hat laut aktuellen Gerüchten kein breiteres SI, keine zusätzlichen ROPs (sondern nur doppelt so viel Z-Tester, welche relativ billig sein sollten), nur zusätzliche 32(5D) Recheneinheiten, dafür 16 statt 8 zusätzliche TMUs. Das könnte mit ca. 229mio Transistoren durchaus möglich sein IMO.
gamingforce
2008-05-16, 20:26:28
@gamingforce
man macht schon das meiste geld in dem bereich, allerdings ist es immer gut wenn man im highend die nase vorne hat, so als prestige. nur hat AMD momentan nicht die personalen als auch finanziellen mittel (fusion projekt lässt grüßen) um expirimentierfreudig zu werden.
man versuch ganz einfach mit der X² mit wenig R&D viel gewinn aus dem highend heraus zu bekommen, allerdings mit mäßigen erfolg. statt sich auf expirimente einzulassen wie dem ursprünglichen multi-DIE R700.
das stimmt steit ich ja auch nicht ab :)
LovesuckZ
2008-05-16, 20:26:28
Und was ist daran zu unglaubwürdig? RV770 hat laut aktuellen Gerüchten kein breiteres SI, keine zusätzlichen ROPs (sondern nur doppelt so viel Z-Tester, welche relativ billig sein sollten), nur zusätzliche 32(5D) Recheneinheiten, dafür 16 statt 8 zusätzliche TMUs. Das könnte mit ca. 229mio Transistoren durchaus möglich sein IMO.
Keine zusätzlichen ROPs, dafür jeweils zwei zusätzliche Z-Tester. Die werden nicht gerade günstig sein (siehe nVidia). Und 16 zusätzliche TMUs - also die doppelte Anzahl, wird entweder sehr teuer sein oder aber sich nicht so gut packen lassen (siehe nVidia).
Ich sehe eher die 32 Recheneinheiten und die 4Z-Tester als gesichert - aber 16 TMUs?`:confused:
deekey777
2008-05-16, 20:29:18
...Nur hat man massiv den Einfluss von Z-Fill und Tex-Fill unterschätzt, was man aber beim 3. Anlauf doch langsam mal in Angriff nehmen sollte.
...
Ich bin immernoch der Meinung, dass man nicht den Einfluß von Z-Fill unterschätzt hat (siehe RV530), sondern die für die R600-Generation designten ROPs sind nicht für den hohen Takt ausgelegt, worauf deren Leistung "halbiert" wurde.
AnarchX
2008-05-16, 20:35:10
Keine zusätzlichen ROPs, dafür jeweils zwei zusätzliche Z-Tester. Die werden nicht gerade günstig sein (siehe nVidia). Und 16 zusätzliche TMUs - also die doppelte Anzahl, wird entweder sehr teuer sein oder aber sich nicht so gut packen lassen (siehe nVidia).
Ich sehe eher die 32 Recheneinheiten und die 4Z-Tester als gesichert - aber 16 TMUs?`:confused:
Man sollte nicht vergessen, dass R6xx ziemlich große Texturcaches hatte, die ATi bei RV770 wohlmöglich nicht mitskaliert hat.
Auch so wird wohl bei RV770 wohlmöglich vertikal skaliert, sodass die SIMDs nur länger werden, während die Verwaltungslogik gleich bleibt.
Ich hatte vor kurzem auch RV770 noch deutlich schwächer eingeschätzt, aber die Leistungszahlen von der verlässlichen Quelle machen mich doch stutzig.
Bei Chiphell glaubt man übrigens immernoch an 800 ALUs, 160x5...:D
Sterems, bitte hör auf dein Schrott kann man ja nicht lesen :|
Nicht nur hier kann man seine Posts nicht mehr lesen, wer ihn aus dem Luxx kennt, weiß wovon ich spreche, Stichwort Dominator18...
Warst du nichtmal ein ATi-Fanboy?
gamingforce
2008-05-16, 21:02:48
Beleidige mich nicht mit so einem :mad:
PS: ich hab SLI also nix mit ATI fanboy
Nazar
2008-05-16, 21:08:12
Um das Ganze mal wieder in die richtige Bahnen zu leiten:
http://www.guru3d.com/news/radeon-hd-4800-series-details/
Lese ich das da richtig? Doppelt so schnell wie eine 3870X2? Zu den da vermuteten Preisen, nicht mal übel ;)
AnarchX
2008-05-16, 21:11:14
... weil es Unsinn ist, momentan stehen schon so hoch angesiedelte 25% Mehrleistung gegenüber einer 9800GTX zur Debatte.
Doppelte X2-Leistung kann man eher vom GT200 erwarten.
K4mPFwUr$t
2008-05-16, 21:12:19
doppelt so schnell wie die 3870X²? nein :ulol:
heute hieß es RV770XT +25% gegenüber einer 98GTX.
und der vergleich zur X² fällt schwer, da diese stark vom spiel/treiber/CF-profilen abhängig ist was am ende rauskommt aus den beiden chips.
gamingforce
2008-05-16, 21:14:20
das wäre übel da würde selbst der Gt200 unter gehen ;D
Aber sowas bräuchten wir :tongue:
Sorkalm
2008-05-16, 21:21:25
Ich hätte gerne mal eine seriöse Leistungsangabe gegenüber einer einzelnen 3870, beim Vergleich mit der 9800 GTX sind schon wieder so viele Faktoren relevant. :frown:
Nazar
2008-05-16, 21:25:04
Ich würde es ATI gönnen, wenn es wirklich so wäre! Und es würde endlich Schluß mit dieser Refreshkacke machen!
Ich hätte gerne mal eine seriöse Leistungsangabe gegenüber einer einzelnen 3870, beim Vergleich mit der 9800 GTX sind schon wieder so viele Faktoren relevant. :frown:
es gibt nix offizielles aber rechne mit der doppelten leistung einer 3870
Sterems
2008-05-16, 21:54:34
Ich würde es ATI gönnen, wenn es wirklich so wäre! Und es würde endlich Schluß mit dieser Refreshkacke machen!
Jeder bis auf paar ausnamen würden es Ati gönnen.Nur leider gibt es in Kaufbeartungs Foren zuviele Nv boys.Jeder empfehlt eine 9600 GT und nicht die HD 3870.Es sind halt alle grün leider...;);)
Ati verkauft zurzeit garnichts.....Es sieht sehr düster für AMD/ATI aus.
Liszca
2008-05-16, 21:56:56
Ich würde es ATI gönnen, wenn es wirklich so wäre! Und es würde endlich Schluß mit dieser Refreshkacke machen!
ich finde das eigentlich ganz gut mit der "refreshkacke", so kauft sich ottonormalverbraucher endlich mal ne vernünftige karte. dann hätten wir mal wieder ne reale chance auf ein massenkompatibles spiel mit vernünfiger grafik!
Ailuros
2008-05-17, 01:14:44
121Ah;6504098']naja, obs wunschtraum ist hängt von der fertigung und der komplexität ab (wie du ja weisst). meine rv670 macht bei default spannung auch 880 mit... wenn du die 900 als wunschtraum bezeichnest, ok, damit kann ich leben, aber unmöglich waren/sind sie nicht.
Es geht hier um die default Taktrate mit der die GPU offiziell von AMD veroeffentlicht wird und nicht was jeder Verbraucher damit im Nachsehen auf sein eigenes Risiko damit anfaengt. Es sind keine 900MHz Taktrate und ich hab auch vor einiger Zeit gefragt ob es tatsaechlich naeher an 900M als an 800M sind, aber ich will ja nicht jedem hier unbedingt seine Seifenblasen mit einem Schlag auspusten.
RV770 wird ausgezeichnete Mainstream-GPUs geben, dagegen hatte und hab ich nichts einzuwenden; aber das 8. Wunder sind die Dinger nun auch wieder nicht. Eine gesunde Leistungssteigerung fuer die billigste R&D Investition der letzten Jahre.
Ich glaub eher, dass da Dinge durcheinandergeworfen wurden. Wenn es diese separate Shaderdomain-Taktung mit über 1GHz gibt, kann da schnell mal 1GHz Chiptakt draus werden.
Ich hab bis jetzt die Moeglichkeit eines hoeheren ALU-domains als bisher nicht ausgeschlossen, aber auch nur weil es um einiges einfacher ist. Und ja 1GHz fuer TMUs/ROPs selbst bei 55nm liegt schon im Raum des UNMOEGLICHEN ausser ein IHV will GPUs verkaufen wo gleich jede dritte nach ein paar Monaten den Geist aufgiebt. TMUs/ROPs sind verdammt empfindlich was Frequenzen betrifft.
Schlammsau
2008-05-17, 09:36:49
Jeder bis auf paar ausnamen würden es Ati gönnen.Nur leider gibt es in Kaufbeartungs Foren zuviele Nv boys.Jeder empfehlt eine 9600 GT und nicht die HD 3870.Es sind halt alle grün leider...;);)
Ati verkauft zurzeit garnichts.....Es sieht sehr düster für AMD/ATI aus.
Sterems....warst nicht du der, der kürzlich ein HD2xxx Bios zwecks "Betrugs" auf eine X1xxx flashen wollte?
Das was du schreibst ist absoluter Bullshit. ATi verkauft weniger Karten als nV, dass ist richtig! Aber seit der HD38xx Serie gehts lngsam aber stetig bergauf.
Ich habe mir vor kurzem "einreden" lassen, unser Forum sei nicht repräsentativ aber ich möchte trotzdem mal auf meine 2 Umfragen hinweisen. Die eigentlich ein ganz anderes Bild vermitteln sollten als du hier von dir gibst.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413201
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405
nV ist deutlich in Führung aber seit der HD3xxx hat ATi etwas entgegenzusetzen.
Schlammsau
2008-05-17, 10:24:51
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=414584
Der Prozessor-Experte AMD hat sein Zwischenergebnis für das erste Quartal 2008 bekannt gegeben und blickt bei sinkenden Verlusten auf deutliche Umsatzsteigerungen. Das Unternehmen hat demnach seinen Nettoverlust von 611 Millionen US-Dollar auf 358 Millionen US-Dollar reduzieren können. Gleichzeitig wuchs der Umsatz gegenüber dem Vorjahr von 1,23 Milliarden US-Dollar um 22 Prozent auf 1,5 Milliarden US-Dollar. Als Umsatztreiber erwiesen sich dabei sowohl der Prozessor- und Chipsatz-Bereich mit einem Plus von 30 Prozent und der Grafikbereich mit 15 Prozent Zuwachs gegenüber den Vorjahr.
http://www.computerbase.de/news/allgemein/studien/2008/mai/ueberblick_marktanteile_grafikkarten_q1_2008/
AMDs Marktanteile haben sich im Vergleich zum letzten Quartal nicht geändert. Nvidia musste hingegen einige Teile an Intel abgeben. Mit 62,3 Millionen verkauften Einheiten macht das Geschäft mit einem Anteil von gut zwei Drittel weiter den größten Teil am Grafikchip-Geschäft aus.
Und was sagen uns diese Zahlen? ATi hat zum letzten Quartal keine Marktanteile verloren, nV aber schon! Man darf hier keine Wunder erwarten aber dennoch ist der Trend ganz klar besser als noch vor einem halben Jahr als es die 38xx noch nicht gab!
Mann darf nicht vergessen, die 3xxx gibt es erst seit Ende letzten Jahres.....die 8xxx aberschon seit fast 2 Jahren!
RV770 has PPU built-in? (http://www.pczilla.net/en/post/7.html)
K4mPFwUr$t
2008-05-17, 10:35:39
@schlammsau
kannst du es nicht wenigstens einen tag mal lassen?
ständig siehst du nur deine umfragen, fakt ist die umfragen sind weniger aussagekräftig als andere.
seh es endlich ein ...
@pest
das gerücht gab es ja schon vor einiger zeit, nur ginge man damals eher erst beim R800 aus.
wäre allerdings ein boni für die ATI, da nV scheinbar erst nach dem GT200 eine PPU anbieten wird.
AnarchX
2008-05-17, 10:36:39
Rumors suggested that RV770 has 480 SP or 800 SP, but we heard RV770 may adopt a unified rendering + separate physical speeding up rendering mode, among the 800 SP, 480 SP are responsible for unified rendering, 320 SP are responsible for the physical acceleration.
Removing physical acceleration, we can see RV770 has 480 SP, if taking the physical acceleration into account,then RV770 has 800 SP built-in.
So ein Unsinn... ;D
wäre allerdings ein boni für die ATI, da nV scheinbar erst nach dem GT200 eine PPU anbieten wird.
:ugly:
Ist es denn immernoch nicht durchgedrungen, das die ALUs von GPUs schon seit D3D9c für Physic-Processing nutzbar sind?
Eine extra PPU wäre da totaler Blödsinn und Verschwendung von Transitoren.
gamingforce
2008-05-17, 10:36:56
was er aber hier schreibt stimmt ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=414584
http://www.computerbase.de/news/allgemein/studien/2008/mai/ueberblick_marktanteile_grafikkarten_q1_2008/
Und was sagen uns diese Zahlen? ATi hat zum letzten Quartal keine Marktanteile verloren, nV aber schon! Man darf hier keine Wunder erwarten aber dennoch ist der Trend ganz klar besser als noch vor einem halben Jahr als es die 38xx noch nicht gab!
Mann darf nicht vergessen, die 3xxx gibt es erst seit Ende letzten Jahres.....die 8xxx aberschon seit fast 2 Jahren!
Schlammsau
2008-05-17, 10:38:18
@schlammsau
kannst du es nicht wenigstens einen tag mal lassen?
ständig siehst du nur deine umfragen, fakt ist die umfragen sind weniger aussagekräftig als andere.
seh es endlich ein ...
woher weisst du, dass ich für Computerbase, HT4U oder John Peddy Research Umfragen mache! :cool:
Aber du hast mich überführt! ;)
deekey777
2008-05-17, 11:03:30
RV770 has PPU built-in? (http://www.pczilla.net/en/post/7.html)
War ja klar, dass irgendjemand diesen Unsinn verzapft.
Aber:
http://forums.vr-zone.com/showthread.php?t=276250
Diese "Game Physics Processing Capability" ist entweder Blahblah oder man wird "CUDA-Physics" unterstützen, nur darf man damit nicht werben, da NV die ganze Arbeit macht. Na ja, das geht aber zu weit.
Der PhysX-Standard ist doch von NV geöffnet worden oder? Dann waren die ATI-Treiberprogger aber echt schnell, wenn schon der R700 entsprechend Unterstützung mitbringt :D.
Der PhysX-Standard ist doch von NV geöffnet worden oder? Dann waren die ATI-Treiberprogger aber echt schnell, wenn schon der R700 entsprechend Unterstützung mitbringt :D.
Ait hatte doch vor langer Zeit schon Physik-Berechnung auf Havok Grundlage vorgezeigt.
K4mPFwUr$t
2008-05-17, 12:08:14
dafür musste man afaik eine karte vom CF opfer, die alleine die physikberechnung durchführt/beschleunigt. ich seh darin mehr eine geldverschwendung als eine sinnvolle lösung.
deekey777
2008-05-17, 12:10:08
Ait hatte doch vor langer Zeit schon Physik-Berechnung auf Havok Grundlage vorgezeigt.
Und NV davor. Und ATi hat davorer eine eigene Lösung gezeigt. Nur ist daraus nichts geworden.
dafür musste man afaik eine karte vom CF opfer, die alleine die physikberechnung durchführt/beschleunigt. ich seh darin mehr eine geldverschwendung als eine sinnvolle lösung.
Irgendetwas muss die Berechnungen ausführen, also keine Geldverschwendung.
K4mPFwUr$t
2008-05-17, 12:13:51
eine ganze grafikkarte nur für ein paar physikberechnungen zu opfern, ist in meinen augen geldverschwendung. da würde eine inteligente aufteilung der streamprozessoren oder die GPGPU nutzung viel mehr sinn machen.
AnarchX
2008-05-17, 12:14:57
AFAIK kann man doch CUDA-Apps während des 3D-Renderings ausführen, also wird das für ATi wohl auch (langfristig) kein Problem sein.
edit:
http://forums.nvidia.com/index.php?showtopic=29091&mode=linearplus
was er aber hier schreibt stimmt ;)
Nö, er schreibt Quatsch.
http://www.heise.de/newsticker/meldung/107228/
Sorkalm
2008-05-17, 12:25:12
http://www.heise.de/newsticker/meldung/107228/
Die vergleichen aber nur mit Q1/2007, also dem Vorjahresquartal. Finanztechnisch kann das Sinn machen, aber für die Entwicklung der Marktanteile ist denke ich der Vergleich mit dem letzten Quartal (Q4/2007) auch interessant. Und da AMD in der Tat wieder (gering) Marktanteile zurückgewonnen.
deekey777
2008-05-17, 12:25:45
AFAIK kann man doch CUDA-Apps während des 3D-Renderings ausführen, also wird das für ATi wohl auch (langfristig) kein Problem sein.
Nicht während, sondern nacheinader (es wird zwischen 3D und CUDA hin und her geswitcht). Das Switchen ist aber nicht das Problem.
Das eigentliche Problem bei der Physik wäre, dass die GPU zunächst "Physik-Daten" berechnen muss, erst dann kann sie die 3D-Szene berechnen (da sie diese Daten braucht).
(Zu ATi: http://folding.stanford.edu/English/FAQ-ATI2#ntoc10
Can I still use my GPU when the client is running?
Yes. Unlike the original GPU client, which interfered with many operations that used the GPU, the new CAL-based client does not. Playing videos and playing games either have no effect on the action of the GPU client other than a slow-down in processing, or cause a temporary suspension of folding. The new client will automatically back off whenever an application requests exclusive DirectX mode, although it is not reported in the client logfile. DirectX programs that do not request exclusive mode will cause the GPU client to slow down, and may in some instances have a detrimental effect on application performance. Full screen video is unaffected by the GPU client)
Schlammsau
2008-05-17, 12:31:08
Werter Gast,
hast aber lang gesucht um diesen Artikel zu finden.
Ich möchte dich lieber Gast, aber auf deinen geposteten Heise Artikel hinweisen, dass das was da geschrieben wurde auch in dem Artikel von CB steht. Nur in Kurzform!
Und ich mich auf das letzte Quartal 04/07 bezogen habe und nicht auf das Quartal 01/07 wie der Heise Artikel. AMD/ATi war bis zum 4. Quartal des Jahres 2007 auf einer Talfahrt.
Wie du auch sicher bemerkt hast, gibt es die HD3xxx Serie erst seit Ende 2007.
Aber da brauch ich dir ja nichts vormachen, dass hast du mit Sicherheit gewusst.
Aber jetzt bitte Back to Topic!
MikBach
2008-05-17, 12:41:10
Nö, er schreibt Quatsch.
http://www.heise.de/newsticker/meldung/107228/
Nö, das tust du.
eine ganze grafikkarte nur für ein paar physikberechnungen zu opfern, ist in meinen augen geldverschwendung. da würde eine inteligente aufteilung der streamprozessoren oder die GPGPU nutzung viel mehr sinn machen.
Nein. Denn Physik erzeugt in vielen Fällen eben eine enorme Renderlast. Du entlastet zwar die CPU aber de belastest die Grafik erheblich mit Physikeffekten. Du würdest also mit Physikberechnungen auf der Graka ausgerechnet in dieser Phase dringend benötigte Rechenleistung klauen. Physikbeschleunigung macht nur dediziert Sinn. Als Geldverschwendung könnte man eher SLI bezeichnen ;).
Man braucht für die Physikbeschleunigung auch keine High-End Karte, eine HD36xx oder NF86xx wird reichen auf einem 4x PCIe Slot.
HarryHirsch
2008-05-17, 14:10:41
Nein. Denn Physik erzeugt in vielen Fällen eben eine enorme Renderlast. Du entlastet zwar die CPU aber de belastest die Grafik erheblich mit Physikeffekten. Du würdest also mit Physikberechnungen auf der Graka ausgerechnet in dieser Phase dringend benötigte Rechenleistung klauen. Physikbeschleunigung macht nur dediziert Sinn. Als Geldverschwendung könnte man eher SLI bezeichnen ;).
Man braucht für die Physikbeschleunigung auch keine High-End Karte, eine HD36xx oder NF86xx wird reichen auf einem 4x PCIe Slot.
also angenommen ich kauf ne gt200 dann könnte ich eine meiner 3870 für diese physiksachen weiterhin benutzen? oder gibs da probleme mit dem treiber?
[fu]121Ah
2008-05-17, 15:18:33
Es geht hier um die default Taktrate mit der die GPU offiziell von AMD veroeffentlicht wird und nicht was jeder Verbraucher damit im Nachsehen auf sein eigenes Risiko damit anfaengt. Es sind keine 900MHz Taktrate und ich hab auch vor einiger Zeit gefragt ob es tatsaechlich naeher an 900M als an 800M sind, aber ich will ja nicht jedem hier unbedingt seine Seifenblasen mit einem Schlag auspusten.
hehe, keine angst, du darfst meine seifenblasen auspusten wie du willst... solange es begründet ist, habe ich kein problem damit. du scheinst ein riesiges know how und eine gute basis an informationen zu haben, da ist es schwierig dagegenzutreten ;)
könntest du mir erklären wieso es so schwierig wäre die TMU/ROPs oder ALU/Shaders höher zu takten? bei Nvidia scheint das ja auch ohne problem machbar? und wieso glaubst du dass deswegen nach einigen monaten die grakas retour kommen? ist die hardware wirklich sooo anfällig?
Sorkalm
2008-05-17, 15:41:07
Welchen Preisangaben darf man eigentlich trauen? Digitimes nennt nun wieder höhere Preise (und die 4870 X2 im vierten (!) Quartal):
AMD and Nvidia are ready to cross blades again in June with their next generation GPU families – the ATI Radeon HD 4800 and GeForce GTX 200, according to sources at graphics card makers.
AMD is planning to launch its ATI Radeon HD 4800 family in the middle of June. The first model to launch will be the ATI Radeon HD 4850 with a price set around US$229.
The company will follow with the 4870 in the late June, with the same specification as the 4850 but will add support for GDDR5 memory. Expected pricing will be set around US$349.
In the fourth quarter, AMD will launch the dual-GPU ATI Radeon 4870 X2 priced around US$529-549.[...]
http://www.digitimes.com/NewsShow/MailHome.asp?datePublish=2008/5/15&pages=PD&seq=220
GeneralHanno
2008-05-17, 15:52:38
preise und lauchntermin sind immer nur grobe angaben die sich auch kurzfristig ändern können ... daher würde ich diese ganzen termin/preis news nicht all zu ernst nehmen ...
Nakai
2008-05-17, 16:02:09
Naja die Texelfüllrate wird verdoppelt und die FLOPs werden um 50% erhöht. Macht je nach Test wohl 60 bis 80% Performanceplus, was sich etwa mit den derzeitigen Leistungseinschätzungen deckt. Ergo HD4870 etwas über HD3870X2.
Und so schlecht siehts doch dann gar nicht aus.;)
Ne HD4870X2 wird wohl nicht an den GT200 hinkommen, aber schon sehr nahe liegen. Natürlich mit Mikroruckelproblem... Bis Herbst wird man dann den Performancebereich knapp abdecken können.
Also ich wünsch ATI/AMD hierbei wirklich viel Glück, egal ob sich das nun als Fanboy anhört.
mfg Nakai
GeneralHanno
2008-05-17, 16:05:19
WENN der RV770 besser wird als nvidia erwartet und der R700 der GTX280 gefährlich wird, dann wird nvidia wohl einfach eine "ULTRA" version nachschieben ;)
http://www.abload.de/img/09798798798lp7sp3.jpg (http://www.abload.de/image.php?img=09798798798lp7sp3.jpg)
http://www.xtremesystems.org/forums/showpost.php?p=2995469&postcount=725
K4mPFwUr$t
2008-05-17, 16:17:02
man sollte zu dieser tabelle noch eine andere hinzufügen:
http://www.abload.de/img/1206697923088v7n.gif
2x160W TDP (4870) ist wohl kaum die 250W TDP X² ;)
Nakai
2008-05-17, 16:17:23
Etwas zu pro für ATI das Diagramm.
mfg Nakai
€:
man sollte zu dieser tabelle noch eine andere hinzufügen:
http://www.abload.de/img/1206697923088v7n.gif
2x160W TDP (4870) ist wohl kaum die 250W TDP X² ;)
Das Diagramm ist einfach falsch? Oder man hat was bei der Stromversorgung getan.^^
Diese "Game Physics Processing Capability" ist entweder Blahblah oder man wird "CUDA-Physics" unterstützen, nur darf man damit nicht werben, da NV die ganze Arbeit macht. Na ja, das geht aber zu weit.
da passt das ganz gut Nvidia offers PhysX support to AMD / ATI (http://www.custompc.co.uk/news/602205/nvidia-offers-physx-support-to-amd--ati.html)
reunion
2008-05-17, 16:22:32
http://www.abload.de/img/09798798798lp7sp3.jpg (http://www.abload.de/image.php?img=09798798798lp7sp3.jpg)
http://www.xtremesystems.org/forums/showpost.php?p=2995469&postcount=725
Okay, wenn dieses Diagramm von ATi kommt, und man davon ausgehen muss, dass die Leistungsunterschiede der Karten untereinander korrekt sind, dann liegt eine 4870 wenn überhaupt dann nur leicht über 9800GTX-Niveau.
AnarchX
2008-05-17, 16:26:24
Warum soll das Diagramm von ATi kommen, die ihre Karten wohl kaum falsch bezeichnen würden?
Das ist doch einfach die Zusammenfassung der aktuellen Performance-Gerüchte.
Sterems
2008-05-17, 16:26:56
Sterems....warst nicht du der, der kürzlich ein HD2xxx Bios zwecks "Betrugs" auf eine X1xxx flashen wollte?
Das was du schreibst ist absoluter Bullshit. ATi verkauft weniger Karten als nV, dass ist richtig! Aber seit der HD38xx Serie gehts lngsam aber stetig bergauf.
Ich habe mir vor kurzem "einreden" lassen, unser Forum sei nicht repräsentativ aber ich möchte trotzdem mal auf meine 2 Umfragen hinweisen. Die eigentlich ein ganz anderes Bild vermitteln sollten als du hier von dir gibst.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413201
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405
nV ist deutlich in Führung aber seit der HD3xxx hat ATi etwas entgegenzusetzen.
vielleicht ging die 3000 Serie gut zumStart .Mit der 8800 GT/GTS/9600 GT hat sich das aber ganz schnell geändert....;);)
Oder man hat was bei der Stromversorgung getan.^^
hmm ein etwas geringere Verbrauch von einer x2 Karte als zwei einzelne wäre nicht völlig unmöglich, denn man sollte ja schon einige Komponente der Karte doppelt nutzen können. 250W zu 2x160W ist schon ein beachtlicher Unterschied.
Zumindest ist es für mich unverständlich wieso heute eine 3870X2 MEHR verbraucht als 2x3870....
AnarchX
2008-05-17, 16:34:23
Zumindest ist es für mich unverständlich wieso heute eine 3870X2 MEHR verbraucht als 2x3870....
2x 50MHz mehr Takt und GDDR3.
Die 4870X2 wird wohl beim Takt eher in die Richtung von RV770Pro gehen um unter 300W TDP zu bleiben oder ATi setzt hier auf den RV780@45nm, immerhin soll sie ja erst im 4. Quartal laut HKEPC kommen. :D
reunion
2008-05-17, 16:38:49
Warum soll das Diagramm von ATi kommen, die ihre Karten wohl kaum falsch bezeichnen würden?
Das ist doch einfach die Zusammenfassung der aktuellen Performance-Gerüchte.
Ja, mag sein. Das Diagramm kommt mir aber tw. schon sehr skurril vor. Die 3870 auf 8800GT-Niveau. Würde mich nicht wundern wenn sie Zahlen von AMD stammen.
K4mPFwUr$t
2008-05-17, 16:39:04
2x 50MHz mehr Takt und GDDR3.
Die 4870X2 wird wohl beim Takt eher in die Richtung von RV770Pro gehen um unter 300W TDP zu bleiben oder ATi setzt hier auf den RV780@45nm, immerhin soll sie ja erst im 4. Quartal laut HKEPC kommen. :D
das glaube ich auch eher. damit wäre man laut diesem diagramm dem GT200 höchstens ebenwürdig, wenn treiber, CF profil und spielsupport stimmen ;)
Wenn man das Diagramm mal realistisch betrachtet dann ist eine HD 4850 etwas schneller als eine 8800GT und eine 4870 etwas schneller als eine 9800GTX und wenn die Verbrauchsangaben stimmen dann besteht die X2 aus 2x4850, somit währe man wohl hier und da so schnell wie eine GTX - viel Langsamer als diese.
Aber die 10Watt Idle schauen mal höchst Interessant aus.
Sorkalm
2008-05-17, 17:06:18
http://www.abload.de/img/1206697923088v7n.gif
Diese Angaben basieren doch auf den Informationen von hartware.de von vor Monaten.
K4mPFwUr$t
2008-05-17, 17:08:51
@gast
das stichwort lautet powerplay, was man auch in der jetzigen HD3000 serie bereits findet.
intressant wäre ob man noch weitere verbrauchsbezogene dinge geändert hat.
@sorkalm
selbst wenn sie alt sind, gibt es bisher neuere daten?
abgesehen von der 4870 kenn ich zwei TDP angaben 150 und 160W.
Sorkalm
2008-05-17, 17:10:46
selbst wenn sie alt sind, gibt es bisher neuere daten?
abgesehen von der 4870 kenn ich zwei TDP angaben 150 und 160W.
Laut CJ 4870 mit 160 Watt TDP und 4850 mit 110 Watt TDP.
Eine TDP Angabe hat sowieso nur eine sehr geringe Aussagekraft. Es gibt keine feste Formel oder ein festgelegtes Verfahren zum Berechnen.
So konnte es auch kommen, dass die G80 GTX eine höhere TDP als die G80 Ultra hat, wobei die G80 Ultra im Endeffekt mehr verbraucht.
Deshalb spekuliere ich, dass sich der Takt der HD4870 X2 zwischen dem des RV770 PRO und XT einpendeln wird.
[QUOTE=K4mPFwUr$t;6509438]@gast
das stichwort lautet powerplay, was man auch in der jetzigen HD3000 serie bereits findet.
intressant wäre ob man noch weitere verbrauchsbezogene dinge geändert hat.
QUOTE]
Dessen bin ich mir als HD3870 Besitzer bewußt( gut, kannst du ja nicht wissen), aber auf 10watt idle kommt meine Karte nicht, eher auf 20 - 30Watt und das bei weniger max. Verbrauch( und der wird steigen, TDP hin oder her).Von daher finde ich das schon erstaunlich wenn das wirklich eintrifft.
K4mPFwUr$t
2008-05-17, 18:13:15
Eine TDP Angabe hat sowieso nur eine sehr geringe Aussagekraft. Es gibt keine feste Formel oder ein festgelegtes Verfahren zum Berechnen.
So konnte es auch kommen, dass die G80 GTX eine höhere TDP als die G80 Ultra hat, wobei die G80 Ultra im Endeffekt mehr verbraucht.
Deshalb spekuliere ich, dass sich der Takt der HD4870 X2 zwischen dem des RV770 PRO und XT einpendeln wird.
das die TDP nichts über den realen verbrauch aussagt, ist ja den meisten hier bekannt.
öftmals werden auch mehrere karten mit den selben TDPs gelistet, wo sie im endeffekt unterschiedliche realverbrauche haben.
das ganze soll ja nur eine richtlinie für PCB, kühler und stromversorgung sein.
die X² soll ja erst 3Q08 kommen und damit später als die non X².
wäre gut möglich das man das stepping verbessern und wie bei der 3870X² noch ein paar Mhz zusätzlich taktet.
Dessen bin ich mir als HD3870 Besitzer bewußt( gut, kannst du ja nicht wissen), aber auf 10watt idle kommt meine Karte nicht, eher auf 20 - 30Watt und das bei weniger max. Verbrauch( und der wird steigen, TDP hin oder her).Von daher finde ich das schon erstaunlich wenn das wirklich eintrifft.
kann gut sein, das man die spannung noch weiter herab gesetzt hat.
vieleicht werden ja auch gewisse teile chipintern abgeschaltet im 2D betrieb.
man darf gespannt sein auf die ersten richtigen reviews oder seitens A/A auf die offizelle featureliste ;)
das die TDP nichts über den realen verbrauch aussagt, ist ja den meisten hier bekannt.
das ganze soll ja nur eine richtlinie für PCB, kühler und stromversorgung sein.
TDP = massgeblich für Kühlerdesign, die Stromversorgung muss man aber schon passend zum absoluten Spitzenverbrauch eines Chips dimensionieren und der liegt immer höher als die TDP (das liegt an der Trägheit thermischer Systeme).
http://www.abload.de/img/09798798798lp7sp3.jpg (http://www.abload.de/image.php?img=09798798798lp7sp3.jpg)
http://www.xtremesystems.org/forums/showpost.php?p=2995469&postcount=725
Das Diagramm ist falsch.
http://666kb.com/i/ayq8suo2xfud85q2m.jpg
Sterems
2008-05-17, 18:34:37
Das Diagramm ist falsch.
http://666kb.com/i/ayq8suo2xfud85q2m.jpg
Computerbase ist nicht alles.;););)
Computerbase ist nicht alles.;););)
Stimmt auf anderen Seiten ist der Abstand von der 3870 zur 9800GTX größer. ;)
Sterems
2008-05-17, 18:47:24
Stimmt auf anderen Seiten ist der Abstand von der 3870 zur 9800GTX größer. ;)
Glaub ich dir aber nicht.;)
Wir wissen ausserdem eh das die 4000 Serie sich nicht gut verkaufen wird....
http://www.abload.de/img/09798798798lp7sp3.jpg (http://www.abload.de/image.php?img=09798798798lp7sp3.jpg)
http://www.xtremesystems.org/forums/showpost.php?p=2995469&postcount=725
Die GX2 ist doch schon fertig ;D
LovesuckZ
2008-05-17, 18:55:42
Und was sagen uns diese Zahlen? ATi hat zum letzten Quartal keine Marktanteile verloren, nV aber schon! Man darf hier keine Wunder erwarten aber dennoch ist der Trend ganz klar besser als noch vor einem halben Jahr als es die 38xx noch nicht gab!
Via hat ihren Marktanteil fast verdoppelt. Die sind besser als AMD, nVidia und Intel!!!!!!!!!!!!
Mann darf nicht vergessen, die 3xxx gibt es erst seit Ende letzten Jahres.....die 8xxx aberschon seit fast 2 Jahren!
Hm, und? Letztes Jahr hatte AMD nichts und stand genauso gut dar.
Achja, im Gegensatz zu nVidia und Intel hat AMD Marktanteile in einem Jahr verloren.
AnarchX
2008-05-17, 18:57:16
It is said that the HD 4850 is 20% faster than the 8800GT and HD 4870 is 20% faster than the 9800GTX.
As we all know, GeForce 9800GTX is only 10% faster than the 8800GT. We are able to get a clearer picture of the performance of these 4 cards as shown in the diagram below.
In 3DMARK06, Radeon HD 4870 will be 32% faster than 8800GT, 22% faster than 9800GTX and 12% faster than 4850.
AS for 4850, it will be 20% faster than 8800GT and 10% faster than the 9800GTX.
http://img296.imageshack.us/img296/4896/attachment543b5cf2ds9.jpg (http://imageshack.us)
http://my.ocworkbench.com/bbs/showthread.php?p=431345#post431345
Sterems
2008-05-17, 18:58:11
Traurig.;);)
LovesuckZ
2008-05-17, 19:03:58
Laut Computerbase.de ist eine 9800GTX 15% schneller als die 8800GT im 3DMark2006.
K4mPFwUr$t
2008-05-17, 19:05:30
wäre durch aus realitisch das ein RV chip der neuen generation den alten highend schlägt.
allerdings sehe ich schwarz das der RV770 dem GT200 gefährlich wird.
wie der RV670 ist er halt auf den rentablen massenmarkt ausgelegt.
wobei der abstand von der 4870 etwas gering wäre zur 4850. die 4850 schätze ich schwächer als die 98GTX ein, der 4870 wird etwas über dem nivau liegen. aber zu weit weg um einem monster wie dem GT200 eins auszuwischen.
LovesuckZ
2008-05-17, 19:07:59
wäre durch aus realitisch das ein RV chip der neuen generation den alten highend schlägt.
Der "alte" High-End ist auch fast 2 Jahre alt und kostet heute auch nicht mehr als der rv Chip.
Imo ist das aufgrund der niedrigen Preise ziemlich wenig Leistung.
Botcruscher
2008-05-17, 19:11:43
da passt das ganz gut Nvidia offers PhysX support to AMD / ATI (http://www.custompc.co.uk/news/602205/nvidia-offers-physx-support-to-amd--ati.html)
SEHR GUT. Das ist die einzige Chance von NV wenn man gegen Intel dauerhaft bestehen will. Standards setzen bevor Intel alles mit seiner Marktmacht durchdrücken kann.
gamingforce
2008-05-17, 19:12:28
Der "alte" High-End ist auch fast 2 Jahre alt und kostet heute auch nicht mehr als der rv Chip.
Imo ist das aufgrund der niedrigen Preise ziemlich wenig Leistung.
das "alte" Highend ist paar Wochen Jung und nennt sich 9800GTX, dabei ist völlig egal obs nur ein "Aufguss" ist .
Das die 4870 nicht an den Gt200 ran kommt ist glaub ich jedem klar,aber die X2 wird den Gt200 schlagen denk ich .
K4mPFwUr$t
2008-05-17, 19:12:52
@LovesuckZ
der RV770 wäre trozdem aus mehreren gründen wirtschaftlicher.
allein die DIE-size spricht für sich und damit die besseren yields.
@gamingforce
8800GTX/Ultra = speicherbandbreite und VRAM highend
9800GTX = rohpower/shaderpower highend
je nach dem wie man es sieht ;D
das "alte" Highend ist paar Wochen Jung und nennt sich 9800GTX
Falsch.
Die 9800GTX ist Performance. Eventuell hilft dir ein Blick auf den Preis.
Bei der 4870 und 3870 kapiert es jeder, das es nur Mittelklasse/Performance ist, bei der 9800 stellt sich jeder absichtlich blöd. :rolleyes:
LovesuckZ
2008-05-17, 19:21:14
@LovesuckZ
der RV770 wäre trozdem aus mehreren gründen wirtschaftlicher.
allein die DIE-size spricht für sich und damit die besseren yields.
Und das hat für dich welchen Vorteil? ;)
Geht nVidia auf 55nm hat man auch einen kleineren Die. Jedoch sieht man sehr schön, dass aufgrund der niedrigen Preise AMD's "Value" Part wohl doch eher als High End aussieht.
Und ob 20% so toll sind nach 8 Monaten, muss wohl jeder für sich entscheiden.
Falsch.
Die 9800GTX ist Performance. Eventuell hilft dir ein Blick auf den Preis.
Bei der 4870 und 3870 kapiert es jeder, das es nur Mittelklasse/Performance ist, bei der 9800 stellt sich jeder absichtlich blöd. :rolleyes:
Der einzige der sich dabei besonders blöd clever anstellt ist NV.
Eine GTX war von der Namensgebung immer Highend. Wenn sie daran gemessen wird und es nicht ist, beschwere dich bei NV und nicht den Leuten die darauf reinfallen.
LovesuckZ
2008-05-17, 19:28:21
Wie definiert man den High-End? Die 9800GTX ist eben die schnellste Single-Karte - nach der 8800GTX und Ultra. Es bleibt alles beim gleichen.
Der Markt hat sich nach unten bewegt. High-End ist jetzt nicht mehr alles über >400€ sondern nur noch >200€. Selbst mit den neuen nVidia Karten wird es sich nicht ändern, da man genug Leistung als Durchschnittsuser unter 200€ erhält. Und demnach ist die Zahl derer, die mehr als 300,400,500€ für eine Karte ausgeben auch sehr stark gesunken.
Eine GTX war von der Namensgebung immer Highend.
Die 5800 Ultra war High-End.
Ist jetzt die 5200 Ultra auch High-End?
Die 5800 Ultra war High-End.
Ist jetzt die 5200 Ultra auch High-End?
Was zieht man sich denn so an der Bezeichnung High-End hoch?
Die 9800GTX ist die schnellste Single-Karte und daran werden sich die neuen Karten messen müssen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.