Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008, multicore und 55 nm? Teil 2
Seiten :
1
2
3
4
[
5]
6
7
8
9
10
LovesuckZ
2008-05-06, 16:20:00
Nunmal Butter bei den Fischen: Eine durchschnittliche Leistungssteigerung von 45% will AMD für 250$ bzw. 200€ verkaufen? Das klingt alles irgendwie unglaubwürdig.
Ich wette, dass es doch zu einer Verdopplung der Leistung kommen wird. Alles andere wäre für AMD in Hinblick auf die Attraktivität eine Katastrophe.
Nunmal Butter bei den Fischen: Eine durchschnittliche Leistungssteigerung von 45% will AMD für 250$ bzw. 200€ verkaufen? Das klingt alles irgendwie unglaubwürdig.
Ich wette, dass es doch zu einer Verdopplung der Leistung kommen wird. Alles andere wäre für AMD in Hinblick auf die Attraktivität eine Katastrophe.
Eine 9800GTX ist auch nicht schneller und bekommt man nicht um 200€. Das P/L-Verhältnis ist bei den billigeren Produkten fast immer besser.
reunion
Schlammsau
2008-05-06, 16:29:25
Nunmal Butter bei den Fischen: Eine durchschnittliche Leistungssteigerung von 45% will AMD für 250$ bzw. 200€ verkaufen? Das klingt alles irgendwie unglaubwürdig.
Ich wette, dass es doch zu einer Verdopplung der Leistung kommen wird. Alles andere wäre für AMD in Hinblick auf die Attraktivität eine Katastrophe.
50% mehr als der R670 heisst ungefähr 9800GTX Niveau.
Und wie teuer ist die 9800GTX? Richtig, die günstigste GTX gibt es ab 213€!
http://geizhals.at/deutschland/a324670.html
Wenn man bedenkt, dass die 9800GTX anfangs für knapp 300 Teuronen zu haben war.......
LovesuckZ
2008-05-06, 16:29:40
Eine 9800GTX ist aber eine Ausnahme, die wohl kaum eine käufliche Relevanz darstellt.
AMD möchte doch rv770 Karten verkaufen, oder? Dass werden sie kaum, wenn das Vorgängerprodukt mit ca. 80% der Leistung nur die Hälfte kostet.
Oh und nVidia hat immer noch 8800GTS-512 Karten im Angebot. Die verschwinden nicht plötzlich.
K4mPFwUr$t
2008-05-06, 16:32:01
die GF8 ist doch end of life :|
Schlammsau
2008-05-06, 16:33:01
Eine 9800GTX ist aber eine Ausnahme, die wohl kaum eine käufliche Relevanz darstellt.
AMD möchte doch rv770 Karten verkaufen, oder? Dass werden sie kaum, wenn das Vorgängerprodukt mit ca. 80% der Leistung nur die Hälfte kostet.
Oh und nVidia hat immer noch 8800GTS-512 Karten im Angebot. Die verschwinden nicht plötzlich.
Quatsch....nach oben hin wird das P/L Verhältniss doch auch immer schlechter!
Die GTX müsste wenn man es so betrachtet, nur noch rund 150 Steine kosten! Tut sie aber nicht und wird es auch niemals tun!
Doch die 8800 Karten laufen demnächst aus!
LovesuckZ
2008-05-06, 16:35:32
die GF8 ist doch end of life :|
Nie und nimmer. 8800GTX Karten gibt es wie Sand am Meer. Das gleiche wird auch für die G92 Karten zutreffen. Eventuell werden sie durch G92-b ersetzt, aber preislich wie leistungstechnisch wird alles so bleiben.
Die 9800GTX ist da eher das Highlight, das man haben muss. Aber gekauft wird es sowieso von kaum einen. Schön, wenn AMD sich dort positionieren will - aber das ist heutzutage keine gute Marktposition, wenn man nicht eine deutlich bessere Mehrleistung gegenüber den 3870 und den nVidia Produkten hat.
Quatsch....nach oben hin wird das P/L Verhältniss doch auch immer schlechter!
Tja und ein rv770 auf dem Niveau der 9800GTX und mit einem schlechten P/L Verhältnis: Wie soll das viele Käufer finden? Siehst du die Krux, dass der Aufpreis einfach nicht gerechtfertigt sein wird?
K4mPFwUr$t
2008-05-06, 16:37:43
nur weil es noch restbestände gibt, heißt es doch noch lange nicht mehr das sie nicht EoL sind :|
rate mal warum der preis der GF8 so niedrig ist, man will ganzeinfach die lager leer räumen.
LovesuckZ
2008-05-06, 16:40:41
nur weil es noch restbestände gibt, heißt es doch noch lange nicht mehr das sie nicht EoL sind :|
EOL gibt es doch schon seit Januar. Wir sind nun im Mai und es gibt tausende von Karten aller Hersteller in Deutschland zu kaufen. So viele Karten können garnicht in irgendwelchen Lagern sein.
rate mal warum der preis der GF8 so niedrig ist, man will ganzeinfach die lager leer räumen.
Der Preis ist niedrig, weil der Markt eingebrochen ist. Eine 8800GTX kann man eben heute nicht mehr für 300€ verkaufen.
Und eine 8800GTS ist gänzlich unverkäuflich geworden.
und wenn man bedenkt das man fast jede 130 euro 8800gt auf 8800gts-9800gtx niveau bringen kann,dann habe ich meine bedenken ob die 50% ausreichen werden.
Schlammsau
2008-05-06, 16:41:33
Tja und ein rv770 auf dem Niveau der 9800GTX und mit einem schlechten P/L Verhältnis: Wie soll das viele Käufer finden? Siehst du die Krux, dass der Aufpreis einfach nicht gerechtfertigt sein wird?
Der RV770 wird seine Käufer haben.
Was rechtfertigt den Preis einer GTX? Immo nur die fehlende Konkurrenz!
Der RV kann mit DX10.1 und hoffentlich niedrigerem Stromverbrauch punkten!
LovesuckZ
2008-05-06, 16:43:27
Der RV770 wird seine Käufer haben.
Was rechtfertigt den Preis einer GTX? Immo nur die fehlende Konkurrenz!
Der RV kann mit DX10.1 und hoffentlich niedrigerem Stromverbrauch punkten!
10.1 gibt es jetzt schon bei den rv670 Karten und es wird vom Kunden nicht angenommen. Futuremark's Zahlen zeigen ein 1:3 Verhältnis zwischen 3870:8800GT an.
Und der Stromverbrauch wird bei ca. 150Watt TDP liegen - genauso viel wie bei der 9800GTX. Keine Chance, dass der Kunde sich bei 45% Mehrleistung gegenüber der 3870 sagt: Guckan, dafür bezahle ich doch gerne das doppelte.
Schlammsau
2008-05-06, 16:49:38
10.1 gibt es jetzt schon bei den rv670 Karten und es wird vom Kunden nicht angenommen. Futuremark's Zahlen zeigen ein 1:3 Verhältnis zwischen 3870:8800GT an.
Und der Stromverbrauch wird bei ca. 150Watt TDP liegen - genauso viel wie bei der 9800GTX. Keine Chance, dass der Kunde sich bei 45% Mehrleistung gegenüber der 3870 sagt: Guckan, dafür bezahle ich doch gerne das doppelte.
Das ist Quatsch!
Schau dir auch mal die Ergebnisse in meiner Umfrage an.....z.B. hier im Forum steht der RV670 nicht so schlecht da!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405
Hier haben sogar mehr Leute eine 3870 als eine 8800GT!
Für viele ist der DX10.1 Support schon wichtig!
Glaube keinen Statistiken die du nicht selber gefälscht hast! ;)
LovesuckZ
2008-05-06, 16:53:14
Tut mir leid, ich bevorzuge da doch eher die Statistik, die mindesten 200User befragt hat.
Du kannst auch gerne die Liefermengenaus dem ersten Vierteljahr 2008 heranziehen: nVidia 33 Millionen, AMD 18 Millionen. Und AMD konnte die Verkaufsmenge zum letzten Jahr nicht erhöhen - das bei einem größeren Markt!
Der unmündige Kunde interessiert sich nicht für AMD und der mündige kauft sich das Produkt mit dem besserem P/L Verhältnis - also eher die 3870 als die 4870 mit 45% Mehrleistung im Durchschnitt und doppeltem Preis.
K4mPFwUr$t
2008-05-06, 16:54:22
@Schlammsau
ich halte eine steamumfrage für aussagekräftiger als deine umfrage.
schon allein weil dies hier ein freak forum ist, die wenigsten wissen überhaupt was DX10.1 ist und was es genau macht.
AnarchX
2008-05-06, 16:54:58
Naja, Steam, Futuremark und Jon Peddie sind doch etwas representativer als deine Umfrage und die zeigen alle ein eindeutiges Bild, wo AMD bei den DX10-Verkäufen steht.
Schlammsau
2008-05-06, 16:58:43
Tut mir leid, ich bevorzuge da doch eher die Statistik, die mindesten 200User befragt hat.
Du kannst auch gerne die Liefermengenaus dem ersten Vierteljahr 2008 heranziehen: nVidia 33 Millionen, AMD 18 Millionen. Und AMD konnte die Verkaufsmenge zum letzten Jahr nicht erhöhen - das bei einem größeren Markt!
Der unmündige Kunde interessiert sich nicht für AMD und der mündige kauft sich das Produkt mit dem besserem P/L Verhältnis - also eher die 3870 als die 4870 mit 45% Mehrleistung im Durchschnitt und doppeltem Preis.
Und ich bevorzuge Statistiken, wo auch wirklich User befragt werden. Und das Ergebniss nicht durch irgendwelche Hardwareerkennungsmechanismen übermittelt wurde!
Hab oft genug erlebt, dass meine Grafikkarte falsch erkannt wird! Wie es z.B auch im 3DMark06 mit meiner 3870 der Fall ist!
In diesem wird sie nur als 3800 Series Karte und zudem auch mit 1,5GB VRAM erkannt!
Schlammsau
2008-05-06, 16:59:49
@Schlammsau
ich halte eine steamumfrage für aussagekräftiger als deine umfrage.
schon allein weil dies hier ein freak forum ist, die wenigsten wissen überhaupt was DX10.1 ist und was es genau macht.
aso.....und ich dachte gerade weil es ein Fraek Forum ist, wissen die Leute was gut ist und was nicht!
K4mPFwUr$t
2008-05-06, 17:00:43
und das macht deine umfrage mit 170 mann in einem hardwareforum representativer als andere?
um eine ATI mit einer NV oder anders rum zu verwechseln muss schon sehr viel falsch laufen :rolleyes:
ja wir beschäftigen uns mehr mit hardware, nur sind wir dadurch aussagekräftiger?
der übliche spieler kennt doch garnicht die ganzen begriffe die mit grakas zu tuen haben.
oder frag mal jemand was der unterschied von DX10.0 zu DX10.1 ist? selst hier wissen das nicht alle, weil es ein komplexes thema ist.
außerdem darfst du nicht vergessen das in jedem hardwareforum eine fanboygemeinschaft vorherrscht ;)
LovesuckZ
2008-05-06, 17:00:58
Dann musst du deutlich mehr User befragen.
Aber weder AMDs Quartalsmeldungen, noch Steam/Futuremark sowie die Auslieferungsmengen bestätigen deine Aussage.
Schlammsau
2008-05-06, 17:02:20
und das macht deine umfrage mit 170 mann in einem hardwareforum representativer als andere?
um eine ATI mit einer NV oder anders rum zu verwechseln muss schon sehr viel falsch laufen :rolleyes:
Nicht die Hersteller zu verwechseln.....sondern den genauen Typ!
Meine Karte wird immo nicht als 3870 erkannt!
und wenn man bedenkt das man fast jede 130 euro 8800gt auf 8800gts-9800gtx niveau bringen kann,dann habe ich meine bedenken ob die 50% ausreichen werden.
das ist eben genau der punkt...warum ich meine 50% mehr wie ein RV670 ist zu wenig....
selbst wenn der RV770 als single gpu im performance sektor angedacht ist heisst 50% mehr wie RV670 ca. 20-25% mehr wie ne 88GT (liegt mittlerweile bei 125-135€) und vielleicht 10% schneller wie eine 88GTS 512 (preis rutscht mittlerweile an die 150€)
und die preise fallen ja eher
die performance karten wurden bisher immer für um die 200-250€ eingeführt...da wäre dann kein markt für so einen RV770
entweder zielt amd mit der RV770 MultiGPU lösung eher aufs höhere performance segment ab (wo jetzt 88GTX rumschwirrt) und der RV770 als single gpu ist dann in dem mainstream bereich wo 7600GT 8600GT 9600GT usw. herumschwirren...
oder er wird deutlich unterschätzt
Schlammsau
2008-05-06, 17:05:02
welche Quartalsmeldung?
Schlammsau
2008-05-06, 17:12:44
finde gerade nur diese Meldung vom 17.04.2008.
http://ht4u.net/news/1758_amd_reduziert_verlust_bei_steigendem_umsatz
Auszug:
Als Umsatztreiber erwiesen sich dabei sowohl der Prozessor- und Chipsatz-Bereich mit einem Plus von 30 Prozent und der Grafikbereich mit 15 Prozent Zuwachs gegenüber den Vorjahr. Die steigenden Verkaufszahlen der CPUs wirkten sich bei AMD jedoch noch nicht auf den durchschnittlichen Verkaufspreis aus, der sich weiterhin auf dem bisherigen Niveau bewegt.
nicht vergessen dass nvidia natürlich ein jahr lang den markt offen hatte, die 8800gt war immo sogar vor der 3870 wirklich verfügbar.
denke ati wird das augenmerk auch auf den stromkonsum legen, die 60% mehr sind evnt. gewollt, wenn man dadurch den stromverbrauch zusätzlich senkt.
Schlammsau
2008-05-06, 19:01:19
hier noch was zur STEAM Umfrage.....
meine Karte wird definitiv als 3800 Series erkannt!
http://www.abload.de/img/16l8pa.png
als was für eine Karte taucht diese dann in der Statistik auf?
Schlammsau
2008-05-06, 19:23:21
wenn ihr eine Umfrage mit mehr Stimmen wollt, nehmt doch diese.....
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413201
Die 3xxx Serie ist relativ stark hier im Forum vertreten! Wieso sollten sie nicht Aussagekräftig sein?
nagus
2008-05-06, 19:38:03
BITTE ZURÜCK ZUM THEMA! die verteilung der 38xx und 8800xx karten könnt ihr in einem anderen thread besprechen.
danke.
Hvoralek
2008-05-06, 19:40:46
Die Leistung des RV770 spielt überhaupt keine Rolle, da diese durch mehrere GPU's erreicht wird. Der R700 besteht aus zwei RV770, die fürs Betriebssystem wie eine einzelne Grafikkarte arbeiten. Den R700 müsst Ihr mit dem GT200 vergleichen, nicht den RV770.Das wird auch nicht richtiger, wenn Du oder andere Gäste es noch so oft herbeibeten wollen.
wenn ihr eine Umfrage mit mehr Stimmen wollt, nehmt doch diese.....
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413201
Die 3xxx Serie ist relativ stark hier im Forum vertreten! Wieso sollten sie nicht Aussagekräftig sein?Diese Umfragen sagen auch mit vielen Teilnehmern nur etwas aus über die Forenuser, also über ziemliche Freaks. Da dürfte Steam erheblich näher am Normaluser und damit am Gesamtmarkt liegen.
nagus
2008-05-06, 19:48:35
ich finds übrigends hoch interessant was derzeit auf der startseite von 3dcenter.de steht :)
vor allem der satz ".... nachdem die Anzahl der Textureneinheiten gegenüber dem RV670-Chip verdoppelt wurde und auch die Anzahl der Shader-Einheiten nach oben gehen dürfte (womöglich ebenfalls verdoppelt, ist aber noch unsicher)...." ;)
Schlammsau
2008-05-06, 19:50:12
Diese Umfragen sagen auch mit vielen Teilnehmern nur etwas aus über die Forenuser, also über ziemliche Freaks. Da dürfte Steam erheblich näher am Normaluser und damit am Gesamtmarkt liegen.
Meinst du das hauptsächlich "Freaks" zu der 38xx greifen?
ATi Karten haben nach wie vor einen sehr guten Ruf, gerade bei Normalusern!
Das ist nicht zuletzt in der hervorragenden x1xxx Serie begründet!
K4mPFwUr$t
2008-05-06, 19:56:29
trozdem ist das 3dc nicht representativ für alle anderen leute.
zumal würde ich den ruf der X1000 serie nicht als durchgehen gut bezeichnen.
die X1950pro war eine katastrophe.
außerdem warum willst du generell die 3800 vorne sehen? weil du selber eine hast,
so und nun BTT :|
Schlammsau
2008-05-06, 19:59:40
trozdem ist das 3dc nicht representativ für alle anderen leute.
zumal würde ich den ruf der X1000 serie nicht als durchgehen gut bezeichnen.
die X1950pro war eine katastrophe.
wenn du meinst!
waaas??? die x1950 Pro war der P/L Hit schlechthin!
Hvoralek
2008-05-06, 20:05:17
Meinst du das hauptsächlich "Freaks" zu der 38xx greifen?
ATi Karten haben nach wie vor einen sehr guten Ruf, gerade bei Normalusern!
Das ist nicht zuletzt in der hervorragenden x1xxx Serie begründet!Wenn ATI sich mit der X1xxx einen guten Ruf erarbeitet hat (wobei eigentlich nur der teure R580 und der späte RV570 wirklich überzeugend waren - abgesehen natürlich von solchen Kleinigkeiten wie Stromverbrauch und Lautstärke), haben sie den mit der 2000er- Reihe gegen die Geforce 8 schnell und v.a. spektakulär wieder verspielt. Die 3000er- Reihe ist zwar deutlich konkurrenzfähiger, das muss sich aber erst einmal herumsprechen. Dass die Geräte unter den meist besser informierten Freaks weiter verbreitet sind als im Massenmarkt, finde ich logisch. Wie erklärst Du Dir sonst die Ergebnisse etwa bei Steam? An Auslesefehler glaube ich nicht so recht, Steam zählt sowieo nur die Modellreihen und nicht die Modellnummern.
Schlammsau
2008-05-06, 20:10:27
An Auslesefehler glaube ich nicht so recht, Steam zählt sowieo nur die Modellreihen und nicht die Modellnummern.
Daran solltest du aber glauben oder es zumindest in betracht ziehen!
In der Statistik gibt es aber aber keine 3800 Reihe....nur 3850 und 3870 werden angezeigt!
In der Statistik gibt es aber aber keine 3800 Reihe....nur 3850 und 3870 werden angezeigt!
Und beide ergeben zusammen ein Prozent.
Du kannst es drehen, wie du willst, die HD38xx ist nicht so toll, wie du es darstellst.
K4mPFwUr$t
2008-05-06, 20:14:01
@schlammsau
die X1950pro war auf dem ersten blick ein P/L knaller.
als warer knaller sollte sich die 8800GTS/GTX raus stellen, selten hat eine graka solange die meiste leistung geboten.
zur X1950pro, die käufer durften betatester spielen in sachen stromversorgung.
die x1950pro war die erste karte mit DPWM. allerdings wird diese sehr schnell heiß.
wenn man nicht gerade ein sehr gut gekühltes system hat, wird die spannungsversorgung (besonders die 3 kleinen ICs die alles regeln sind anfällig) oder man sich einen eigenen kühler dafür bastelt.
für mehr fragen, bitte PN.
Schlammsau
2008-05-06, 20:16:33
ich würde sagen wir diskutieren in diesem Thread weiter!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405&page=3
@schlammsau
die X1950pro war auf dem ersten blick ein P/L knaller.
als warer knaller sollte sich die 8800GTS/GTX raus stellen, selten hat eine graka solange die meiste leistung geboten.
Und in 2D auch gezogen. ;)
K4mPFwUr$t
2008-05-06, 22:17:30
stimmt, aber die 2900XT war auch kein stromsparwunder ;D
stimmt, aber die 2900XT war auch kein stromsparwunder ;D
In 2D gegen die 88er schon.
Sorkalm
2008-05-06, 22:54:53
Naja, Steam würde ich nicht unbedingt für den Gesamtmarkt an Spielern heranziehen, der belegt ja doch eine gewisse Zielgruppe. Ich beispielsweise habe aktuell kein einziges Steam-Spiel installiert, weil ich eine so starke negative Überzeugung von Steam habe, sondern weil mich bisher keins überzeugt hat. Nur "The Ship" hatte ich über Steam mal installiert - ironischerweise habe ich das kostenlos bekommen.
Untersuchungen wie von "Jon Peddie" sind da wahrscheinlich doch etwas allgemeiner und eher für solche Untersuchungen heranzuziehen.
MikBach
2008-05-07, 01:01:04
die X1950pro war eine katastrophe.
Ja?
Wieso?
MikBach
2008-05-07, 01:08:42
schonmal Microruckler erlebt?
Nein.
Mir reicht es, wenn ich darüber lese.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/7/#abschnitt_das_multigpuproblem_mikroruckler
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/3/#abschnitt_multigputechnologien
über 100ms?
Das ist mehr als die Hälfte meiner Reaktionszeit.
Bei FPP-Shotern ziemlich mies.
Da hat man ja weniger Lag durch den Ping.
Schlammsau
2008-05-07, 07:15:41
Nein.
Mir reicht es, wenn ich darüber lese.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/7/#abschnitt_das_multigpuproblem_mikroruckler
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/3/#abschnitt_multigputechnologien
über 100ms?
Das ist mehr als die Hälfte meiner Reaktionszeit.
Bei FPP-Shotern ziemlich mies.
Da hat man ja weniger Lag durch den Ping.
Es geht mir darum....ich denke das Thema wird oftmals überbewertet!
Ein Kumpel hat CF und hat nie irgendwas von Microruckeln bemerkt, sagt er jedenfalls.
Und wir wissen alle, dass die Ruckler auch nur auftretten wenn die fps unter 30 fallen! Und jetzt mal ehrlich....wann fallen bei einer CF oder SLi Lösung die Frames unter 30? Ich kann mit einer einzelnen 3870 eigentlich jedes Game bis auf Crysis ruckelfrei geniessen. Natürlich mit AA bzw. AF!
Und wir wissen alle, dass die Ruckler auch nur auftretten wenn die fps unter 30 fallen!
Nein, wir wissen alle, daß die Mikroruckler unabhängig von den fps IMMER auftreten.
Schlammsau
2008-05-07, 08:49:46
Nein, wir wissen alle, daß die Mikroruckler unabhängig von den fps IMMER auftreten.
da sagt aber CB in deinem Link was anderes:
Soviel vorweg: Ja, an diesen Behauptungen ist etwas dran und die vielerorts als „Mikroruckler“ bezeichneten Unstimmigkeiten gibt es sowohl auf SLI- als auch auf CrossFire-Systemen – und 3-Way-SLI ist ebenfalls betroffen. Dem Problem auf die Schliche zu kommen ist dabei kein leichtes Unterfangen, denn es tritt nicht in jedem Spiel auf. Darüber hinaus muss die Bildwiederholrate bei etwa 30 FPS oder darunter liegen, damit das Problem überhaupt zu einem als unstetig wahrgenommenen Spielablauf führen kann. Schaffen es zwei Grafikkarten weit über diesem Limit zu bleiben, treten die Ruckler nur noch schwer wahrnehmbar und irgendwann gar nicht mehr auf.
Ihr hab alle noch keine Mikroruckler selbst erlebt....aber immer ne grosse Klappe haben!
Hier mal eine Info für die NVidia Anhänger und die verfächter der ein Chip VGA-Karten:
http://www.hartware.de/news_44725.html
Eure Zeit ist einfach vorbei. Haltet euch an Mid-Range-Karten, da wird es evtl. noch ein Chip Lösungen geben ;)
nagus
2008-05-07, 09:11:29
was zum geier haben microruckler mit rv770 zu tun?
microruckler my ass!
Schlammsau
2008-05-07, 09:40:31
was zum geier haben microruckler mit rv770 zu tun?
microruckler my ass!
Natürlich hat das Thema auch etwas mit derm RV770 bzw R700 zu tun!
Weil ja auch angenommen wird, dass die Microruckler auch hier auftreten!
Mr. Lolman
2008-05-07, 10:02:58
Ihr hab alle noch keine Mikroruckler selbst erlebt....
Nö. Aber die Frametimes bleiben unregelmässig. Egal ob mans merkt oder nicht. 60 Multi-CPU-fps sind bei unregelmässigen Frametimes nicht mit 60 Single-GPU-fps zu vergleichen...
deekey777
2008-05-07, 10:09:26
RV770 to be 1.5 times faster than RV670: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7180&Itemid=1
reunion
Eher hat er hier und da 50% mehr Einiheiten. Und 50 Prozent von 16 ist 8, 16+8 ist 24.
Wie gesagt: 800 SPs...
Nachtrag: Über die Mikroruckler wird in mehreren Threads diskutiert, da es ein allgemeines Thema ist, haben die Mikroruckler in diesem Thread nichts zu suchen, wirklich nicht. Selbst wenn es einen R780 geben wird.
Warum postet die Microruckler-Fraktion eigentlich nicht im G200 Threat? Das wird schließlich auch eine mehrkern GPU...
GeneralHanno
2008-05-07, 10:47:02
Warum postet die Microruckler-Fraktion eigentlich nicht im G200 Threat? Das wird schließlich auch eine mehrkern GPU...
weil die gerüchte um GT200=dual-chip dort als unwahrscheinlcih/fake abgewartscht wurden ;)
naja, die werden sich wundern ;)
gamingforce
2008-05-07, 17:40:56
Der Mikrorukcler kack interessiert keine Sau ganz einfach, und das Theam geht hoffentlich bald unter weils Bullshit ist.
Wie lolman es sagt, die brauch man nicht sehen weil die Frametimes was anderes sagen ;D
Die Frametimes gehen mir sowas am Arsch vorbei........
da sagt aber CB in deinem Link was anderes:
Was verstehst du an "sehr schwer wahrnehmbar" nicht?
Wenn die fps zwischen 100fps und 1000fps schwanken, dann sind da immer noch genau die gleichen Ruckler, wie wenn die fps zwischen 10 und 100 fps schwanken. Allerdings wird man sie dann nicht mehr so wahrnemen. Auftreten tun sie aber immer.
Warum postet die Microruckler-Fraktion eigentlich nicht im G200 Threat? Das wird schließlich auch eine mehrkern GPU...
Nein, wird es nicht.
K4mPFwUr$t
2008-05-07, 17:57:22
Der Mikrorukcler kack interessiert keine Sau ganz einfach, und das Theam geht hoffentlich bald unter weils Bullshit ist.
Wie lolman es sagt, die brauch man nicht sehen weil die Frametimes was anderes sagen ;D
Die Frametimes gehen mir sowas am Arsch vorbei........
irgendwie gehst du mir mit deinem getuen langsam so ziemlich auf dem zeiger.
du sagst selber dich intressiert es nicht, du sollst nicht von dir auf andere schließen.
dank sollchen leuten wie dich wird das thema doch garnicht erst in angriff genommen, weil alles versucht wird um das ganze tot zuschweigen.
Sehe ich auch so. Die Ruckler sind sehr sichtbar, vor allem in GPU limitierten Szenarien. Der neue 3DMark ist ganz krass.
Nö. Aber die Frametimes bleiben unregelmässig. Egal ob mans merkt oder nicht. 60 Multi-CPU-fps sind bei unregelmässigen Frametimes nicht mit 60 Single-GPU-fps zu vergleichen...
Es gibt ja FPS Limiter
Warum postet die Microruckler-Fraktion eigentlich nicht im G200 Threat? Das wird schließlich auch eine mehrkern GPU...
Nein. Außerdem arbeitet NV bereits an einer Lösung.
Nakai
2008-05-07, 18:12:22
Nein. Außerdem arbeitet NV bereits an einer Lösung.
So wie am Vram-Bug?...lol;D
mfg Nakai
AnarchX
2008-05-07, 18:15:21
So wie am Vram-Bug?...lol;D
Das Speichermanagment hat sich doch fortwährend verbessert. Wenn dann eher der Idle-Modus via Treiber für GF8. ;)
Nakai
2008-05-07, 18:18:32
Das Speichermanagment hat sich doch fortwährend verbessert. Wenn dann eher der Idle-Modus via Treiber für GF8. ;)
Gebessert ja, aber gelöst nicht. Architekturbeschränkungen kann man leider nicht komplett aufheben, aber bei zu wenig Speicher sollte das Spiel wenigstens laufen und nicht abstürzen.
mfg Nakai
gamingforce
2008-05-07, 18:19:36
irgendwie gehst du mir mit deinem getuen langsam so ziemlich auf dem zeiger.
du sagst selber dich intressiert es nicht, du sollst nicht von dir auf andere schließen.
dank sollchen leuten wie dich wird das thema doch garnicht erst in angriff genommen, weil alles versucht wird um das ganze tot zuschweigen.
ich kenne min. 30 Leute die Multi GPU Systeme haben, keiner davon heult wegen sowas:rolleyes:
Du hast sicher auch eine Quelle dafür dass das eine "Architekturbeschränkung" ist.
Meine Sicht der Dinge ist, dass man auch ein Softwareproblem nicht ausschließen kann, das inzwischen gelöst ist und das ganze nur jede 2 Forenposts nachgeplappert wird.
Nakai
2008-05-07, 18:21:02
ich kenne min. 30 Leute die Multi GPU Systeme haben, keiner davon heult wegen sowas:rolleyes:
Natürlich nicht, niemand will eingestehen, dass sein teuer gekauftes MultiGPU-System rumspackt. ;)
mfg Nakai
€: Du hast sicher auch eine Quelle dafür dass das eine "Architekturbeschränkung" ist.
Ich meine, dazu gab es schon soviele Diskussionen. NV hätte genug Zeit gehabt, diesen Fehler auszumerzen. Aber natürlich kann es ein Softwarebug sein.
Hvoralek
2008-05-07, 19:24:38
irgendwie gehst du mir mit deinem getuen langsam so ziemlich auf dem zeiger.Ich überlege inzwischen, ob gamingforce nicht ein Zweitaccount von Gosh sein könnte. Die beiden ähneln sich von ihrer Art her doch ziemlich :wink:
/edit: Nur dieses ständige Geprahle ist mir bei Gosh nicht aufgefallen.
Es gibt ja FPS Limiter
was hat das mit den microrucklern zutun? die frameverteilung bleibt dennoch unregelmäßig
w0mbat
2008-05-07, 22:26:03
http://www.gpureview.com/show_cards.php?card1=566&card2=564
Nakai
2008-05-07, 22:27:43
Sieht ziemlich abgeschrieben aus, außer die Wissen mehr.;)
mfg Nakai
w0mbat
2008-05-07, 22:28:53
Ja, sieht nach hardware-infos aus.
http://www.gpureview.com/show_cards.php?card1=566&card2=564
ich dachte der RV770 soll prozentual einiges mehr an texturleistung bekommen im verhältnis zur alu leistung
davon sieht man aber bei den spezifikationen garnix....
und abschreiben tun die doch alle sobald mal ein gerücht auftaucht...
Na ja, wenn man die ALUs um 1/3 aufstockt und gleichzeitig den Takt nur der ALUs erhöht, hat man halt wieder das gleiche Verhältnis, nur doppelt soviel :D.
Schlammsau
2008-05-08, 05:41:47
3DCenter Main:
Gemäß Fudzilla ist bei ATIs kommenden HighEnd-Chip RV770 mit 50 bis 60 Prozent Performance-Gewinn gegenüber dem Vorgänger-Chip RV670 zu rechnen. Sollte diese Angabe zutreffen (für welche es derzeit natürlich keine verifizierbare Quelle gibt), dürfte eine glatte Verdopplung des RV670-Designs beim RV770 eher unwahrscheinlich sein, weil eingedenk der Taktraten-Steigerung (beim Chip runde 45 Prozent, beim Speicher runde 60 Prozent) dann auf jeden Fall deutlich mehr als die doppelte Performance herauskommen würde. Vielmehr hören sich 50 bis 60 Prozent mehr eher so an, als würde sich das RV770-Design nur punktuell vom RV670 abheben.
Eingedenk des wohl um die 60 Prozent höheren Speichertakts durch den benutzten GDDR5-Speicher ist somit erst einmal eine Weiterbenutzung des bekannten 256 Bit DDR Speicherinterfaces wahrscheinlich. Denn mit einem 512 Bit DDR Speicherinterface würde ATI samt GDDR5-Speicher gleich einmal auf mindestens 200 Prozent mehr Speicherbandbreite kommen, was bei einer Zielvorgabe von 50 bis 60 Prozent mehr in gesamter Performance totaler Overkill wäre. Und zugleich erscheint es nunmehr als nicht unwahrscheinlich, daß ATI die Anzahl der Shader-Einheiten des RV770-Chips gar nicht oder nur geringfügig erhöht hat. Schließlich ist bezüglich der Textureneinheiten schon eine glatte Verdopplung im Vergleich zum RV670-Design bekannt.
Und da die Anzahl der Textureneinheiten eine bekannte Schwäche dieses Designs darstellt, bringt die Einheiten-Verdopplung hier natürlich am meisten, der Effekt dieser Maßnahme ist also nicht als zu gering einzuschätzen. Gleichzeitig mit der ungefähr 45prozentigen Steigerung beim Chiptakt könnte dies schon ausreichend sein, um zusammen mit dem höheren Speichertakt die angepeilten 50 bis 60 Prozent Mehrperformance zu realisieren. ATI muss also beim RV770-Chip nicht zwingend etwas an der Anzahl der Shader-Einheiten getan haben, dies lässt sich aus dieser Performance-Prognose schlussfolgern. Was im übrigen auch das angedachte DualChip-Design auf RV770-Basis vereinfachen würde, denn ohne eine höhere Anzahl an Shader-Einheiten erscheint der Stromhunger des RV770-Chips auch um ZweiChip-Verbund als zähmbar.
Naja Leo tragt auch nur die Informationen von anderen Seiten zusammen, sprich er spekuliert ;)
GeneralHanno
2008-05-08, 17:05:52
er schreibt aber auf der startseite (!!!) so, als wären es fakten ...
Schlammsau
2008-05-08, 18:18:30
ganz unrecht hat leo aber nicht....
warum sollte Ati die Speicherbandbreite verdoppeln, wenn nur runde 50% Leistungssteigerung anfallen? Ich denke auch nicht, dass die den gleichen Fehler wie beim RV600 machen, oder doch?
Hvoralek
2008-05-08, 19:49:11
er schreibt aber auf der startseite (!!!) so, als wären es fakten ...Wenn Du das kritisieren möchtest, tue das am besten hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=414649
ganz unrecht hat leo aber nicht....
warum sollte Ati die Speicherbandbreite verdoppeln, wenn nur runde 50% Leistungssteigerung anfallen? Ich denke auch nicht, dass die den gleichen Fehler wie beim RV600 machen, oder doch?Doppelte Bandbreite wären dann 2400 MHz. Schafft Serien- GDDR5 das diesen Sommer überhaupt schon? Und wie kommst Du darauf, dass der verbaut werden soll [Ich habe jetzt gerade nur Gerüchte zum Kerntakt im Kopf]? Das würde zumindest wirklich für deutlich mehr als 50% Leistungszuwachs sprechen. Andererseits redet Leo von "nur" 60% höherem Speichertakt, geht also anscheinend von knapp 2000 MHz aus. Das würde dann mit ungefähr 50% Mehrleistung ganz gut hinkommen.
/edit: Was Leo kritisiert, ist die 512- bit- Si- Angabe von Fuad. Damit und mit Leos 60% höherem Speichertakt käme man auf mehr als die dreifache Bandbreite.
Wenn Du das kritisieren möchtest, tue das am besten hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=414649
Doppelte Bandbreite wären dann 2400 MHz. Schafft Serien- GDDR5 das diesen Sommer überhaupt schon? Und wie kommst Du darauf, dass der verbaut werden soll [Ich habe jetzt gerade nur Gerüchte zum Kerntakt im Kopf]? Das würde zumindest wirklich für deutlich mehr als 50% Leistungszuwachs sprechen. Andererseits redet Leo von "nur" 60% höherem Speichertakt, geht also anscheinend von knapp 2000 MHz aus. Das würde dann mit ungefähr 50% Mehrleistung ganz gut hinkommen.
/edit: Was Leo kritisiert, ist die 512- bit- Si- Angabe von Fuad. Damit und mit Leos 60% höherem Speichertakt käme man auf mehr als die dreifache Bandbreite.
ja und 2000 ist schon fast doppelt so schnelle ram,du weist schon das mit 2000 eigentlich 4000 gemeint ist?
neue gerüchte sind raus,die stärkste singlechiplösung soll doppelt so schnell wie eine x2 sein bei guter skalierung
Hvoralek
2008-05-08, 21:07:10
ja und 2000 ist schon fast doppelt so schnelle ram,du weist schon das mit 2000 eigentlich 4000 gemeint ist?Das war anhand von Leonidas' 60%- Angabe gerechnet. Ich merke gerade, ich habe mich da sowieso vertan; der RAM der 3870 läuft ja nur mit 1125 MHz. Dann wären Leos 60% mehr genau 1800 MHz.
MikBach
2008-05-08, 22:37:15
neue gerüchte sind raus,die stärkste singlechiplösung soll doppelt so schnell wie eine x2 sein bei guter skalierung
Lach weg. :lol:
Und wo kommen die Gerüchte her?:|
gamingforce
2008-05-09, 01:05:03
Don't feed the troll.
Dito ;D
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7240&Itemid=1
Also doch ein 512-bit Speicherinterface.
AnarchX
2008-05-09, 09:32:47
Fragt sich nur was der Endkunde mit über 200GB/s anfangen will, die dann wohl nicht unter 300€ kosten werden. ;)
Wie schon öfter gesagt, GDDR5 und 512-Bit machen keinen Sinn, erst recht nicht für einen RV-Chip. Fudo wird da nur wieder den internen Ringbus mit 512-Bit falsch verstehen.
Schlammsau
2008-05-09, 09:33:59
also doch Verdoppel- oder Verdreifachung der Speicherbandbreite!?
Oh je.....
50% Mehrleistung passt wirklich nicht dazu!
Ich denke der R700 wird 512Bit haben!? 2x256Bit?
Vielleicht hat nur der R700 ein 512-bit Speicherinterface (2 x 256-bit) zusammen für beide RV770 Cores.
AnarchX
2008-05-09, 09:48:36
From what we gathered, AMD might not be showcasing their new RV770 cards at computex. No reasons were given for the decision.
We suspect that there might still be problems with chipset or drivers. Perhaps some companies will put up static displays of the cards with no running demos eventually.
http://my.ocworkbench.com/bbs/showthread.php?p=430981#post430981
James Ryan
2008-05-09, 10:12:54
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7240&Itemid=1
Also doch ein 512-bit Speicherinterface.
*seufz*
Seit dem R520 jedes Mal das gleiche!
Der Ringbus ist 512 Bit, das Speicherinterface des RV770 wird 256 Bit breit sein.
Dazu passt dann auch GDDR5!
MfG :cool:
puntarenas
2008-05-09, 10:27:07
*seufz*
Seit dem R520 jedes Mal das gleiche!
Ja, und jedes Mal wird die sensationelle Nachricht tausendfach verlinkt und noch viel öfter geklickt. Ich finde, das 512Bit-Speicherinterface macht immer wieder Sinn. ;)
gamingforce
2008-05-09, 10:46:59
Fudo wird da nur wieder den internen Ringbus mit 512-Bit falsch verstehen.
würd ich auch sagen.
Aber wäre es den möglich dem Teil einfach so 512 Bit zu verpassen(oder auch dem RV670)?
[fu]121Ah
2008-05-09, 12:29:29
würd ich auch sagen.
Aber wäre es den möglich dem Teil einfach so 512 Bit zu verpassen(oder auch dem RV670)?
grundsätzlich ja.
w0mbat
2008-05-09, 12:33:17
Fudo scheint sich ziemlich sicher...
Sorkalm
2008-05-09, 12:42:53
Fudo scheint sich ziemlich sicher...
Meint er den R700 (2x 256 Bit)?
James Ryan
2008-05-09, 14:04:27
Fudo scheint sich ziemlich sicher...
War er beim R520 und danach beim R580 auch. ;D
MfG :cool:
Hvoralek
2008-05-09, 14:09:09
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7240&Itemid=1
Also doch ein 512-bit Speicherinterface.Das ist nun wirklich nicht das erste Mal, dass Fudo "512bit + GDDR5" meldet. Zuletzt vor ein paar Tagen. Vlt. bringt er ja demnächst internen/ externen Bus durcheinander und fällt zusätzlich auf X2- Marketingzahlen rein und es gibt einen Riesenwirbel um ein angebliches 1024- bit- SI :biggrin:
Aber wäre es den möglich dem Teil einfach so 512 Bit zu verpassen(oder auch dem RV670)?Das macht für den Chip kaum einen Unterschied. Allerdings sollte RV770 relativ klein werden (wohl etwa 250 mm²); ich weiß nicht, ob der Umfang genug Platz für die Anschlüsse eines 512- bit- SIs bieten würde.
[fu]121Ah
2008-05-09, 14:56:28
bitte meine aussage nicht falsch verstehen. ich geh von nem 256bit interface aus, wollte nur sagen dass das design es grundsätzlich zulassen würde, mit wenig aufwand auf 512bit zu wechseln.
K4mPFwUr$t
2008-05-09, 15:08:55
512bit SI (2x256bit) was fudo da labert ist einfach bullshit.
oder hat etwa jede GPU 2x IMC 2x SI?
und selbst wenn es das hätte, wie gestaltet sich der zugriff?
2 zugriffe auf ein speicherinhalt oder prefetch?
121Ah;6490322']grundsätzlich ja.
Ich glaube kaum, dass der Chip dazu groß genug ist.
Schlammsau
2008-05-09, 22:04:22
wann soll die Karte nun vorgestellt werden? Noch im Mai?
AnarchX
2008-05-09, 22:24:08
Unwahrscheinlich, bis vor kurzem sah es nach Massenproduktion im Mai für die RV770-GDDR3 aus, der dann ab Juni wohl verfügbar gewesen wäre.
Während RV770XT-GDDR5 wohl in einem ähnliche Zeitraum vorgestellt werden würde, aber auf Grund der noch eher geringen GDDR5-Verfügbarkeit erst im Juli weitreichend verfügbar gewesen wäre.
Jedoch, scheint laut OCW, die eigentlich bisher im Bezug auf GraKas immer recht zuverlässig auf Basis ihrer asiatischen Vor-Ort-Hersteller-Quellen berichtet haben, RV770 noch nicht mal im Juni auf der Computex vertretten zu sein, was eine Verschiebung andeutet.
Im Endeffekt wird es sich wohl in den kommenden Wochen aufklären, jedenfalls scheint AMD nicht so offen die Karten zu spielen, wie bei RV670. ;)
MikBach
2008-05-09, 22:25:37
Der RV770 hat ein 256Bit-SI.
Alles andere waere albern, wor allem mit GDDR5.
Bullshit.
Sorkalm
2008-05-09, 23:07:17
Im Endeffekt wird es sich wohl in den kommenden Wochen aufklären, jedenfalls scheint AMD nicht so offen die Karten zu spielen, wie bei RV670. ;)
Es kommt auch verdammt wenig nach draußen. Keine NDA-Folie, nichts. Hat AMD wohl die Quellen in den Griff bekommen?
Es kommt auch verdammt wenig nach draußen. Keine NDA-Folie, nichts. Hat AMD wohl die Quellen in den Griff bekommen?
Die hat man immer im Griff, eher bekommt man gesagt man soll nicht zuviel verraten und falsche Infos darf man sich hin und wieder auch dazu ausdenken. Wenn es ernst wird, wird mit Geldstrafen gedroht und da man die nicht zahlen will.........
Ein minimal verbesserte RV 670 würde aber völlig reichen.
Wenn man es hinbekomt den Takt der Shader getrennt vom Rest anzusprechen, dann könnte man ja mit 320SP auf etwa 1gHz rechnen, dazu noch der Rest auf 850 - 900mHz mit doppelt so vielen Textureinheiten, hier und da etwas verbessert und schon hat man ordentlich mehr Leistung, fliegt irgenwo bei 800mio. Transistoren rum, die nicht viel mehr wie die des RV 670 kosten sollten.
Eventuell hat man auch die Idle funktion verbessert.
Tarkin
2008-05-11, 09:28:59
Passend zum Thema:
"GDDR5 in Production, New Round of Graphics Cards War Imminent.
Qimonda Ready to Deliver GDDR5 Memory Chips in Volume"
http://www.xbitlabs.com/news/video/display/20080510113121_GDDR5_in_Production_New_Round_of_Graphics_Cards_War_Imminent.html
Ailuros
2008-05-11, 15:49:26
Ja und es faengt mit 1.8GHz GDDR5 an; was sonst ist neu?
Anton schreibt auch oefters einen Haufen Scheiss zusammen ohne womoeglich erstmal durchzulesen bevor er veroeffentlicht:
But while Qimonda does not unveil the exact pricing, it is likely that GDDR5 will be more expensive than GDDR3 and GDDR4, at least initially.
Existing GDDR3 memory chips may run at 2.0GHz – 2.2GHz, which provides up to 140.8GB/s memory bandwidth in case of 512-bit bus, though, such chips are pretty expensive, just like print-circuit boards with 512-bit memory bus. For ATI, graphics product group of Advanced Micro Devices, the use of high-speed GDDR4 is an option, but Nvidia’s GeForce 8 and 9 GPUs do not support GDDR4. Therefore, the company either needs expensive GDDR3 in conjunction with wide memory bus, or GDDR5 with its extreme clock-speed potential.
Erstens ist es 1.0-1.1GHz GDDR3 verdammt nochmal und zweitens wird die Verfuegbarkeit von >2.0GHz GDDR5 (ja echte GHz) um einiges beschissener und teurer sein als 1.1GHz GDDR3. ATI steuert auch keine >140GB/sec Bandbreite pro chip an.
gamingforce
2008-05-11, 16:13:26
wieviel GB hätte den der RV770 wenn er DDR5 hat und 1800 MHz (OC 2000) ?
Ailuros
2008-05-11, 16:17:12
115,2GB/sec@1.8GHz
gamingforce
2008-05-11, 16:19:20
http://www.pcgameshardware.de/aid,643261/News/Massenproduktion_der_Radeon_HD_4800_soll_begonnen_haben/
mhh sieht wohl doch so aus das der RV770 141 GB Speicherbandbreite haben kann :smile:
Die Bandbreite kann man sich ja extrem einfach ausrechnen da ja das SI erhalten bleibt, ca. 115gb/sek.
Ailuros
2008-05-11, 16:26:12
http://www.pcgameshardware.de/aid,643261/News/Massenproduktion_der_Radeon_HD_4800_soll_begonnen_haben/
mhh sieht wohl doch so aus das der RV770 141 GB Speicherbandbreite haben kann :smile:
Na ich wuerde mal von 1.8GHz ausgehen was das GDDR5 Modell betrifft. Mehr als ~100GB/s braucht RV770 sowieso nicht.
gamingforce
2008-05-11, 16:27:25
Na ich wuerde mal von 1.8GHz ausgehen was das GDDR5 Modell betrifft. Mehr als ~100GB/s braucht RV770 sowieso nicht.
aha :|
na mehr als 80 Gb brauch der GT200 auch nicht ;D
mehr Bandbreite ist immer gut.
Ailuros
2008-05-11, 16:29:41
aha :|
na meh als 80 Gb brauch der GT200 auch nicht ;D
mehr Bandbreite ist immer gut.
RV770 hat weder die Texel noch die Pixel-/Z- Fuellraten von GF-Next. Bis Du mich in Deinem netten Klugscheisser-modus ueber die genauen Raten des letzteren einweihen kannst, darfst Du brav in der Ecke auf einem Bein warten. ;D
Wenn überhaupt so viel, könnte mir gut vorstellen, dass ATi eher moderatere Taktraten vorgibt (wohl so 1,6-1,7GHz).
Ailuros
2008-05-11, 16:31:57
Wenn überhaupt so viel, könnte mir gut vorstellen, dass ATi eher moderatere Taktraten vorgibt (wohl so 1,6-1,7GHz).
Das kommt oefters bei vielen IHVs vor das ist wahr. Hauptsaechlich wird die Taktung des Speichers leicht gesenkt um etwas Strom zu sparen. Obwohl GDDR5 um einiges sparsamer sein soll als 4 &3, kann dies bei 1GB Speichermengen vielleicht schon vorkommen.
mach mich net blöd an du Scheisser:mad:
Mach mal halblang, Ailuros hat absolut recht, es würden beim RV 670 auch nur 65gb genügen, und da der RV 770 nicht DER Chip wird reichen da die 100 - 115gb/sek dicke.
Ailuros
2008-05-11, 16:34:05
mach mich net blöd an du Scheisser:mad:
vergiss mich nicht zu melden du Memme.
Hast Du sonst noch was konstrunktives zum Thema zuzufuegen oder muss der Thread unbedingt durch solchen Kinderkram untergehen?
Weisst Du jetzt wie die Fuellraten auf GF-Next aussehen oder nicht?
gamingforce
2008-05-11, 16:34:11
Mach mal halblang, Ailuros hat absolut recht, es würden beim RV 670 auch nur 65gb genügen, und da der RV 770 nicht DER Chip wird reichen da die 100 - 115gb/sek dicke.
hätte er mir auch normal sagen können aber nicht in dem Ton:mad:
Ailuros
2008-05-11, 16:36:00
Wie man in den Wald hineinschreit, so hallt es wieder aus.
Bekomm ich jetzt ne anstaendige Antwort auf meine Frage oder nicht?
Das kommt oefters bei vielen IHVs vor das ist wahr. Hauptsaechlich wird die Taktung des Speichers leicht gesenkt um etwas Strom zu sparen. Obwohl GDDR5 um einiges sparsamer sein soll als 4 &3, kann dies bei 1GB Speichermengen vielleicht schon vorkommen.
Und hat auch noch den netten Nebeneffekt, dass man "B-Waren" Speicherchips verbauen kann wenn es knapp wird mit der Verfügbarkeit. Auf letztere bin ich eh schon gespannt :)
GDDR4 sollte auch sparsamer werden als GDDR3, was sich in der Praxis nie zeigte, zumindest hab ich noch keine 1,5V GDDR4-Chips auf Grafikkarten gesehn.
horn 12
2008-05-11, 17:38:40
Könnte sich gar vielleicht noch eine Vorstellung am mittwoch 28. Mai 2008 ausgehen, noch vor der Computex, wenn die GDDR5 Speicher nun verfügbar sind. Aber erst im Juni dürften dann die Karten flächendeckend verfügbar sein.
Ati übt nun ganz gewaltigen Druck aus, wollen wohl als Erster am längeren Hebel sein,- vielleicht auch um NV eins auszuwischen mit ihrer DX10.1 Boikution welcher so der Aufschwung genommen wurde! :mad:
Hoffe aber doch nicht, da sind aber voralle die Hersteller gefragt!
Winter[Raven]
2008-05-11, 17:52:08
Ati übt nun ganz gewaltigen Druck aus
Welcher Druck? Nvidia braucht nicht zu agieren sondern nur zu reagieren, solange AMD nur halbherzige Chips liefert wird sich an der Einstellung auch nichts ändern.
horn 12
2008-05-11, 18:13:27
Damit meinte ich an den GDDR5 Herstellern,- und an der Fertigstellung der HD4870 Pro GDDR3 und eben dem Single TopModell HD4870 GDDR5
Die DDR3 und DDR5 Varianten sollen zeitgleich gelaucht werden,- mit dem einzigen Unterschied dass die GDDR5 Modelle anfangs nur spärlich geliefert werden können, aber ab Mitte Juni in ausreichenden Zahlen verfügbar sind.
w0mbat
2008-05-11, 19:08:41
Woher weißt du das beide Varianten zeitgleich gelaunched werden? Quelle oder nur ne Vermutung?
horn 12
2008-05-11, 19:12:05
Ne, wurde mir heute von einem ital. Händler berichtet, welchen ich kontaktiert habe,- und jener sagte mir dass sie Anfang Juni was Neues erwarten, und es sollen zwei verschiedene Speicher-Versionen davon geben.
Also lege ich die Vermutung nahe, dass dies nur die HD4870-er Serie sein kann. Gesagt hat er dies aber nicht.
Ailuros
2008-05-12, 11:49:25
Und hat auch noch den netten Nebeneffekt, dass man "B-Waren" Speicherchips verbauen kann wenn es knapp wird mit der Verfügbarkeit. Auf letztere bin ich eh schon gespannt :)
GDDR4 sollte auch sparsamer werden als GDDR3, was sich in der Praxis nie zeigte, zumindest hab ich noch keine 1,5V GDDR4-Chips auf Grafikkarten gesehn.
Es gab am Anfang vom R670 auch ein paar merkwuerdige Resultate die laut AMD dank GDDR4 erscheinten; ich denke aber dass sie die paar Kleinigkeiten seither per Treiber wieder zurrecht gebogen haben.
Auf Radeons wo immer es vergleichbare boards mit GDDR3 & GDDR4 gab (wie z.B. R600) konnte ich bis jetzt keine Unterschiede sehen was den Stromverbrauch betrifft. NVIDIA will ja von GDDR4 nichts wissen, weil nach ihnen (muss nicht stimmen, ich wiederhole hier lediglich was NV behauptet) GDDR4 viel zu stark auf den Stromverbrauch hauen wuerde, weil eben ATI ihre Finger zu tief bei der GDDR4 Spezifikations-Festlegung hatte.
w0mbat
2008-05-12, 12:10:41
Also wenn ich es nicht selber komisch finden würde müsste ich jetzt sagen das der RV770XT ein 512bit SI (1024bit RB) hat. Da gibt es einige Leute die sich 100%tig sicher sind, auch nach dem Hinweis auf eine mögliche Verwechslung des SI mit dem RB. Ich würde es verstehen wenn der RV770XT dann nur auf GDDR3 setzt, aber es ist wirklich die Rede von 512bit + GDDR5 was min. 230GB/s ergeben würde. Logisch wären natürlich 256bit, aber zT weiß ich echt nicht was wahr ist. Der RV770 wird auf jeden Fall um einiges anders als bisher bekannt (oder AMD hat das Verwirrspiel jetzt perfekt drauf).
Es ist bis jetzt wohl nur der Codename (RV770) und der Fertigungsprozess (55nm) bekannt. Wieviele SPs, ROPs, TMUs, was für ein SI, welcher RAM und vorallem welche Taktraten die Dinger bekommen weiß außerhalb von AMD wohl noch niemand. Selbst das ~250mm² große Die kann komplett falsch sein.
Ailuros
2008-05-12, 12:21:36
Also wenn ich es nicht selber komisch finden würde müsste ich jetzt sagen das der RV770XT ein 512bit SI (1024bit RB) hat. Da gibt es einige Leute die sich 100%tig sicher sind, auch nach dem Hinweis auf eine mögliche Verwechslung des SI mit dem RB. Ich würde es verstehen wenn der RV770XT dann nur auf GDDR3 setzt, aber es ist wirklich die Rede von 512bit + GDDR5 was min. 230GB/s ergeben würde. Logisch wären natürlich 256bit, aber zT weiß ich echt nicht was wahr ist. Der RV770 wird auf jeden Fall um einiges anders als bisher bekannt.
Es ist bis jetzt wohl nur der Codename (RV770) und der Fertigungsprozess (55nm) bekannt. Wieviele SPs, ROPs, TMUs, was für ein SI, welcher RAM und vorallem welche Taktraten die Dinger bekommen weiß außerhalb von AMD wohl noch niemand. Selbst das ~250mm² große Die kann komplett falsch sein.
Dann stell Dir mal einen chip der 230+GB/sec Bandbreite braucht, womoeglich ueber 800SPs, 32 ROPs und 64TMUs verfuegen wuerde und dazu noch als dual-chip Dingsbums spaeter den high end Bereich bedecken.
Da fuer ein solches Monstrum sogar 400 mm^2 ziemlich knapp waeren unter 55nm, waere AMD schoen im *hust* wenn sie zwei solche Brummer auf einem PCB verfrachten wuerden.
Das gute an den bisherigen 250+mm^2 Thesen ist eben dass sie recht schoen ins insgesamte Bild passen und zumindest bestaetigen dass AMD nicht ihre Margen beissen muss und auch noch Gewinn aus einer X2 herausquetschen koennte.
w0mbat
2008-05-12, 12:24:14
Ich weiß das es komisch klingt, ich kann nur sagen dass es Quellen gibt die in diese Richtung gehen. Ich selber habe aktuell absolut keine Ahnung wie der RV770 aussehen wird. Am logischten sind die 480SPs, 16ROPs, 32TMUs & 256bit @ GDDR5. Aber das ist eben nur ein Gerücht.
deekey777
2008-05-12, 12:27:24
Ich weiß das es komisch klingt, ich kann nur sagen dass es Quellen gibt die in diese Richtung gehen. Ich selber habe aktuell absolut keine Ahnung wie der RV770 aussehen wird. Am logischten sind die 480SPs, 16ROPs, 32TMUs & 256bit @ GDDR5. Aber das ist eben nur ein Gerücht.
32 TMUs und 480 SPs sind nicht ganz logisch.
2x16 TMUs und 480 SP sind logischer. Für mich sind 24 TMUs und 400 SPs "am Logischsten" (womit ich auf 800 "SPs" komme).
Hvoralek
2008-05-12, 12:28:56
Also wenn ich es nicht selber komisch finden würde müsste ich jetzt sagen das der RV770XT ein 512bit SI (1024bit RB) hat. Da gibt es einige Leute die sich 100%tig sicher sind, auch nach dem Hinweis auf eine mögliche Verwechslung des SI mit dem RB.Und die sind sich auch sicher, dass sie nicht ein 2x256- bit- SI bei "R700" meinen?
Ailuros
2008-05-12, 12:31:25
Ich weiß das es komisch klingt, ich kann nur sagen dass es Quellen gibt die in diese Richtung gehen. Ich selber habe aktuell absolut keine Ahnung wie der RV770 aussehen wird. Am logischten sind die 480SPs, 16ROPs, 32TMUs & 256bit @ GDDR5. Aber das ist eben nur ein Gerücht.
Es sind nicht "nur" Geruechte mit dem obrigen verbunden, ergo vertrau Deinem Instikt ein bisschen mehr.
Fudo: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7272&Itemid=1
Beide 512bit? Oh moment er ist sich ENDLICH sicher dass "GT200" nun doch single chip ist. Mal sehen ob und wann er seine Meinung auch noch ueber den Codenamen aendern wird....;D
w0mbat
2008-05-12, 12:32:52
@deekey777: Ich bin GPU Guru, kann also dazu nichts sagen. Aber das mit den 400SPs@RV770 und 800SPs@R700 wüde Sinn machen.
@Hvoralek: Sie sagen dass sie sich sicher sind, ob sie es wirklich sind weiss ich nicht.
@Ailuros: Wieso denkst du das es nicht nur Geruechte sind? Weisst du naeheres?
deekey777
2008-05-12, 12:34:54
RV770PRO supports 256bit memory (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7274&Itemid=65)
We wrote that RV770XT supports 512bit here and now we have learned that the slower RV770PRO will only support 256 bit and it will use GDDR3
Das klingt für mich irgendwie danach, dass der RV770XT ein 2xRV770 ist.
wenn das stimmt mit dem verdoppelten shader,512bit und gddr5 dann gute nacht gt200,dann kann man gleich vorraussagen goodbye
w0mbat
2008-05-12, 12:36:56
Hm, RV770Pro also single-core und RV770XT = dual-core?
Hm, RV770Pro also single-core und RV770XT = dual-core?
glaube ich kaum und wenn doch dann wird es nicht das selbe system sein wie jetzt beim cf sondern wohl doch so arbeiten wie eine gpu.
deekey777
2008-05-12, 12:40:44
Und R700?
Und R650?;)
Vielleicht ist der RV770 = R650 in 55nm-Fertigung.
Nakai
2008-05-12, 12:44:46
Und R650?
Also nach AMD war der R650 nur ein verbesserter R600, welcher die Bandbreite und Texturfüllrate besser ausnutzt.
mfg Nakai
Ailuros
2008-05-12, 12:45:10
wenn das stimmt mit dem verdoppelten shader,512bit und gddr5 dann gute nacht gt200,dann kann man gleich vorraussagen goodbye
Traeum weiter.
davidzo
2008-05-12, 12:55:01
Im idealen Fall (für uns) könnte AMD den rv770 wirklich so auslegen:
- 1,2 mio Trannies
- 380mm²
- 128 5d shader (640)
- 32tmus
- 32rops
Dann wären die yields aber in gefahr und eine dualkarte nahezu unmöglich. Und amd kann sich einen gescheiterten monsterchip derzeit nicht leisten, einfachere kleinere chips wären also logischer.
eventuell hat man das dualgerücht aber auch nur gestreut um nvidia zu foppen. dann würden sie jetzt mit einem brutal guten rv770 single den markt geradezu übernehmen.
K4mPFwUr$t
2008-05-12, 12:57:46
es ist immer noch ein RV770 und kein R770 :rolleyes:
es ist immer noch ein RV770 und kein R770 :rolleyes:
eben das ist der punkt nicht mal das weis man.:)
w0mbat
2008-05-12, 12:59:11
Und was sagt der Codename genau? AMD will damit vielleicht nur verwirren.
deekey777
2008-05-12, 13:04:26
Hm, RV770Pro also single-core und RV770XT = dual-core?
Keine Ahnung.
"Pro" vs. "XT" kann bei ATi alles sein: von 3/4 eines Chips bis Taktunterschied.
Es wäre nicht undenkbar, dass "XT" eine Dual-Chip-Variante beschreibt. "XT" war eigentlich immer das absolute Highend. Das XTX-Kürzel war dagegen ein böser Scherz (wie XT PE).
Also nach AMD war der R650 nur ein verbesserter R600, welcher die Bandbreite und Texturfüllrate besser ausnutzt.
mfg Nakai
Die Folie habe ich auch gesehen. :biggrin:
Den ATi-Technikern ist bestimmt schon im Herbst oder gar Spätsommer 2006 aufgefallen, dass der R600 - und somit der RV670 - zu schwach geraten ist. Es wäre nicht verwunderlich, dass schon zu diesem Zeitpunkt ein verbreiteter R600 in Entwicklung war und zwar als R650.
Da man nicht einen R650 entwickelt, sondern eine ganze Familie, wo die Leistung und Größe der einzelnen Chips über die Anzahl der Einheiten bestimmt wird, nimmt das jede Menge Zeit für sich, auch weil deutlich mehr gemacht werden muss, als es beim Übergang von 80/65 nm zu 55 nm der Fall war.
Ist aber nur eine Spinnerei von mir.
das brauche ich nicht,wenn das stimmt dann speist die die gt200 mit den jetztigen spekulierten werten zum frühstück und wenn du dich irgendwie auf den schlips getreten fühlst geh zum psychiater
Ähm, schonmal die vermutlichen Daten des GT200 gesehen?
Ailuros
2008-05-12, 13:04:36
das brauche ich nicht,wenn das stimmt dann speist die die gt200 mit den jetztigen spekulierten werten zum frühstück und wenn du dich irgendwie auf den schlips getreten fühlst geh zum psychiater
Du kannst trotzdem weiter traeumen :P Aber wenn Du schon so reagieren musst die Stunde kostet bei mir 50 Euro :biggrin:
deekey777
2008-05-12, 13:07:13
Und was sagt der Codename genau? AMD will damit vielleicht nur verwirren.
Der Codename sagt: AMD wird mit diesem Chip Geld verdienen, da die Käufer auf RV-Chips stehen.
Ihr könnt das drehen und wenden wir ihr wollt, das ist ein funktionierender RV670 und da könnt ihr euch auch auf den Kopf stellen und sonst was machen, davon wirds nicht anderst. Der RV770 wird in 2 Versionen kommen, nähmlich 4850 und 4870 die sich wie die aktuelen 3850 und 3870 unterschieden werden. Der RV770 XT wurde von irgendeinem ins leben gerufen, genau wie RV770 Pro, es bleibt aber bei RV770 und die DC karte wird mit 2xRV780 beschleunigt. Von den 480SP kann man auch mal langsam abschied nehmen.
Wenn man das hier so liest, kommt es einem so vor als hätten einige noch nie in einem großen Betrieb gearbeitet.
Ähm, schonmal die vermutlichen Daten des GT200 gesehen?
wer lesen kann ist klar im vorteil wir sprechen von den spekulierten werten.
w0mbat
2008-05-12, 13:53:23
Also ich gehe jetzt mal von einem 512Bit SI aus, mal sehen. Klingt zwar nicht logisch, aber ich weiß es nicht besser.
Ronny145
2008-05-12, 13:57:36
Also wenn ich es nicht selber komisch finden würde müsste ich jetzt sagen das der RV770XT ein 512bit SI (1024bit RB) hat. Da gibt es einige Leute die sich 100%tig sicher sind, auch nach dem Hinweis auf eine mögliche Verwechslung des SI mit dem RB. Ich würde es verstehen wenn der RV770XT dann nur auf GDDR3 setzt, aber es ist wirklich die Rede von 512bit + GDDR5 was min.
Deine Vorhersagen zum R520, R580, K10 und Co. waren mehr falsch als richtig. Ich wüsste nicht weshalb das nun dieses mal anders sein soll. Vor allem nicht dann, wenn das die gleichen Leute sind, von denen du diese Daten bekommst.
w0mbat
2008-05-12, 14:19:53
Ich habe weder Vorhersagen zu R520 noch zu R580 gemacht. Ist echt witzig was manche User mir hier in den Mund legen wollen. Und die Technischen Daten zu K10 & R600/RV670 von mir waren richtig, nur habe ich eben die Performance auf Grund dieser Daten falsch eingeschätzt.
Ich bin weder ein CPU noch ein GPU Guru, habe aber Quellen die mehr wissen als allg. bekannt ist, also versuche ich daraus was zu machen. Ich denke das können dir hier einige User bestätigen
Und zum RV770: Ich weiß eben nicht wie dessen Specs sind. Ich selber spekuliere jetzt auf ein 512bit SI, was aber auch vollkommen falsch sein kann, zumal es nicht gerade logisch ist.
K4mPFwUr$t
2008-05-12, 14:21:36
@w0mbat
was AMD mit den codenamen erreichen will?
zeigen das man ein values chip in entwicklung hat.
warum sollte es im intresse stehen ein wolf im schafspelz vorzugaugeln.
beim RV570 und RV670 war es ja auch nicht anders. nur das beim RV670 der richtige high end chip fehlt.
PS: wenn es dir nicht aufgefallen ist nimmt dich keiner mehr ernst mit deinen "quellen", nicht nur hier sondern auch im HWL forum.
Nakai
2008-05-12, 14:28:03
PS: wenn es dir nicht aufgefallen ist nimmt dich keiner mehr ernst mit deinen "quellen", nicht nur hier sondern auch im HWL forum.
Tut mir echt leid für dich, aber er hat Quellen, sogar ziemlich gute.
;)
Deine Vorhersagen zum R520, R580, K10 und Co. waren mehr falsch als richtig.
Zum K10 waren es sie sicher nicht.
mfg Nakai
Hvoralek
2008-05-12, 14:32:21
Also ich gehe jetzt mal von einem 512Bit SI aus, mal sehen. Klingt zwar nicht logisch, aber ich weiß es nicht besser.Ist das nicht eigentlich relativ egal? Wenn der Chip auch nur halbwegs so aussieht, wie imM angenommen, würden 115 oder 230 GiB/s keinen großen Unterschied ausmachen; nur die Platine wäre aufwendiger. Das könnte höchstens ein Anzeichen dafür sein, dass auch die optimistischsten bisherigen Vermutungen noch deutlich zu tief greifen. Dagegen spricht aber der Name und die ziemlich gesicherte Doppelchipvariante.
K4mPFwUr$t
2008-05-12, 14:36:03
@Nakai
klar hat er gute, in seinen träumen :|
ich erinnere mich nur zu gern an den ganzen R600 kommentaren, wo der doch alles wegboxen sollte, eine 8800GTX zersägt wird und sonstige sachen.
entweder hat er garkeine quellen und denkt sich alles aus, oder er hat schlechte und die erzählen im nicht die wahrheit oder er interpretiert zu viel rein.
und mal ganz unter uns, du hast ja auch deine "quellen" ;)
@Hvoralek
ich glaub nicht daran das man bei dem recht kleinen RV770 zu einem 512bit SI greifen wird, vorrangig weil der preisvorteil beim RV wegfallen würde. für die 1-2 highendversionen reicht ja GDDR5, den rest kann man perfekt abstufen mit GDDR4 und GDDR3.
Sorkalm
2008-05-12, 14:43:37
Daten von Quellen zu haben und sie einzuschätzen sind zwei grundverschiedene Dinge. Fudo schafft letzteres auch nicht.
Hvoralek
2008-05-12, 15:10:10
@Hvoralek
ich glaub nicht daran das man bei dem recht kleinen RV770 zu einem 512bit SI greifen wird, vorrangig weil der preisvorteil beim RV wegfallen würde. für die 1-2 highendversionen reicht ja GDDR5, den rest kann man perfekt abstufen mit GDDR4 und GDDR3.Wie gesagt: Ein 512- bit- SI + GDDR5 würde nur dann irgendeinen Sinn ergeben, wenn RV770 erheblich stärker ist als selbst die optmistischsten hier genannten Schätzungen. Bei einem nur 250 mm² großen Chip ist auch zweifelhaft, ob der Umfang für die Kontakte ausreichen würde. Und da RV770 aller Voraussicht nach nur eine Evolution gegenüber RV670 werden soll, gehe ich auch von 256 bit aus.
Nakai
2008-05-12, 15:25:01
ich erinnere mich nur zu gern an den ganzen R600 kommentaren, wo der doch alles wegboxen sollte, eine 8800GTX zersägt wird und sonstige sachen.
entweder hat er garkeine quellen und denkt sich alles aus, oder er hat schlechte und die erzählen im nicht die wahrheit oder er interpretiert zu viel rein.
und mal ganz unter uns, du hast ja auch deine "quellen"
Lol, denkst du, dass AMD wirklich seinen R600 schlecht dastehen hätte lassen?
;)
Wie gesagt: Ein 512- bit- SI + GDDR5 würde nur dann irgendeinen Sinn ergeben, wenn RV770 erheblich stärker ist als selbst die optmistischsten hier genannten Schätzungen. Bei einem nur 250 mm² großen Chip ist auch zweifelhaft, ob der Umfang für die Kontakte ausreichen würde. Und da RV770 aller Voraussicht nach nur eine Evolution gegenüber RV670 werden soll, gehe ich auch von 256 bit aus.
Ich gehe von 400 SPs und 4 Octo-TMUs aus.
Bei dem Takt von an die 850 bis 1000Mhz passt das zu der zu erwartenden Leistungssteigerung.
Ebenso hätte ein R700 dann 800SPs.
mfg Nakai
Sunrise
2008-05-12, 15:35:21
Wenn R700 die konsequente Weiterentwicklung von R600 war/ist, dann hat/te R700 auch ein 512bit-Speicherinterface. Wenn aus R600 schließlich RV670 wurde, dann wurde aus R700 schließlich RV770. Was das für das Speicherinterface bedeutet, wäre dann eindeutig.
Ein 512bit-Speicherinterface x 2 auf der gleichen Platine wäre absoluter Wahnsinn, wenn man mal davon ausgeht, dass eine X2 wieder prinzipiell möglich erscheint. Dies wäre mit einem 256bit-Speicherinterface x 2 mit GDDR5 wiederum problemlos machbar und auch zugleich verdammt schnell.
Möglicherweise gibt es doch zwei verschiedene ASICs, und zwar einmal einen mit 512bit angebundenen R700 mit GDDR3 (die RV770 Pro) und einmal einen mit 256bit angebundenen RV770 XT und GDDR5. Daher auch die Verwirrung, die derzeit kursiert.
250mm² und das pre-Sample PCB sprechen eigentlich eine deutliche Sprache. Und 250mm² sprechen nicht für ein 512bit-Speicherinterface.
Does a 512-bit bus require a die size that's going to be in the neighbourhood (or bigger) of R600 going forward?
No, through multiple layers of pads, or through distributed pads or even through stacked dies, large memory bit widths are certainly possible. Certainly a certain size and a minimum number of pads is required to enable this technology, but it's not required to have a large die
Oder doch?
Bleibt mir nur noch zu erwähnen, dass ich in dieser Runde vor AMD meinen nicht vorhandenen Hut ziehe.
Diese Spekulationen beruhen im Übrigen (wie zu 90% der Fälle) auf eigenen Überlegungen und sind nicht Teil irgendwelcher Quellen, die derzeit sowieso keine Ahnung haben. Bei GT200 sieht es da schon ganz anders aus.
Hvoralek
2008-05-12, 15:35:50
Ich gehe von 400 SPs und 4 Octo-TMUs aus.
Bei dem Takt von an die 850 bis 1000Mhz passt das zu der zu erwartenden Leistungssteigerung.
Ebenso hätte ein R700 dann 800SPs.Und so ein Chip könnte was genau mit über 230 GiB/s anfangen? Die Mehrkosten für eine aufwändige Platine + GDDR5 wären die wenigen Prozent, die man damit gegenüber 115 - 130 GiB/s gewinnen könnte, wohl kaum wert.
Nakai
2008-05-12, 15:39:15
Und so ein Chip könnte was genau mit über 230 GiB/s anfangen? Die Mehrkosten für eine aufwändige Platine + GDDR5 wären die wenigen Prozent, die man damit gegenüber 115 - 130 GiB/s gewinnen könnte, wohl kaum wert.
Gar nichts?
Er wird später mit GDDR5 kommen, aber zu erst entweder mit GDDR3 oder GDDR4.
mfg Nakai
Tut mir echt leid für dich, aber er hat Quellen, sogar ziemlich gute.
;)
Davon war bislang aber nichts zu merken.
Gaestle
2008-05-12, 16:41:08
Entspannt Euch mal. Es geht hier nicht um Quellen-Güte, sondern um Spekus zum Chip.
AnarchX
2008-05-12, 16:47:37
RV770 "Erweiterung" »
Ich habe gesagt, bevor RV770 Mitte Mai Produkt, der neuesten Nachricht ist: Um zu können, in der Computex Taipei 2008 Ausstellung in der globalen IT-Branche steht unter der Aufmerksamkeit der RV770, so dass ATI Entscheidung oder "erweiterte" einen halben Monat, dann nicht nur RV770PRO, auch RV770XT Will be arrived in der Szene.
RV770 --- wir zunehmend 3. Juni
http://bbs.chiphell.com/viewthread.php?tid=22078&extra=page%3D1
deekey777
2008-05-12, 16:52:03
http://bbs.chiphell.com/viewthread.php?tid=22078&extra=page%3D1
Du bist aber ein Scherzkecks. Da überlege ich mir, von wem dieses Zitat kommen soll...
:biggrin:
AnarchX
2008-05-12, 16:58:41
Dem letzten Google-Sprachtools-Update sei dank.:D
Was nun eben auch jede Sprache direkt in (ein teilweise amüsantes) Deutsch übersetzt.
Aber es sollte ja ersichtlich sein, was da Napoleon schreibt:
- RV770 verschoben von Mitte Mai auf Anfang Juni, um dann medienwirksam Pro und XT zu launchen
- Launch offenbar am 3.6.
Auf Radeons wo immer es vergleichbare boards mit GDDR3 & GDDR4 gab (wie z.B. R600) konnte ich bis jetzt keine Unterschiede sehen was den Stromverbrauch betrifft. NVIDIA will ja von GDDR4 nichts wissen, weil nach ihnen (muss nicht stimmen, ich wiederhole hier lediglich was NV behauptet) GDDR4 viel zu stark auf den Stromverbrauch hauen wuerde, weil eben ATI ihre Finger zu tief bei der GDDR4 Spezifikations-Festlegung hatte.
Was auch klar ist, die verbauten GDDR4-Chips werden mit der gleichen Spannung wie GDDR3-Chips betrieben. Ursprünglich wollte man AFAIR GDDR4 mit 1,5V spezifizieren, hat dies dann auf 1,8V "Über"spannung geändert, Standard wären tatsächlich 1,5V, nur hab ich solche Chips noch auf keiner Karte gesehen.
Naja das sind eher Marketingbehauptungen seitens Nvidia, GDDR4 verbraucht nur dann mehr, wenn er mit mehr Spannung als GDDR3 betrieben wird, zumindest fällt mir kein Grund ein warum er sonst mehr brauchen sollte.
@512Bit Spekulation: Never :biggrin:
MikBach
2008-05-12, 17:11:15
Ist das nicht eigentlich relativ egal? Wenn der Chip auch nur halbwegs so aussieht, wie imM angenommen, würden 115 oder 230 GiB/s keinen großen Unterschied ausmachen; nur die Platine wäre aufwendiger. Das könnte höchstens ein Anzeichen dafür sein, dass auch die optimistischsten bisherigen Vermutungen noch deutlich zu tief greifen. Dagegen spricht aber der Name und die ziemlich gesicherte Doppelchipvariante.
So sieht´s aus. Amen.
Leute, vergesst einfach das 512-Bit SI beim RV770.
@coda
wegen dem speicherinterface, soweit ich die fertigungstechnologien kenne (leider nur von der maschinenfertigung - esec her) sollte es möglich sein ein 512bit interface auf einen 250mm2 chip zu linken. sinnlos ist es trotzdem.
allgemein,
ich glaube den gerüchten nicht, wenn dann würde ich mir endlich sinnvolles CF vorstellen mit nicht-redundantem speicher. dort würde es sinn machen. der aufwand dafür sollte (wenn man davon ausgeht, dass ATI das mit dem R600, oder direkt nach den ersten tests, auf die to do list gesetzt hat) nicht riesig sein -> evnt. ist damit das 512bit interface gedacht.
1024mb memory mit 512bit anbindung und eine saubere controllerlogik innerhalb der kerne, die mit 512bit umgehen können, sprich die erhöhte registerzahl usw. gemeinsam ansprechen können.
mit dem r700 war das ja geplant, evnt. wurde das vorgezogen...
Für nicht redudanten Speicher benötigt man jedoch auch ein anderes Verfahren bei CF bzw. SLI. Solange wie man beim AFR bleibt, wird der doppelte Speicher einfach immer benötigt.
könnte auch sein das 2 verschiedene chips raus kommen.der rv770 und dann für die highendsparte der r700 die eigentlich garnichts miteinander zutun haben.
anddill
2008-05-12, 17:49:20
Für nicht redudanten Speicher benötigt man jedoch auch ein anderes Verfahren bei CF bzw. SLI. Solange wie man beim AFR bleibt, wird der doppelte Speicher einfach immer benötigt.
Nein, Du brauchst nur zwei Framebuffer, und die hast Du ja jetzt schon, wenn nicht sogar drei (Tripelbuffering). Texturdaten könnten problemlos gemeinsam genutzt werden.
robbitop
2008-05-12, 18:09:08
Nein, Du brauchst nur zwei Framebuffer, und die hast Du ja jetzt schon, wenn nicht sogar drei (Tripelbuffering). Texturdaten könnten problemlos gemeinsam genutzt werden.
Natürlich müssen Texturen redundant gehalten werden. Der Framebuffer nur Teilweise, sofern SFR/Supertiling zum Einsatz kommt. Bei AFR muss natürlich auch der Framebuffer redundant gehalten werden.
Wenn du die Texturen der anderen GPU mitnutzen möchtest, brauchst du einen adäquaten Zugang zum VRAM der anderen GPU. Ergo einen sehr schnellen Bus zwischen 2 GPUs, der möglicherweise gar nicht praktikabel wirtschaftlich realisierbar ist. Schwer einzuschätzen.
und wieso genau? wo fehlt es?
MikBach
2008-05-12, 18:17:44
mit dem r700 war das ja geplant, evnt. wurde das vorgezogen...
Den Sinn verstehst aber auch nur du, oder? :confused:
edit:
und wieso genau? wo fehlt es?
@Topic
An den TMUs.
anddill
2008-05-12, 18:55:56
Natürlich müssen Texturen redundant gehalten werden. Der Framebuffer nur Teilweise, sofern SFR/Supertiling zum Einsatz kommt. Bei AFR muss natürlich auch der Framebuffer redundant gehalten werden.
Wenn du die Texturen der anderen GPU mitnutzen möchtest, brauchst du einen adäquaten Zugang zum VRAM der anderen GPU. Ergo einen sehr schnellen Bus zwischen 2 GPUs, der möglicherweise gar nicht praktikabel wirtschaftlich realisierbar ist. Schwer einzuschätzen.
Kannst Du Dich erinnern? Die ersten speziellen VRAMS hatten zwei Ports, so daß der Grafikchip in den Framebuffer schreiben konnte, während der (separate) RAMDAC ihn unabhängig davon ausgelesen hat.
Man könnte auch den Ringbus über beide GPUs führen, einen Hypertransport-Link dazwischensetzen etc, und den Grafikchips zum Ausgleich einen nennenswerten Cache spendieren.
MikBach
2008-05-12, 19:09:44
Kannst Du Dich erinnern? Die ersten speziellen VRAMS hatten zwei Ports, so daß der Grafikchip in den Framebuffer schreiben konnte, während der (separate) RAMDAC ihn unabhängig davon ausgelesen hat.
Hä?
Du meinst DDR? Oder ich stehe gerade mächtig auf dem Schlauch...
anddill
2008-05-12, 19:11:02
Nein, viel älter. So um 1990.
edit (um das mal zu präzisieren):
Die ersten RAMs waren grottig langsam, und für Grafikkarten praktisch unbrauchbar, da schon zu lahm um schnell genug an den Framebuffer ranzukommen. Also entwickelte man speziellen RAM, der zwei I/O-Ports hatte. Über den einen Port konnte der Grafikchip in den Speicher schreiben, und der RAMDAC konnte über den zweiten Port gleichzeitig, asynchron und unabhängig die Daten lesen, um sie am Monitor auszugeben.
Das war, als ein RAM 4 Bit breit war und 128kB schon viel war.
Irgendwann wurde dann EDO oder SDRAM schnell genug, so daß man sich den zweiten Port sparen konnte. Aber bei alten Grafikkarten wie den ersten Voodoos, ATI Mach64 oder S3 Virge kann man nachweisen, daß eine hohe Bildwiederholrate die Grafikleistung senkt, weil der RAMDAC den VRAM stärker belastet.
AnarchX
2008-05-12, 19:13:02
Man könnte auch den Ringbus über beide GPUs führen, einen Hypertransport-Link dazwischensetzen.
Einer reicht das sicherlich nicht, immerhin wird schon auf dem R600 mit je 512-Bit geschrieben und gelesen, was dann fast 200GB/s bi-direktional macht.
Aber der Ansatz mit dem Ringbus erscheint an sich schon logisch und wird schon länger diskutiert.
MikBach
2008-05-12, 19:15:51
Nein, viel älter. So um 1990.
Ah, jetzt ja.
Du hast recht.
Der V-RAM der Grakas funktioniert so. :up:
Nein, viel älter. So um 1990.
edit (um das mal zu präzisieren):
Die ersten RAMs waren grottig langsam, und für Grafikkarten praktisch unbrauchbar, da schon zu lahm um schnell genug an den Framebuffer ranzukommen. Also entwickelte man speziellen RAM, der zwei I/O-Ports hatte. Über den einen Port konnte der Grafikchip in den Speicher schreiben, und der RAMDAC konnte über den zweiten Port gleichzeitig, asynchron und unabhängig die Daten lesen, um sie am Monitor auszugeben.
Das war, als ein RAM 4 Bit breit war und 128kB schon viel war.
Irgendwann wurde dann EDO oder SDRAM schnell genug, so daß man sich den zweiten Port sparen konnte. Aber bei alten Grafikkarten wie den ersten Voodoos, ATI Mach64 oder S3 Virge kann man nachweisen, daß eine hohe Bildwiederholrate die Grafikleistung senkt, weil der RAMDAC den VRAM stärker belastet.
Auch edit.
Jetzt verstehe ich, was du meinst.
Du hast vollkommen recht.
Einer reicht das sicherlich nicht, immerhin wird schon auf dem R600 mit je 512-Bit geschrieben und gelesen, was dann fast 200GB/s bi-direktional macht.
Aber der Ansatz mit dem Ringbus erscheint an sich schon logisch und wird schon länger diskutiert.
HT wär auch nicht wirklich das richtige Protokoll für diese Aufgabe ;)
Ein breiter Bus zwischen den beiden Chips mach eigentlich nur Sinn wenn beide Chips auf einem Träger sind.
anddill
2008-05-12, 19:27:57
HT wär auch nicht wirklich das richtige Protokoll für diese Aufgabe ;)
Ein breiter Bus zwischen den beiden Chips mach eigentlich nur Sinn wenn beide Chips auf einem Träger sind.
So könnte ich mir das auch vorstellen. Der eine Grafikchip enthält das 512Bit-Speicherinterface. Intern sind über einen Bus/Crossbar/Whatever die Recheneinheiten angekoppelt. Gleichzeitig führt ein Port wieder nach außen (wie auch immer der dann realisiert ist), wo ein Assist-Chip ohne eigenes Speicherinterfache sozusagen als Coprozessor angekoppelt wird. Der bräuchte dann wahrscheinlich einen Embedded-Framebuffer oder zumindest einen fetten Cache. Und wenn man damit auf einem gemeinsamem Träger bleibt, und die Signale nicht über ein PCB routet, kann man das breit und schnell auslegen.
AnarchX
2008-05-12, 19:32:09
Der eine Grafikchip enthält das 512Bit-Speicherinterface.
Das hätte aber keinen Vorteil für ATi, wenn schon dann werden zwei Value-GPUs mit je 256-Bit gekoppelt, wodurch man eben RnD und Tapeouts sparen kann.
anddill
2008-05-12, 19:38:19
Es würde den Blödsinn mit dem doppelten VRAM beenden. Das ist einfach so fürchterlich unelegant.
K4mPFwUr$t
2008-05-12, 19:41:15
halte ich trozdem für ausgemachten unsinn ...
man sollte nicht vergessen das ATI über einen ringbus verfügt, dieser ist afaik intern mit 512bit angebunden.
nur eine koppelung von 2x 256bit SI halte ich für unsinn, wie solll das aussehen geschweige funktionieren? und vor allem warum es sich kompleziert machen wenn es auch einfach geht mit GDDR5?
anderseits müsste man alles sehr redundant aufbauen in der GPU oder zwei schienen fahren. letzteres halte ich für unsinn hoch 3, da die entwicklungs und seperate fertigung einfach unwirtschaftlicher sind was man bis dato je hatte.
zumal ist eine chip kommunikation über ein lächerliches 512bit SI einfach um längen zu wenig, wenn ihr sowas in den sinn habt ;)
Entspannt Euch mal. Es geht hier nicht um Quellen-Güte, sondern um Spekus zum Chip.
Alos man kann schon unterscheiden zwischen "seriösen" Spekulationen und Fantasien.
MikBach
2008-05-12, 19:41:58
Es würde den Blödsinn mit dem doppelten VRAM beenden. Das ist einfach so fürchterlich unelegant.
Das ist eh Schwachsinn und der Wunschtraum der ATI-Fanboys.:|
AnarchX
2008-05-12, 19:46:18
Es würde den Blödsinn mit dem doppelten VRAM beenden. Das ist einfach so fürchterlich unelegant.
Aber wie schon gesagt, geht es ATi/AMD, bei denen nunmal Geld eher knapp ist, darum mit wenigen Mitteln eine High-End-Lösung auf die Beine zu stellen und dazu gehört momentan halt noch die Inkaufnahme von doppelten VRAM, was man zukünftig lösen wird/will.
Aber da wird AMD sicherlich keine zwei verschiedenen Dies fertigen, wo einer mit einem für ihn überproportionalen 512-Bit SI kommt und der andere ganz ohne SI, da es doch der eigentlichen Intention widerspricht und man dann gleich einen großen Die fertigen könnte.
Hauwech
2008-05-12, 20:28:45
Nein, viel älter. So um 1990.
edit (um das mal zu präzisieren):
Die ersten RAMs waren grottig langsam, und für Grafikkarten praktisch unbrauchbar, da schon zu lahm um schnell genug an den Framebuffer ranzukommen. Also entwickelte man speziellen RAM, der zwei I/O-Ports hatte. Über den einen Port konnte der Grafikchip in den Speicher schreiben, und der RAMDAC konnte über den zweiten Port gleichzeitig, asynchron und unabhängig die Daten lesen, um sie am Monitor auszugeben.
Das war, als ein RAM 4 Bit breit war und 128kB schon viel war.
Irgendwann wurde dann EDO oder SDRAM schnell genug, so daß man sich den zweiten Port sparen konnte. Aber bei alten Grafikkarten wie den ersten Voodoos, ATI Mach64 oder S3 Virge kann man nachweisen, daß eine hohe Bildwiederholrate die Grafikleistung senkt, weil der RAMDAC den VRAM stärker belastet.
Ich glaube, was du meinst ist W-RAM, hatten damals die Matrox Millenium drauf.
Ganz allgemein heißt es Dual-Ported RAM, W-RAM (Window RAM) ist nur eine Sonderform davon.
MikBach
2008-05-12, 21:13:05
Ich glaube, was du meinst ist W-RAM, hatten damals die Matrox Millenium drauf.
Er meint was anderes...
Hvoralek
2008-05-12, 21:38:58
Aber da wird AMD sicherlich keine zwei verschiedenen Dies fertigen, wo einer mit einem für ihn überproportionalen 512-Bit SI kommt und der andere ganz ohne SI, da es doch der eigentlichen Intention widerspricht und man dann gleich einen großen Die fertigen könnte.Wenn der Chip "mit SI" nicht nur mit dem Speicher, sondern auch noch mit einer ordentlichen (ähnlichen) Bandbreite mit dem anderen Chip verbunden werden müsste, bräuchte man nicht sogar 2 512- bit- Interfaces an dem einen Chip? Wie groß müsste der denn sein?
anddill
2008-05-12, 22:01:54
Der Link zum 2. Chip müßte die halbe Datenrate des Speicherinterfaces haben.
K4mPFwUr$t
2008-05-12, 22:19:31
nur ist der IMC eigentlich nicht für die interne kommunikation gedacht, sondern für dne speicherzugriff.
es würde schon daran scheitern den IMC beizubringen das er die interne kommunikation handeln soll. auch ein zweites 512bit SI würde nicht reichen und auch so gesehen garnicht gehen.
ich glaub du stellst dir das zu einfach vor anddill.
Hvoralek
2008-05-12, 22:23:43
Der Link zum 2. Chip müßte die halbe Datenrate des Speicherinterfaces haben.Was für Taktraten wären da denn erreichbar?
anddill
2008-05-12, 22:26:33
Interne Kommunikation gibt es schon seit 2 (oder 3?) Chipgenerationen. Seitdem die festen Pipelines aufgelöst wurden und der Ringbus eingeführt. Wo ist das Problem, an die interne Adressierung noch ein Bit für die Chipnummer ranzupappen?
Was für Taktraten wären da denn erreichbar?
Hä? Der Link? Der Chip? keine Ahnung, frag die Ingenieure bei AMD. Aber realistisch betrachtet wird eh wieder irgend was herkömmliches kommen, incl. Microrucklern.
AnarchX
2008-05-12, 22:30:56
Wenn der Chip "mit SI" nicht nur mit dem Speicher, sondern auch noch mit einer ordentlichen (ähnlichen) Bandbreite mit dem anderen Chip verbunden werden müsste, bräuchte man nicht sogar 2 512- bit- Interfaces an dem einen Chip? Wie groß müsste der denn sein?
Für ein externes 512-Bit SI bräuchte es doch einen internen 1024-Bit Bus, was dann, wenn man nicht einen Ring-Stop zweimal durchlaufen will, pro Chip ein 256-Bit SI für den Speicher und dann noch vier 512-Bit Interfaces für Kommunikation. ;D
Natürlich könnte man die Kommunikationsinterfaces höher als die GPU takten und somit Breite einsparen, Hypertransport 3.0 bietet ja auch bis zu 2.6GHz und bei einer Package-Lösung dürfte eigentlich noch mehr möglich sein: z.B. 1GHz GPU-Takt, Interconnect auf 4GHz -> 2x128-Bit pro Chip Kommunikation. Zudem dürften die Anschlusspads wohl nicht so groß sein, wie bei dem Speicherinterface.
Hier nochmal die Folie zum Ringbus:
http://img148.imageshack.us/img148/2436/ringbusii2yl4.jpg
K4mPFwUr$t
2008-05-12, 22:31:45
wie soll ein speicherbus die interne kommunikation handeln?
entweder stelle ich mich gerade dumm an mir das vorzustellen oder es geht wirklich nicht.
die idee mit dem zusätzlichen bit ist an sich gut und wohl relativ leicht umsetzbar.
allerdings wird es wohl daran scheitern das man zwei chips mit dem fast identischen inhalt konstruieren und bauen muss. oder man halt sehr viel redundanz hat und den teil der nicht benötigt wird einem "lasercut" unterzogen wird.
aber mal angenommen es würde so kommen, stellt sich die frage wie hoch müsste die interne kommunikation über das speicherinterface in anspruch nehmen.
zumal die bandbreite der einen GPU ja praxisnah nur die hälfte betragen würde, weil sie ja daten für zwei GPUs ranschaufeln müsste. und vor allem die daten nochmal über den anderen speicherbus zur GPU#2 schaufeln müsste. ob das nicht probleme mit der zu großen verzögerung mit sich bringt?
Hvoralek
2008-05-12, 22:45:32
Interne Kommunikation gibt es schon seit 2 (oder 3?) Chipgenerationen. Seitdem die festen Pipelines aufgelöst wurden und der Ringbus eingeführt. Wo ist das Problem, an die interne Adressierung noch ein Bit für die Chipnummer ranzupappen?Die Daten müssen auch noch zum richtigen Chip transportiert werden. Aber sieht ja so aus, als sei das durchaus machbar.
anddill
2008-05-12, 22:49:50
wie soll ein speicherbus die interne kommunikation handeln?
entweder stelle ich mich gerade dumm an mir das vorzustellen oder es geht wirklich nicht.
Der Speicherbus natürlich nicht, sondern ein interner Controller.
die idee mit dem zusätzlichen bit ist an sich gut und wohl relativ leicht umsetzbar.
allerdings wird es wohl daran scheitern das man zwei chips mit dem fast identischen inhalt konstruieren und bauen muss. oder man halt sehr viel redundanz hat und den teil der nicht benötigt wird einem "lasercut" unterzogen wird.
Hm, ja. Vielleicht einen Chip mit Speicherinterface und TMUs, im anderen nur Recheneinheiten, das würde auch gewaltig Bandbreite sparen. Aber das wäre noch mehr Redundanz. Wobei man dann schon fast einen halben Chip deaktivieren könnte, so daß man dafür auch Teildefekte einsetzen könnte.
aber mal angenommen es würde so kommen, stellt sich die frage wie hoch müsste die interne kommunikation über das speicherinterface in anspruch nehmen.
zumal die bandbreite der einen GPU ja praxisnah nur die hälfte betragen würde, weil sie ja daten für zwei GPUs ranschaufeln müsste. und vor allem die daten nochmal über den anderen speicherbus zur GPU#2 schaufeln müsste. ob das nicht probleme mit der zu großen verzögerung mit sich bringt?
Naja, GDDR5 mit 2,2GHz und 512Bit würde locker reichen, um zwei Chips zu versorgen. Das würde auch die Spekulationen auf so eine brutale Bandbreitenschlacht erklären, bzw. wozu ATI das braucht.
Verzögerung ist in GPUs übrigens fast irrelevant.
schön dass du den gleichen gedankengang hattest wie ich andill. WENN, dann wäre das die einzig sinnvolle logik.
K4mPFwUr$t
2008-05-12, 23:09:17
nur dann frage ich mich wieso, man das ganze nicht R770 nennt, statt RV770.
wenn sowas kommen sollte, dann vieleicht eher mit dem R700.
so wie es früher mal ATI geplant hatte, aber verwurfen wurde.
anddill
2008-05-12, 23:18:03
Der RV770 ist ein Chip mit teildeaktiviertem SI. Der R700 ist ein RV770 mit vollem SI und Assist-Chip :devil:
Ok, das war jetzt ganz wild spekuliert.
Wenn dann hat jeder Chip das halbe SI, also 256 Bit.
Der Ring-Bus wird völlig überbewertet. Das ist einfach nur eine billigere Lösung als eine vollständige Crossbar, die es in Grafikchips schon immer gab.
robbitop@work
2008-05-13, 08:34:05
Kannst Du Dich erinnern? Die ersten speziellen VRAMS hatten zwei Ports, so daß der Grafikchip in den Framebuffer schreiben konnte, während der (separate) RAMDAC ihn unabhängig davon ausgelesen hat.
Man könnte auch den Ringbus über beide GPUs führen, einen Hypertransport-Link dazwischensetzen etc, und den Grafikchips zum Ausgleich einen nennenswerten Cache spendieren.
Ich meine, dass es heute auf jetzigen Karten noch nicht geht.
So einfach ist das leider nicht. Texturen aus dem VRAM zu laden benötigt zwar nicht so kurze Laufzeiten wie der Framebuffer, dafür aber einen beachtlichen Teil der Bandbreite. Dazu reichen ein paar kleine HT Links nicht. Dazu müßte man schon eine ziemlich fette Verbindung zwischen 2x GPUs setzen. Grob geschätzt in der nächsten GPU Genereation irgendwas zwischen 30 und 50 GiB/s. Das wird ziemlich aufwändig und teuer. Vermutlich läßt sich das nur auf einem gemeinsamen Package realisieren. Da das aber noch nichts ander Kompatibilität und Skalierbarkeit verbessert, ist eine solche Lösung wenig erstrebenswert. Wenn dann müßten auch Framebufferzugriffe und die Kommunikation Sheduler - Ausführungseinheiten darüber laufen. Für die beiden Dinge sollte es schon eine kurze Laufzeit sein. Und dann ist man schon im dreistelligen GiB/s-Bereich. Und die Anforderungen an alle drei Bedarfe steigen mit jeder Generation ca um den Faktor 2. Und ich weiß noch nicht, ob Verdrahtungen genauso schnell verbessert werden, wie es die Halbleitertechnik tut. Ich vermute mal nicht, da der Vergleich Bandbreite und Rohleistung in den letzten Jahren immer weiter auseinanderdriftet. Gut, dass die Berechnungen der einzelnen Pixel immer aufwändiger werden und somit viele Takte lang intern (ohne großen VRAM-Zugriff) gerechnet wird, sonst würde all die Rohleistung wenig bringen.
AnarchX
2008-05-13, 12:02:23
- Launch am 11. Juni?
http://66.102.9.104/translate_c?hl=de&sl=zh-CN&tl=de&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D22208%26extra%3Dpage%253D1
- RV770Pro übertaktbar auf 980MHz mit Single-Slot-Kühler, 850-900MHz Auslieferungstakt
http://66.102.9.104/translate_c?hl=de&sl=zh-CN&tl=de&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D22176%26extra%3Dpage%253D1
Sorkalm
2008-05-13, 12:14:22
Festland-Datum, schöne Übersetzung.
Auf Taiwan gibts die wohl schon eher. ;D
K4mPFwUr$t
2008-05-13, 12:15:45
vieleicht bekommt man ja so ein paar samples im XS.org zu sehen ;)
Hvoralek
2008-05-13, 12:20:39
- RV770Pro übertaktbar auf 980MHz mit Single-Slot-Kühler, 850-900MHz Auslieferungstakt
http://66.102.9.104/translate_c?hl=de&sl=zh-CN&tl=de&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D22176%26extra%3Dpage%253D1Wenn das stimmt, würde ein RV770 bei gleichem Takt ja weniger brauchen als RV670 :|
/edit: Oder die Pro ist nicht heruntergetaktet (Dann müsste die XT ja noch deutlich höher takten), sondern teildeaktiviert.
/edit: Oder die Pro ist nicht heruntergetaktet (Dann müsste die XT ja noch deutlich höher takten), sondern teildeaktiviert.
Oder beides.
Bleibt mir nur noch zu erwähnen, dass ich in dieser Runde vor AMD meinen nicht vorhandenen Hut ziehe.
Diese Spekulationen beruhen im Übrigen (wie zu 90% der Fälle) auf eigenen Überlegungen und sind nicht Teil irgendwelcher Quellen, die derzeit sowieso keine Ahnung haben. Bei GT200 sieht es da schon ganz anders aus.
Diesmal hat es AMD wahrlich deutlich besser verstanden Dicht zu halten. Maximal einen Monat vor dem Launch weiß man faktisch nichts.
reunion
Diesmal hat es AMD wahrlich deutlich besser verstanden Dicht zu halten. Maximal einen Monat vor dem Launch weiß man faktisch nichts.
reunion
stimmt,ich glaub diesmal wird es krachen wie damals beim r300.
Diesmal hat es AMD wahrlich deutlich besser verstanden Dicht zu halten. Maximal einen Monat vor dem Launch weiß man faktisch nichts.
reunion
Was bei AMD immer ein Indiz für schwache Performance ist, siehe R600, siehe K10.
K4mPFwUr$t
2008-05-13, 13:06:08
der RV770 wird ganz sicherlich kein zweiter R300 werden, die zeiten sind seit der AMD übernahme vorbei wo man vorrangig highend chips produziert.
lieber setzt man auf den massenmarkt mit dem RV670 und in zukunft RV770, da wo sich das meiste geld holen lässt.
aber allein der wille reicht nicht, siehe quartalszahlen.
was den der RV670 hat doch den markt gut aufgeräumt :)
Sorkalm
2008-05-13, 14:38:12
Laut Fuad ist der Launch in der letzten Juni-Woche:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7287&Itemid=1
Womit wir nun kurz hintereinander 3 verschiedene Daten hätten. :uconf2:
Schlammsau
2008-05-13, 14:41:01
Was bei AMD immer ein Indiz für schwache Performance ist, siehe R600, siehe K10.
:confused:
beim R600 hat man im Vorfeld eigentlich sehr viel gewusst! Nur sind die Daten falsch interpretiert worden!
Vermutlich läßt sich das nur auf einem gemeinsamen Package realisieren.
Alles andere würde auch keinen Sinn machen weil das PCB viel zu teuer werden würde.
Wenn dann müßten auch Framebufferzugriffe und die Kommunikation Sheduler - Ausführungseinheiten darüber laufen. Für die beiden Dinge sollte es schon eine kurze Laufzeit sein. Und dann ist man schon im dreistelligen GiB/s-Bereich.
Ack, wobei solch eine breite Verbindung zwischen den GPUs auf dem Träger kein großes Problem darstellt.
Und die Anforderungen an alle drei Bedarfe steigen mit jeder Generation ca um den Faktor 2. Faktor 2 halte ich für übertrieben, außerdem kann man durch intelligentes Verteilen der Daten auf die beiden VRAMs Bandbreite sparen.Und ich weiß noch nicht, ob Verdrahtungen genauso schnell verbessert werden, wie es die Halbleitertechnik tut.
Muss sich die Vedrahtungstechnik denn überhaupt so schnell weiterentwickeln? Vergiss nicht, die Fertigung darf ruhig etwas teurer sein, man spart ja einiges an F&E-Kosten.
Hvoralek
2008-05-13, 15:06:51
beim R600 hat man im Vorfeld eigentlich sehr viel gewusst! Nur sind die Daten falsch interpretiert worden!Was wusste man denn einen Monat vor Erscheinen des R600? Es gab Anzeichen für ein 512- bit- SI, aber afair war von den schwachen Eckdaten (64 Vec5, nur 16 TMUs) nichts durchgesickert.
Sunrise
2008-05-13, 15:07:29
Wenn das stimmt, würde ein RV770 bei gleichem Takt ja weniger brauchen als RV670 :|
/edit: Oder die Pro ist nicht heruntergetaktet (Dann müsste die XT ja noch deutlich höher takten), sondern teildeaktiviert.
Die Bandbreitendifferenz von GDDR3 zu GDDR5 alleine, bei (angenommen) gleich breit angebundenem externen Speicherinterface, gibt mir bereits zu denken.
reunion@work
2008-05-13, 15:20:53
Was wusste man denn einen Monat vor Erscheinen des R600? Es gab Anzeichen für ein 512- bit- SI, aber afair war von den schwachen Eckdaten (64 Vec5, nur 16 TMUs) nichts durchgesickert.
Bitte was? Das war schon lange im vorraus bekannt, nur glaubten eben viele nicht daran. 25.05.06:
The code-named R600 visual processing unit may repeat the success of its grand-grand predecessor, as, according to sources familiar with the plans of ATI Technologies as well as some media reports, ATI R600 will have 64 unified shader processors – an unprecedented number so far, 16 texture units – inline with today’s GPUs, clock-speed beyond 650MHz and support for high-speed GDDR4 memory controller.
http://www.xbitlabs.com/news/video/display/20060525104243.html
Dazu gab es später noch dutzende andere Meldungen, welche diese Daten bestätigten.
Gaestle
2008-05-13, 15:26:52
Was wusste man denn einen Monat vor Erscheinen des R600? Es gab Anzeichen für ein 512- bit- SI, aber afair war von den schwachen Eckdaten (64 Vec5, nur 16 TMUs) nichts durchgesickert.
AFAIR waren doch auch die Flops und die Anzahl der ALUs (320, boarr ey) halbwegs bekannt, und viele hofften auf den r300 Nachfolger mit der Monster-Leistung ...
Einen Monat (29.03.07) vor dem Lauch hatte man die-shots, die man zum Größen-Rätselraten heranziehen konnte.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=355952
Bitte was? Das war schon lange im vorraus bekannt, nur glaubten eben viele nicht daran. 25.05.06:
Wann war der Launch? Ich dachte, Anfang Mai?
Schlammsau
2008-05-13, 15:32:38
Was wusste man denn einen Monat vor Erscheinen des R600? Es gab Anzeichen für ein 512- bit- SI, aber afair war von den schwachen Eckdaten (64 Vec5, nur 16 TMUs) nichts durchgesickert.
Der R600 wurde extremst gehypt, nicht zuletzt wegen dem im Vorfeld bekannten 512bit breiten SI!
Nur leider hat er die Erwartungen mehr als entäuscht!
Aber jetzt, ungefähr einen 1 Monat vir dem Release des RV770, weiss man im Grunde gar nichts! Kein Hype, gar nichts! Als wenn der Chip nur eine Illusion wäre.
]
[...]
Wann war der Launch? Ich dachte, Anfang Mai?
Ja, aber 2007.
reunion@work
2008-05-13, 15:53:04
Ja, aber 2007.
Richtig.
Ailuros
2008-05-13, 15:56:53
Die Bandbreitendifferenz von GDDR3 zu GDDR5 alleine, bei (angenommen) gleich breit angebundenem externen Speicherinterface, gibt mir bereits zu denken.
Ich hab Deine (gerechtfertigten) Bedenken auch auf B3D gelesen; ich sage einfach dass der Unterschied zwischen den beiden was die Bandbreite betrifft ungefaehr um die =/>25% liegen wird.
deekey777
2008-05-13, 16:00:54
Bitte was? Das war schon lange im vorraus bekannt, nur glaubten eben viele nicht daran. 25.05.06:
http://www.xbitlabs.com/news/video/display/20060525104243.html
Dazu gab es später noch dutzende andere Meldungen, welche diese Daten bestätigten.
Es gibt da ein paar Postings von vor 2 Jahren und zwar von robbitop und Xmas.
Singemäß:
robbitop:
Ich erwarte 64 5D-US-ALUs
Xmas:
Und was ist dann der Highendchip?
(Es wäre auch möglich, dass ich unter Drogen stand und so eine Diskussion nich gab.)
Diese Daten waren einfach unglaublich schwach. Und es hat sich herausgestellt, dass der R600 für den Nachfolger eines R580 zu schwach war.
GeneralHanno
2008-05-13, 16:12:13
eigentlich war der R600 gar nicht sooo schwach. er hatte nur 2 entscheidene probleme:
1. war er fast ein halbes jahr zu spät (in der halbleisterbranche ist das ne ewigkeit)
2. der G80 war viel zu stark ;) (im vergleich zu R580/G71)
LovesuckZ
2008-05-13, 16:18:20
Nunja, der r600 hatte eigentlich nur eins: Massig Recheneinleistung und Speicherbandbreite. Alles andere wurde kaum verbessert. Dazu kamen schwerwiegende Leistungsprobleme beim AA.
Der G80 war nichtnur schnell, er war auch eine deutliche Veränderung zum vorigen Design - etwas, mitdem man kaum rechnen konnte.
Nakai
2008-05-13, 16:24:27
Naja der G80 war stark im Vergleich zum G71.
Etwa dreimal zu schnell.
Zum R580 waren es noch knapp 60 bis 80%.
Ohne AA und AF war der R600 etwa 50% schneller als der R580, mit AA/AF nur noch knapp 20%.
Der R600 wäre relativ schnell gewesen, hätte er die Taktraten erreicht die geplant gewesen wären.
Was wusste man denn einen Monat vor Erscheinen des R600? Es gab Anzeichen für ein 512- bit- SI, aber afair war von den schwachen Eckdaten (64 Vec5, nur 16 TMUs) nichts durchgesickert.
16 TMUs und 64 Shader. Da war ziemlich bekannt.
Die Leistung war dementprechend schlecht, da einfach viele Füllrate gefehlt hat.
mfg Nakai
LovesuckZ
2008-05-13, 16:26:11
Zum R580 waren es noch knapp 60 bis 80%.
Dafür mit dem besseren Watt/Performance Ratio sowie der überlegeren AF Qualität. Das Spiel alles mit die Betrachtung rein.
In bestimmten Situationen kann auch der G80 mehr als doppelt so schnell als ein r580 sein.
Nakai
2008-05-13, 16:28:29
Dafür mit dem besseren Watt/Performance Ratio sowie der überlegeren AF Qualität. Das Spiel alles mit die Betrachtung rein.
In bestimmten Situationen kann auch der G80 mehr als doppelt so schnell als ein r580 sein.
Natürlich, es war halt eine komplett neue Generation.
Der G80 war so schnell wie man es von einer neuen Generation erwartet hätte, der R600 konnte diese Erwartungen nicht erfüllen.
mfg Nakai
Aquaschaf
2008-05-13, 16:33:07
Der G80 war nichtnur schnell, er war auch eine deutliche Veränderung zum vorigen Design - etwas, mitdem man kaum rechnen konnte.
Der R600 war auch eine deutliche Veränderung zum vorherigen Design. Nur das was hinten rauskam eben nicht.
Der R600 wäre relativ schnell gewesen, hätte er die Taktraten erreicht die geplant gewesen wären.
Geplant waren sicher niedrigere Takte als die, mit denen er letztendlich erschienen ist. Dafür spricht die enorm hohe TDP, die einen absoluten Rekord darstellt und so sicher nicht geplant war.
Man hat hat bis zuletzt die Takte hochgezwirbelt um nicht so gaaanz alt gegen den G80 auszusehen.
Vergleiche GF FX 5800 Ultra "Dustbuster" ;) vs. Radeon 9700.
Nakai
2008-05-13, 17:54:08
Geplant waren sicher niedrigere Takte als die, mit denen er letztendlich erschienen ist. Dafür spricht die enorm hohe TDP, die einen absoluten Rekord darstellt und so sicher nicht geplant war.
Nope, ATI hätte bestimmt Taktraten an die 1Ghz gewollt. Leider hatte der R600 sehr viele Bugs, dass er anfangs nicht höher als 400Mhz ging und dass der Stromverbrauch bei höherem Takt deutlich ansteigt. ATI hat es doch noch geschafft, den R600 um die ~800Mhz zu bringen. ATI hätte bestimmt versucht den R600 durch Takterhöhung indirekt dem G80 gefährlich zu werden, leider ist AMD etwas konservativer...
mfg Nakai
Hvoralek
2008-05-13, 18:47:44
Bitte was? Das war schon lange im vorraus bekannt, nur glaubten eben viele nicht daran. 25.05.06:
http://www.xbitlabs.com/news/video/display/20060525104243.html
Dazu gab es später noch dutzende andere Meldungen, welche diese Daten bestätigten.Stimmt, an dieses Xbit- Dingens hatte ich gar nicht mehr gedacht. Ich glaube, das von Deekey angesprochene "Wie heißt denn dann bitte der High- End- Chip?" bezog sich darauf.
Ich kann allerdings Dein Verständnis von "wissen" nicht recht teilen. Diese einmalige und später abgeschriebene Behauptung würde ich zumindest nicht so nennen. Demnach hast Du ab dieser Xbitmeldung auch "gewusst", dass G80 noch dedizierte Shader haben würde. Und wenn Du so willst, "wissen" wir jetzt, dass RV770 32 TMUs und 96 Vec5 hat. Mir ist das allerdings zu dünn, um es als halbwegs gesichert anzunehmen.
Ich hab Deine (gerechtfertigten) Bedenken auch auf B3D gelesen; ich sage einfach dass der Unterschied zwischen den beiden was die Bandbreite betrifft ungefaehr um die =/>25% liegen wird.Der schnellste/ teuerste GDDR3 ist m.W. mit 1200 MHz spezifiziert. Demnach läuft der GDDR5 auf der XT nur mit höchstens 1500 - 1600 MHz :|
16 TMUs und 64 Shader. Da war ziemlich bekannt.
Die Leistung war dementprechend schlecht, da einfach viele Füllrate gefehlt hat.Auch Dich muss ich mal fragen, was Du unter "ziemlich bekannt" verstehst. Entweder habe ich innerhalb eines Jahres eine ganze Menge glaubwürdiger Meldungen vergessen oder die Spezifikationen des RV770 sind auch seit langem "ziemlich bekannt".
Gaestle
2008-05-13, 20:38:48
Ja, aber 2007.
Logisch. Mir gings darum, wieviel Wochen vorher Bilder vom Die da waren.
Vom RV770 hat man ja diesbezüglich noch nix gsehen, dafür dass der Launch in etwa 4 Wochen sein könnte.
Ohne AA/AF sieht der R600 ja gar nicht so schlecht aus. Nur leider interessiert das in dieser Leistungsklasse nicht so recht.
Und wenn Du so willst, "wissen" wir jetzt, dass RV770 32 TMUs und 96 Vec5 hat. Mir ist das allerdings zu dünn, um es als halbwegs gesichert anzunehmen.
Naja, so wie es scheint, passen die Gerüchte doch sehr gut zu einem solchen Chip. Warum sollte es also (grundlegend) anders sein? Die Konsistenz zwischen den einzelnen Aussagen ist doch gut und es passt ins Gesamtbild der offiziellen Aussagen und der wirtschaftlichen Lage, in der sich ATi und AMD befinden. Sie müssen ihr Heil wohl im oberen Mainstream suchen (sprich G92 Niveau, wenn GT200 draußen ist) und ein solcher Chip kann das schaffen.
Hvoralek
2008-05-13, 20:58:34
Naja, so wie es scheint, passen die Gerüchte doch sehr gut zu einem solchen Chip. Warum sollte es also (grundlegend) anders sein? Die Konsistenz zwischen den einzelnen Aussagen ist doch gut und es passt ins Gesamtbild der offiziellen Aussagen und der wirtschaftlichen Lage, in der sich ATi und AMD befinden. Sie müssen ihr Heil wohl im oberen Mainstream suchen (sprich G92 Niveau, wenn GT200 draußen ist) und ein solcher Chip kann das schaffen.Dass die Angaben nicht völlig unplausibel sind, bedeutet nicht, dass sie stimmen müssen. Die Vermutungen über G80 (Breiterer "CineFX 5" mit kombinierten GS/VS) waren auch nicht offensichtlicher Unsinn.
Nope, ATI hätte bestimmt Taktraten an die 1Ghz gewollt. Leider hatte der R600 sehr viele Bugs, dass er anfangs nicht höher als 400Mhz ging und dass der Stromverbrauch bei höherem Takt deutlich ansteigt. ATI hat es doch noch geschafft, den R600 um die ~800Mhz zu bringen. ATI hätte bestimmt versucht den R600 durch Takterhöhung indirekt dem G80 gefährlich zu werden, leider ist AMD etwas konservativer...
mfg Nakai
Also erstens hat der R600 keine 800MHz und zweitens sind 1GHz für 80nm in dieser Chip-Komplexität utopisch. Also hör mal auf zu träumen und blieb realistisch!
Sorkalm
2008-05-13, 22:26:56
Die Ingenieure werden den Wert schon für realistisch gehalten haben. Wie hoch man einen Chip takten kann hängt ja immer stark vom Design ab. Hinterher ist man eben immer schlauer. ;)
K4mPFwUr$t
2008-05-14, 00:31:38
man muss ja auch auf die yields achten, bringt ja nichts wenn der chip an sich takt x schafft.
aber 80% auf dem waver nur takt y schaffen.
|MatMan|
2008-05-14, 00:36:23
man muss ja auch auf die yields achten, bringt ja nichts wenn der chip an sich takt x schafft.
aber 80% auf dem waver nur takt y schaffen.
dann hätte man aber immerhin etwas gehabt um bei den Benchmarks besser dazustehen. Solche Presse Editionen gabs doch vorher auch schon.
Allerdings hoffe ich, dass die auch verschwunden bleiben!
Cpl. Dwayne Hicks
2008-05-14, 01:41:34
Ohne AA/AF sieht der R600 ja gar nicht so schlecht aus. Nur leider interessiert das in dieser Leistungsklasse nicht so recht.
Das AF ist die grosse Bremse beim R(V)6xx, nur mit AA ist er immernoch recht schnell.
Ailuros
2008-05-14, 08:27:26
Der schnellste/ teuerste GDDR3 ist m.W. mit 1200 MHz spezifiziert. Demnach läuft der GDDR5 auf der XT nur mit höchstens 1500 - 1600 MHz :|
Ich rechne auch nicht damit dass AMD unbedingt z.B. 1.8GHz GDDR5 auch auf 1.8GHz takten wird (die Zahl dient hier nur als Beispiel). Wenn die GPU mit X Bandbreite auskommen kann, gibt es keinen besonderen Grund nicht etwas an Strom zu sparen.
Auch Dich muss ich mal fragen, was Du unter "ziemlich bekannt" verstehst. Entweder habe ich innerhalb eines Jahres eine ganze Menge glaubwürdiger Meldungen vergessen oder die Spezifikationen des RV770 sind auch seit langem "ziemlich bekannt".
Ich hab jetzt nicht verfolgt ueber welche Zeitspanne Ihr jetzt gerade redet, aber irgendwo Mitte Sommer 2006 bekam ich die ersten verstreuten "echte" Infos ueber G80 und R600.
Das meiste kam hier in die Foren von Zeit zu Zeit und es gab viel mehr Einzelheiten ueber R600 als ueber G80 selbst zu diesem Zeitpunkt und es ist heute auch nicht anders. Wir wissen eigentlich viel mehr ueber RV770 als ueber GFNext wenn Du's genau ueberdenkst.
Und da ich nicht immer zu deutlich werden will, RV770 hat den Nachteil dass hauptsaechlich Einheiten dazugeklebt wurden; es hilft zwar aber es heisst auch dass die theoretischen Spezifikationen eine um einiges hoehere Steigerung zeigen werden als die durchschnittliche Echtzeitleistung.
Ailuros
2008-05-14, 08:30:42
Das AF ist die grosse Bremse beim R(V)6xx, nur mit AA ist er immernoch recht schnell.
Nein; es gibt genug Eckfaelle wo R6x0/RV6x0 radikal einbrechen mit AA. Ein Beispiel waeren stencil Fuellrate limitierte Faelle; ob diese heutzutage relevant sind oder nicht ist nebensaechlich. Was hier wichtig ist, ist dass AMD eingesehen hat dass die Z-Fuellrate zum kotzen zu niedrig ist und diese nun um ein gesundes Prozentual erhoeht hat.
***edit: was den Schwachsinn ueber das originale Frequenz-ziel von R600 betrifft, dieses war NIE ueber 800MHz. Durch den problematischen 80nm Herstellungsprozess den sie benutzt haben, brauchten sie einige Zeit tatsaechlich ueber den 400MHz Berg klettern zu koennen. Danach ging es schnell bergauf und man setzte natuerlich final auf 742MHz weil der Stromverbrauch ohnehin schon bei der Frequenz viel zu hoch war.
Der allgemeinen Albernheit zu Liebe, RV670 erschien auf 55nm beim ersten Schub auf 775MHz. Also bitte schoen langsam mit den 1GHz Wuenschtraeumen...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.