Archiv verlassen und diese Seite im Standarddesign anzeigen : R600 schon im dritten Quartal 2006?
Wie damals vor dem Release von 6800 und X800 von mir vorausgesagt, wird die Shader-3-Fähigkeit der 6800 nie eine echte Rolle spielen, da es lange dauert bis entsprechende Spiele rauskommen und dann die Rohleistung nicht mehr ausreicht.
Und, wer zockt Oblivion mit einer 6800 mit HDR oder TRL mit Next-Gen-Effects in nativer TFT-Auflösung?
Dasselbe wird mit G80 und R600 sein; bis Games kommen die nicht nur paar DX10-Effekte haben, sondern wirklich durch und durch DX10 sind, werden die Karten längst zu langsam sein. Was wirklich zählt ist die DX9-Power, und zwar "jetzt".Es gibt keine "DX10-Effekte". Gefragt ist Power und Flexibilität. D3D9 ist weniger flexibel als D3D10. Bei gleicher Rohleistung könnte ein D3D10-Chip entsprechend schneller sein.
Mr. Lolman
2006-10-14, 12:42:41
Ich kann diesen Mist langsam nicht mehr hören. Nochmal: Monate vor dem R300 hatte bereits der 3DLabs P10 als auch die P512 ein 256 Bit Interface. Wen R300 dann noch überrascht hat möchte ich mal wissen.
Außerdem war die Situation damals ein wenig anders. Der Wechseln von TSOP Modulen zu BGA Modulen erlaubte diesen Wechsel, ohne zu große Kostendifferenzen zu erzeugen.
3DCenter Artikel: ATi RV250 und R300 Spezifikationen vom 7.6.2002 (http://www.3dcenter.org/artikel/2002/06-07_a.php)
Ebenfalls ein größeres Fragezeichen hängt über dem 256bittigen DDR-RAM Speicherinterfaces des R300. Momentan scheint mehr oder weniger jeder fest von diesem auszugehen - ein sehr seltsamer Sinneswandel, da alle Grafikchip-Hersteller sich zuvor jahrelang aus Kostengründen gegen diese superbreiten Interfaces ausgesprochen haben. Sollten zudem die 350 MHz Speichertakt stimmen, würden dies über 20 GB/sec Speicherbandbreite für den R300-Chip bedeuten und damit wäre dieser - nach derzeitigem Informationsstand - weit vor der Herbstkonkurrenz von 3Dlabs, Matrox und nVidia.
Gegen den hohen Speichertakt spricht zudem, daß dieser angesichts des 256bittigen Interfaces eigentlich unnötig ist, denn damit würde sich ATi kaum Spielraum für nachfolgende Chips lassen. Und Hardware-Hersteller lassen sich in der heutigen Zeit sehr gern Spielräume nach oben, um möglichst oft möglichst kleine Leistungssprünge an den Käufer zu bringen :-). Wir nehmen diese über 20 GB/sec Speicherbandbreite erst einmal entgegen, glauben werden wir es aber erst, wenn wir es leibhaftig sehen.
Ailuros
2006-10-14, 12:43:38
Viele und/oder "fette" ROPs, die bsw. 4 MSAA Samples pro Takt wegschreiben können. Double-Z-ROPs gelten AFAIK für R600 als gesetzt, dazu die erhöhten Anforderungen an Bandbreite allgemein im SM4, da hier mehr Einheiten auf den Speicher zugreifen können als bei SM3. Bei USCs kommt noch dazu, dass vermutlich alle Einheiten VTF beherrschen (müssen?).
Was auch noch gern vergessen wird: FP32-Blending ist in D3D10 Pflicht, das wird auch etwas mehr kosten, als noch INT8-Blending in D3D9.
Q
Gilt in allen Fallen fuer G80 rein theoretisch ebenso; ueberhaupt was die D3D10 Vorraussetzungen betrifft.
1 GiB GDDR4 VRAM mit 512 Bit...tja und das soll bezahlbar sein (500-600EUR) und dennoch eine Marge abwerfen?
Gerade bei solchen RAM-Mengen könnte ich mir vorstellen, dass statt 1-GHz-GDDR4 500-MHz-GDDR3 auf einem 512-Bit-Bus inkl. PCB insgesamt günstiger sind.
Plus: Du hast die Option, später, wenn es günstiges GDDR4 gibt, zumindest mit dem Chip direkt umzusteigen.
Ich habe mich jedenfalls noch nicht für oder gegen 512 Bit-Gläubigkeit entscheiden. Beim R300 habe ich die 256 Bit ja bis zuletzt auch nicht geglaubt. :)
Q
Ailuros
2006-10-14, 12:46:33
*ahem* 500MHz @ 512bit = 64.0 GB/s :rolleyes:
AnarchX
2006-10-14, 12:47:54
@SM3.0 und GF6800:
Bei Gothic3 scheint SM3.0 ein netten Boostup bei besserer Grafik zu bringen, während SM2.x Karten auf einige Features verzichten müssen.;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4868067&postcount=113
Gilt in allen Fallen fuer G80 rein theoretisch ebenso; ueberhaupt was die D3D10 Vorraussetzungen betrifft.
Natürlich - aber gesetzt den Fall, Nvidia ist nicht komplett Unified und Ati ist es, dann hat Nvidia auch geringere Bandbreitenanforderungen, da nicht jede Einheit fähig sein muss, in den Speicher zu schreiben. Der Unified-Ansatz schreit ja geradezu nach möglichst hoher Auslastung, daher glaube ich, dass dort nicht mit der Speicheranbindung für die internen Einheiten gespart wurde, da man sich so seine Flaschenhälse wieder ins Boot geholt hätte.
Haben wir es nicht schon einmal erlebt, dass Nvidia meinte, mit höher taktendem, aber schmalerem Speicherinterface auszukommen? Geforce FlopX anyone?
AnarchX
2006-10-14, 12:50:45
Haben wir es nicht schon einmal erlebt, dass Nvidia meinte, mit höher taktendem, aber schmalerem Speicherinterface auszukommen? Geforce FlopX anyone?
Wobei es hier nicht nur am Interface lag, zudem hatte GF FX59 ein 256bit SI.;)
*ahem* 500MHz @ 512bit = 64.0 GB/s :rolleyes:
*ahem* BEISPIEL. Sag mir, was 1.024 MByte 1-GHz-schnelles GDDR4 kostet und ich sage dir, dass halb so schnelles GDDR3 deutlich billiger sein wird aktuell.
Setze ein, was du willst - für die gleiche Bandbreite wird der RAM allein mit halb so schnell taktendem GDDR3 billiger sein.
Q
Wobei es hier nicht nur am Interface lag, zudem hatte GF FX59 ein 256bit SI.;)
Die FX5800 hatte ein 128-Bit-Interface und man musste mangelnde Breite über den Takt kompensieren. 500 vs 325 MHz.
Von der Shader-Speed reden wir hier doch gar nicht...
Q
Es gibt keine "DX10-Effekte". Gefragt ist Power und Flexibilität. D3D9 ist weniger flexibel als D3D10. Bei gleicher Rohleistung könnte ein D3D10-Chip entsprechend schneller sein.
*republicrepublicrepublicrepublic* ;)
Dasselbe hab ich doch schon bei SM3 gehört. :)
Q
Mr. Lolman
2006-10-14, 12:54:58
@SM3.0 und GF6800:
Bei Gothic3 scheint SM3.0 ein netten Boostup bei besserer Grafik zu bringen, während SM2.x Karten auf einige Features verzichten müssen.;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4868067&postcount=113
Was denn für Features? Die Tiefenunschärfe, die eh jeder deaktiviert? Und ein SM3.0 Boost ist zwar nett, sagt aber nix über die Vergleichbarkeit zur Geschwindigkeit der SM2.x Karten der Konkurrenz. Dazu bräuchts erst Vergleichsbenchmarks*
*Wenn z.B: eine X800XT bei Gothic3 doppelt so schnell wie eine 6800 Ultra ist (wie z.B: bei GTL in hohen Auflösungen), dann ist man mit einem Boost unter 100%+ auch nicht besser dran, als mit der SM2 Karte ;-)
Bauer
2006-10-14, 12:55:47
@Ailluros: Ich wollte dir garnix in die Schuhe schieben, sondern es interressiert mich wirklich und ich dachte auch du kannst da eine fundierte Antwort geben.
Hier klang es für mich etwas so, bzw kam mir die Frage :Und bevor jetzt jemand meckert dass ich G80 Mist in den falschen Thread kehre, es ist hier irgend etwas faul. Wenn der 512bit bus fuer R600 stimmen sollte, koennte es heissen dass entweder G80 an Bandbreite sehr stark verhungern wird oder dass R600 viel mehr Bandbreite hat als sie eigentlich braucht.
Wiegesagt weiss ich dass ich nichts weiss, und ging einfach mal von der hypothese des 512bit SI aus, und will wissen wie da die zusammenhänge sind.
was spricht z.B. gegen Wi e waere es mit 500MHz@512bit??
das wären doch 64GB/s ?
Bitte begründe Du deine Ausführungen auch, statt dich lustig zu machen..
z.B.:
Zitat:
Marketingtechnisch machen 512bit doch bestimmt auch mehr aus als der allerschnellste DDR4. Mich beindrucken 1000MHz Realtakt z.B. mehr als genug.
LOL
AnarchX
2006-10-14, 12:56:13
Zum Speicher sollte man auch bedenken, dass GDDR4 1000MHz aktuell schon ein sehr gutes Yield haben soll und somit kaum teuerer ist als beliebiger GDDR3.;)
das wären doch 80GB/s ?
1000MHz(effektiv) * 512bit / 8 = 64GB/s ;)
Was denn für Features? Die Tiefenunschärfe, die eh jeder deaktiviert?
Das einmal und dann noch die Schatten.
Und ein SM3.0 Boost ist zwar nett, sagt aber nix über die Vergleichbarkeit zur Geschwindigkeit der SM2.x Karten der Konkurrenz. Dazu bräuchts erst Vergleichsbenchmarks*
Ja, das wäre interessant, PCGH hatte wohl kein Radeon X8xx im Test oder?
Ansonsten ging es nur darum zu zeigen, dass SM3.0 nicht nur schlechtere Perfomance bedeuten muss, sondern auch Vorteile(Pass-Reduktion) in der Performance bringen kann. ;)
Bauer
2006-10-14, 12:56:54
Gerade bei solchen RAM-Mengen könnte ich mir vorstellen, dass statt 1-GHz-GDDR4 500-MHz-GDDR3 auf einem 512-Bit-Bus inkl. PCB insgesamt günstiger sind.
Plus: Du hast die Option, später, wenn es günstiges GDDR4 gibt, zumindest mit dem Chip direkt umzusteigen.
Q
Genau das meine ich!
Zum Speicher sollte man auch bedenken, dass GDDR4 1000MHz aktuell schon ein sehr gutes Yield haben soll und somit kaum teuerer ist als beliebiger GDDR3.;)
1000MHz(effektiv) * 512bit / 8 = 64GB/s ;)
Sorry, schon geändert.(peinlich)
Ailuros
2006-10-14, 13:04:47
Natürlich - aber gesetzt den Fall, Nvidia ist nicht komplett Unified und Ati ist es, dann hat Nvidia auch geringere Bandbreitenanforderungen, da nicht jede Einheit fähig sein muss, in den Speicher zu schreiben. Der Unified-Ansatz schreit ja geradezu nach möglichst hoher Auslastung, daher glaube ich, dass dort nicht mit der Speicheranbindung für die internen Einheiten gespart wurde, da man sich so seine Flaschenhälse wieder ins Boot geholt hätte.
Haben wir es nicht schon einmal erlebt, dass Nvidia meinte, mit höher taktendem, aber schmalerem Speicherinterface auszukommen? Geforce FlopX anyone?
Es gibt keinen komplett unified D3D10 chip fuer den ersten Schub.
Es gibt keinen komplett unified D3D10 chip fuer den ersten Schub.
Ach so - du hast schon die finalen Unterlagen von Ati für R600? Naja, dann kann ich wirklich nicht mehr mit dir weiterdiskutieren, da mein Kenntnisstand etwas rückständig ist.
Q
Ailuros
2006-10-14, 13:09:24
*ahem* BEISPIEL. Sag mir, was 1.024 MByte 1-GHz-schnelles GDDR4 kostet und ich sage dir, dass halb so schnelles GDDR3 deutlich billiger sein wird aktuell.
Setze ein, was du willst - für die gleiche Bandbreite wird der RAM allein mit halb so schnell taktendem GDDR3 billiger sein.
Q
Es geht eher um die pins/traces und deren Unkosten bei einem hypothetischen 512bit bus; also ist der Preis-Unterschied gleich gross als zwischen 1GHz GDDR4 vs. 500MHz GDDR3 Deiner Meinung nach ja?
Zum Speicher sollte man auch bedenken, dass GDDR4 1000MHz aktuell schon ein sehr gutes Yield haben soll und somit kaum teuerer ist als beliebiger GDDR3.;)
Hast du Preise dafür irgendwo gesehen? Ich glaube, es steckt schon was dahinter, dass GDDR4 nur auf High-End Modellen angeboten wird. Außerdem: Solange es nur einen Anbieter für GDDR4 gibt (Samsung), solange werden die Preise sicherlich höher sein, als bei Speichertypen wo zumindest etwas Konkurrenz herrscht.
Q
AnarchX
2006-10-14, 13:13:03
Hast du Preise dafür irgendwo gesehen? Ich glaube, es steckt schon was dahinter, dass GDDR4 nur auf High-End Modellen angeboten wird. Außerdem: Solange es nur einen Anbieter für GDDR4 gibt (Samsung), solange werden die Preise sicherlich höher sein, als bei Speichertypen wo zumindest etwas Konkurrenz herrscht.
http://www.theinquirer.net/default.aspx?article=34494
Das GDDR4 noch nicht soviel eingesetz wird, liegt wohl aktuell noch an fehlender Kompatibilität.
Ailuros
2006-10-14, 13:13:07
Ach so - du hast schon die finalen Unterlagen von Ati für R600? Naja, dann kann ich wirklich nicht mehr mit dir weiterdiskutieren, da mein Kenntnisstand etwas rückständig ist.
Q
Dass ATI und NVIDIA in verschiedenen Stellen vereinigt haben ist ja soooo verdammt schwer zu erraten. Angenommen der eine chip vereinigt A+B+C und der andere B+C+D, fehlt dem einen logischerweise ein D und dem anderen ein A.
Es geht eher um die pins/traces und deren Unkosten bei einem hypothetischen 512bit bus; also ist der Preis-Unterschied gleich gross als zwischen 1GHz GDDR4 vs. 500MHz GDDR3 Deiner Meinung nach ja?
Nein, bitte lies, was ich schreibe.
Ich sagte, ich könnte mir vorstellen, dass es ein 512-Bit-PCB inkl. einem GByte GDDR3 mit, sagen wir 500 MHz insgesamt günstiger ist, als ein 256-Bit-PCB mit 1.024 MByte GDDR4-Speicher mit 1.000 MHz. Wenn du bsw. die Top-Speedgrades für GDDR4 nimmst (1,4 GHz), wird es sicherlich stärker im Preis steigen, als der Sprung von 500 auf 700 MHz GDDR3, da letzteres bereits im upper-Mainstream auf Karten für unter 250 Euro eingesetzt wird.
Ich kenne weder die Großhandelspreise von GDDR4-RAM noch die Preise für ein 256- oder 512-Bit-PCB, also beachte bitte, dass ich sagte, ich könne es mir vorstellen. Ich stelle meine Vermutungen nicht als gültige Wahrheit hin!
Q
http://www.theinquirer.net/default.aspx?article=34494
Das GDDR4 noch nicht soviel eingesetz wird, liegt wohl aktuell noch an fehlender Kompatibilität.
Der Inquirer ist zwar nicht gerade die Quelle, die ich mir gewünscht hätte, aber ok. Bleibt das Problem des "High End Premiumzuschlags" und der mangelnden Konkurrenz bei GDDR4. Zudem sagt selbst deine Quelle, dass das eine Zukunftsaussicht für Mid-2007 ist.
Q
Dass ATI und NVIDIA in verschiedenen Stellen vereinigt haben ist ja soooo verdammt schwer zu erraten. Angenommen der eine chip vereinigt A+B+C und der andere B+C+D, fehlt dem einen logischerweise ein D und dem anderen ein A.
Ich kann dir nicht folgen.
Q
robbitop
2006-10-14, 13:22:47
IMO absolut nicht vergleichbar, da für komplett andere, nämlich professionelle Märkte entwickelt, wo der Kostendruck weit weniger stark ist als im Consumer-Bereich. Und dann schau dir mal die heutigen Parhelia-Preise an - von so einer Preisstabilität können Ati und Nvidia nur träumen (jaja, ich weiß: Das ist natürlich auch nicht vergleichbar).
Q
P512 als auch P10 waren auch für den Spielemarkt gedacht.
3DCenter Artikel: ATi RV250 und R300 Spezifikationen vom 7.6.2002 (http://www.3dcenter.org/artikel/2002/06-07_a.php)
Ist von Leo geschrieben worden.
Was ich damit sagen will: P10 und P512 zeigten dass 256 Bit DDR SI problemlos gingen (dank BGA DDR) ... R300 war so überraschend nicht.
Gerade bei solchen RAM-Mengen könnte ich mir vorstellen, dass statt 1-GHz-GDDR4 500-MHz-GDDR3 auf einem 512-Bit-Bus inkl. PCB insgesamt günstiger sind.
Plus: Du hast die Option, später, wenn es günstiges GDDR4 gibt, zumindest mit dem Chip direkt umzusteigen.
Ich habe mich jedenfalls noch nicht für oder gegen 512 Bit-Gläubigkeit entscheiden. Beim R300 habe ich die 256 Bit ja bis zuletzt auch nicht geglaubt.
Q
Ist ja auch alles richtig (ich habe betont, mich auch noch nicht entschieden zu haben. Ich bin lediglich skeptisch, statt wie andere jeden Müll von Fuad zu schlucken).
Allerdings kostet 1GiB +512Bit (auch wenn du am Takt des Speichers sparst), wie sunrise schon andeutete, einfach einen Haufen Geld.
Dank der entkoppelten Anbindung des Speicherinterfaces kannst du dieses verbreitern, wenn du es brauchst. b.s.w. in einem Refresh. So muss man sich nicht vorher die Margen versauen.
P512 als auch P10 waren auch für den Spielemarkt gedacht.
Ay - neee.
Allerdings kostet 1GiB +512Bit (auch wenn du am Takt des Speichers sparst), wie sunrise schon andeutete, einfach einen Haufen Geld.
Dank der entkoppelten Anbindung des Speicherinterfaces kannst du dieses verbreitern, wenn du es brauchst. b.s.w. in einem Refresh. So muss man sich nicht vorher die Margen versauen.
Ich habe mich auch noch nicht entschieden - mir fehlen einfach stichhaltige Argumente in der Diskussion - sowohl für als auch wider den 512-Bit-Bus.
Zu den Margen: Andererseits kannst du später, wenn die Preise für die Karten und auch schnellen GDDR4 sowieso schon gefallen sind, dir mittels neuen PCBs deine Margen schnell wieder aufpolieren. (JA, ich weiß, das geht auch in die andere Richtung).
Q
Ailuros
2006-10-14, 13:28:58
Ich kann dir nicht folgen.
Q
Wie stellst Du Dir genau G80 vor?
Nein, bitte lies, was ich schreibe.
Ich sagte, ich könnte mir vorstellen, dass es ein 512-Bit-PCB inkl. einem GByte GDDR3 mit, sagen wir 500 MHz insgesamt günstiger ist, als ein 256-Bit-PCB mit 1.024 MByte GDDR4-Speicher mit 1.000 MHz. Wenn du bsw. die Top-Speedgrades für GDDR4 nimmst (1,4 GHz), wird es sicherlich stärker im Preis steigen, als der Sprung von 500 auf 700 MHz GDDR3, da letzteres bereits im upper-Mainstream auf Karten für unter 250 Euro eingesetzt wird.
Fuer den Speicher an fuer sich kein einziger Zweifel; mir macht die Chipkomplexitaet eher Sorgen.
So und jetzt zum Thema Latenz; was fuer einen burst-Wert hat denn GDDR4 genau? Wenn es bei 4 liegen sollte wie bei sonstigem GDDR, gibt es zich Faelle wo mal schnell 2048bits unnoetiger Daten gelesen werden mussen. Jetzt brauch ich noch eine gute These dass mit der Busbreite erstmal ein Bandbreiten-zusatz und keine Reduzierung stellenweise am Ende raus kommt....
robbitop
2006-10-14, 13:32:31
Ay - neee.
Surroundgaming sagt dir was? MGA wollte damit definitiv auch in den Spielemarkt. Erst nachträglich entschloss man sich dagegen. Die Preise zum Release waren auch bezahlbar für eine Highendkarte, nur fielen diese eben nicht (eben weil man sich nachträglich wieder gegen den Spielemarkt entschied). Auch auffällig war, dass zum Launch soviele P512 Karten bei den 3D/Spielemagazinen zum Testen aufliefen. Das ist heute nicht mehr so.
Auch der P10 war ursprünglich auch für den Spielemarkt von Creative vorgesehen (ein Grund warum man 3DLabs gekauft hat) ... nur erkannte man, dass die Treiber auf Spiele umstellen beim (relativ flexiblen) P10 nicht reichte.
Wie stellst Du Dir genau G80 vor?
Fuer den Speicher an fuer sich kein einziger Zweifel; mir macht die Chipkomplexitaet eher Sorgen.
So und jetzt zum Thema Latenz; was fuer einen burst-Wert hat denn GDDR4 genau? Wenn es bei 4 liegen sollte wie bei sonstigem GDDR, gibt es zich Faelle wo mal schnell 2048bits unnoetiger Daten gelesen werden mussen. Jetzt brauch ich noch eine gute These dass mit der Busbreite erstmal ein Bandbreiten-zusatz und keine Reduzierung stellenweise am Ende raus kommt....
Ich habe keine konkrete Vorstellung - dafür wabern zuviele Widersprüchliche Infos durchs Netz. Bei B3D habe ich ja mal meine Rechnung aufgestellt, wie der G80 aufgeteilt sein könnte, wenn die These mit den 128 ALUs und 38,4 GPix stimmen sollte (schöngerechnet wie immer).
Davor gab's ja die "getrennte Pixel- und Geometrie-Einheiten"-These...
GDDR4 hat, IIRC einen 8er-Prefetch, also vermutlich auch Burst.
Q
Surroundgaming sagt dir was? MGA wollte damit definitiv auch in den Spielemarkt. Erst nachträglich entschloss man sich dagegen. Die Preise zum Release waren auch bezahlbar für eine Highendkarte, nur fielen diese eben nicht (eben weil man sich nachträglich wieder gegen den Spielemarkt entschied). Auch auffällig war, dass zum Launch soviele P512 Karten bei den 3D/Spielemagazinen zum Testen aufliefen. Das ist heute nicht mehr so.
Auch der P10 war ursprünglich auch für den Spielemarkt von Creative vorgesehen (ein Grund warum man 3DLabs gekauft hat) ... nur erkannte man, dass die Treiber auf Spiele umstellen beim (relativ flexiblen) P10 nicht reichte.
Einen Chip nachträglich mit einem Schlagwort zu versehen reicht IMO nicht, um davon zu sprechen, er sei für diesen Markt entwickelt worden.
Q
*republicrepublicrepublicrepublic* ;)
Dasselbe hab ich doch schon bei SM3 gehört. :)Ja und ich werde es immer wieder wiederholen. Bevor jetzt einer spitzfindig wird: Mit den Bit-Operationen in D3D10 ließen sich neue Effekte realisieren, die mit D3D9 nur schwierig zu machen wären. Aber darauf dürften die Entwickler kaum wert legen. Viel wichtiger sind zum Beispiel Texturarrays und andere Erweiterungen in den Ressourcen, die mal wieder Pass-Reduktion erlauben.
robbitop
2006-10-14, 13:42:24
Einen Chip nachträglich mit einem Schlagwort zu versehen reicht IMO nicht, um davon zu sprechen, er sei für diesen Markt entwickelt worden.
Q
Erst lesen, dann posten. ;) Ich sagte auch für den Gamermarkt.
Die NV Designs sind auch für den Profimarkt.
Wie auch immer du es drehen und wenden willst: die P512 wurde u.A. für den Spielermarkt verkauft, kam mit normalen Preisen, die Treiber fixten lange Zeit diverse Gamebugs und es landeten massig Samples bei den Spielemags. Sie hat also gezeigt, dass das kein Problem ist.
StefanV
2006-10-14, 13:45:53
Ich kann diesen Mist langsam nicht mehr hören. Nochmal: Monate vor dem R300 hatte bereits der 3DLabs P10 als auch die P512 ein 256 Bit Interface.
Warum vergesst ihr immer den IBM Rasterizer RC1000, wie er z.B. auf der FireGL2 (http://www.tomshardware.com/2000/12/13/opengl_turbobooster_/index.html) verbaut wurde??
Der war zwar ziemlich 'doof', hatte aber auch schon ein 256bit Speicherinterface, getaktet auf 120MHz!
Ailuros
2006-10-14, 13:48:35
Ich habe keine konkrete Vorstellung - dafür wabern zuviele Widersprüchliche Infos durchs Netz. Bei B3D habe ich ja mal meine Rechnung aufgestellt, wie der G80 aufgeteilt sein könnte, wenn die These mit den 128 ALUs und 38,4 GPix stimmen sollte (schöngerechnet wie immer).
Davor gab's ja die "getrennte Pixel- und Geometrie-Einheiten"-These...
GDDR4 hat, IIRC einen 8er-Prefetch, also vermutlich auch Burst.
Q
Es steht "128 stream processors" im Papierchen und betitelt ist das Ganze als "Marketing Specifications" ;)
Ich meinte eher wie es mit TMU/ROPs auf G80 aussieht.
Ein burst von 8 ist noch verheerender; ach wie schoen 4096 bits :|
robbitop
2006-10-14, 13:51:51
Warum vergesst ihr immer den IBM Rasterizer RC1000, wie er z.B. auf der FireGL2 (http://www.tomshardware.com/2000/12/13/opengl_turbobooster_/index.html) verbaut wurde??
Der war zwar ziemlich 'doof', hatte aber auch schon ein 256bit Speicherinterface, getaktet auf 120MHz!
256 Bit DDR? ;)
Es steht "128 stream processors" im Papierchen und betitelt ist das Ganze als "Marketing Specifications" ;)
Ich meinte eher wie es mit TMU/ROPs auf G80 aussieht.
Ein burst von 8 ist noch verheerender; ach wie schoen 4096 bits :|
So schlimm ist eine so hohe Burstrate nicht bei einem gut unterteilten Memorycontrollern und entsprechenden Caches. Es wird, wie du ja weißt, praktisch sowieso drauf geachtet, dass möglichst alles geburstet wird.
War da nicht mal die Rede von sog. "TCPs"? Ich vermute, wie bereits erwähnt, 8x von den Dingern im G80. Jeweils eine Quad TMU/ROP mit ähnlichen Fähigkeiten wie NV4x. Zumindest Z-Values (Was ja irgendwo auch Pixel sind könnte so ein Ding dann 64 Stück pro Takt raushauen (was mit 600 statt 575 MHz dann 38,4GPix/sek ist).
Ailuros
2006-10-14, 13:57:46
So schlimm ist eine so hohe Burstrate nicht bei einem gut unterteilten Memorycontrollern und entsprechenden Caches. Es wird, wie du ja weißt, praktisch sowieso drauf geachtet, dass möglichst alles geburstet wird.
Nichts vom obrigen kommt aber umsonst wenn es zu Unkosten kommt.
512Bit macht Sinn, wenn der Karte primär gar nicht auf den Spielemarkt angesetzt wurde sodern hauptsächlich um NV im Profibereich anzugreifen.
AnarchX
2006-10-14, 14:32:44
512Bit macht Sinn, wenn der Karte primär gar nicht auf den Spielemarkt angesetzt wurde sodern hauptsächlich um NV im Profibereich anzugreifen.
Da sollte man eher mal was an den Treibern machen, den ohne eine ordentlich Qualität dieser ist auch die potentielle Leistung uninteressant.;)
StefanV
2006-10-14, 14:40:30
512Bit macht Sinn, wenn der Karte primär gar nicht auf den Spielemarkt angesetzt wurde sodern hauptsächlich um NV im Profibereich anzugreifen.
Naja, man muss es schon irgendwie verkaufen können, sonst lohnts sich nciht, wg. Entwicklungskosten...
Daher denke ich eher mal an Quasars Einwand, das 512bit @500MHz günstiger sein könnten als 1GHz@256bit...
AnarchX
2006-10-14, 14:42:38
Daher denke ich eher mal an Quasars Einwand, das 512bit @500MHz günstiger sein könnten als 1GHz@256bit..
Halt ich persönlich für Unsinn.
Zudem fällt ja der Preis von GDDR um einiges schneller als die Kosten eines 512Bit PCBs.;)
StefanV
2006-10-14, 14:48:24
Ja und bis er gefallen ist, steht auch schon der Refresh vor der Türe...
Naja, man muss es schon irgendwie verkaufen können, sonst lohnts sich nciht, wg. Entwicklungskosten...
Daher denke ich eher mal an Quasars Einwand, das 512bit @500MHz günstiger sein könnten als 1GHz@256bit...
Dann bräuchten sie aber keine Lieferpositionen für den GDDR4 RAM in der Menge.
was seid ihr denn am diskutieren?
wenn The Inquirer sagt, der R600 hat 512bit, dann ist das so.
:smile:
ich habe keine zweifel daran.
und der wird auch bestimmt nicht mit 500 oder 600Mhz kommen, sondern minimum 1000Mhz GDDR4.
BlackBirdSR
2006-10-14, 15:58:55
ati hat immernoch die bessere bildquali ,nicht immer verschweigen
Lieber Gast.
Dieser Aspekt fließt nicht im Geringsten in meine Überlegungen ein. Es ist für diese Sache sogar total unerheblich, da es hier um wirtschaftliche Aspekte geht.
Deine Anschuldigung ist sinnlos.
Danke
Die Frage die ich mir Stelle ist folgende:
Kann ATI den R600 schnell verbessern (Refresh) und wie schöagen sich die Mid- und Lowrange Modelle im Vergleich.
Gewinner im High-End zu sein ist toll, aber bringt ohne entsprechende Produkte die auch großen Absatz finden keinen Gewinn.
AMD weiß dies ebenfalls, und wenn ATI hier nicht punkten kann muss man dafür bluten!
wann soll er denn endlich kommen?
dieses oder nächstes jahr?
gibts immer noch kein termin?
ich kanns kaum abwarten.
zu 512bit:
es wurde in den letzten 5-6 jahren doch bestimmt was optimiert und verbessert bei der produktion oder nicht?
256bit gibts schon ewig, warum sollte nicht gerade jetzt der zeitpunkt da sein für 512bit?
irgendwann wird er sicher kommen und ich bin mir sicher, daß es jetzt sein wird.
wann soll er denn endlich kommen?
dieses oder nächstes jahr?
gibts immer noch kein termin?
ich kanns kaum abwarten.
zu 512bit:
es wurde in den letzten 5-6 jahren doch bestimmt was optimiert und verbessert bei der produktion oder nicht?
256bit gibts schon ewig, warum sollte nicht gerade jetzt der zeitpunkt da sein für 512bit?
irgendwann wird er sicher kommen und ich bin mir sicher, daß es jetzt sein wird.
Lieferbarkeit soll im 1Q/07 seien und man darf davon ausgehen, dass dies März meint. Launch erwartet man im Januar, wobei man da von enem Papaerlaunch ausgehen muss, es aber wohl erste Samples für die Reviewer geben wird, auch wenn diese nur an ausgewählte Seiten gehen werden, die das ATI-Paper zum Thema Benchmarkvergleichbarkeit befolgen.
oh man, ich dachte bald ist es soweit.
ich will endlich benchmarks sehen.
nvidia soll früher kommen oder?
sehen wir vielleicht noch dieses jahr benchmarks?
ich hoffe nur die werden nicht mehr strom ziehen, als die jetzigen karten.
100W ist meine schmerzgrenze.
AnarchX
2006-10-14, 16:24:31
oh man, ich dachte bald ist es soweit.
ich will endlich benchmarks sehen.
nvidia soll früher kommen oder?
sehen wir vielleicht noch dieses jahr benchmarks?
ich hoffe nur die werden nicht mehr strom ziehen, als die jetzigen karten.
100W ist meine schmerzgrenze.
Benutze einfach mal die SuFu bei dem G80-Thread und du wirst auf all diese Fragen (erschreckende);) Antworten finden.;)
Winter[Raven]
2006-10-14, 16:25:05
oh man, ich dachte bald ist es soweit.
ich will endlich benchmarks sehen.
nvidia soll früher kommen oder?
sehen wir vielleicht noch dieses jahr benchmarks?
ich hoffe nur die werden nicht mehr strom ziehen, als die jetzigen karten.
100W ist meine schmerzgrenze.
Die Vorstellung des G80 soll am 7. Nov. stattfinden, ob es dabei euch so eine breite Verfügbarkeit wie zu G70 Zeiten geben wird, ist und bleibt vorerst fraglich.
Spasstiger
2006-10-14, 16:35:28
ich hoffe nur die werden nicht mehr strom ziehen, als die jetzigen karten.
100W ist meine schmerzgrenze.
Spekulatius ist rund 150 Watt beim G80 und evtl. bis zu 250 Watt beim R600.
Somit sollte der R600 für dich gänzlich uninteressant sein. Mir ist der maximale Stromverbrauch eigentlich relativ egal, solange es leise Referenzkühllösungen und einen niedrigen Verbrauch im Idle und unter Vistas Aero-Oberfläche geben wird.
verfügbarkeit ist mir egal. ich gebe nicht 500 oder 600€ aus für ne karte.
novermber hört sich gut an, ist ja nur noch 1 monat :smile:
zum thema DX10 benchmarks:
wenn es bis dahin keine DX10 software geben wird, wie wird man die DX10 leistung beurteilen können?
Mir ist der maximale Stromverbrauch eigentlich relativ egal, solange es leise Referenzkühllösungen...
und wie stellst du dir das vor?
250W sind erstmal völlig unrealistisch, aber selbst 180W kriegt man nicht mehr leise gekühlt.
oder willst du den radiatior im kühlschrwank aufbewahren?
Spasstiger
2006-10-14, 17:23:04
und wie stellst du dir das vor?
250W sind erstmal völlig unrealistisch, aber selbst 180W kriegt man nicht mehr leise gekühlt.
oder willst du den radiatior im kühlschrwank aufbewahren?
Mit Wakü bekommt man 250 Watt gut in den Griff, sonst würde man ständig Klagen von den Wakü-Besitzern hier hören, welche z.B. X1900-Crossfire mit Wakü betreiben.
Gut, Wakü als Referenzlösung wäre sicherlich teuer und auch nur sinnvoll, wenn die Einheit mit Pumpe und Radiator z.B. im 5,25"-Schacht oder am besten gleich extern untergebracht wird und nicht direkt unter der Grafikkarte. Den Chip könnte man beidseitig kühlen, wobei die eine Seite mit Heatpipes an den Hauptkühler angebunden ist.
Kann mir durchaus vorstellen, dass es Grafikkarten mit externer Box geben könnte, in der nicht nur der Radiator und die Pumpe für den Wakükreislauf untergebracht ist, sondern auch ein kleines Netzteil für die Stromversorgung der Grafikkarte. In so einer externen Box könnte man dann problemlos auch einen großen Radiator mit z.b. zwei 120mm Lüftern unterbringen. Ok, für eine Referenzlösung erscheint mir das zu teuer.
verfügbarkeit ist mir egal. ich gebe nicht 500 oder 600€ aus für ne karte.
novermber hört sich gut an, ist ja nur noch 1 monat :smile:
zum thema DX10 benchmarks:
wenn es bis dahin keine DX10 software geben wird, wie wird man die DX10 leistung beurteilen können?
und wie stellst du dir das vor?
250W sind erstmal völlig unrealistisch, aber selbst 180W kriegt man nicht mehr leise gekühlt.
oder willst du den radiatior im kühlschrwank aufbewahren?
Es wird keine sicheren DX10 Benches geben. Evtl. gibt es Benches von BETA Versionen auf RC Betriebssystemen, deren Wert man aber, angesichts fehlender Konkurrenz, vernachlässigen kann.
Die Kühllösungen für High-End sind nicht so das Problem, die bessere Frage ist : Wenn der R600 wirklich 250W max. braucht wieviel brauchen dann die Mid-Range-Varianten und wie kühlt man z.B. 120W in dem preissensibelen Bereich.
das mit den 250W vergesst mal ganz schnell.
die hersteller sind zwar bischen dämlich aber so dämlich auch wieder nicht.
200W auf einem chip sind einfach zu extrem.
ok, vor einiger zeit hätte man auch nicht geglaubt, daß ein grafikkartentreiber über 100MB speicher braucht, aber 200W sind einfach unrealistisch.
und wie kühlt man z.B. 120W in dem preissensibelen Bereich.
vielleicht genauso wie man jetzt die 120W der 1900er serie kühlt?
oder meinst du der kühler wäre zu teuer für eine midrange karte?
Preissensibel sind 150 Euro und drunter. Mit neuen Chips und schnellem RAM.
dargo
2006-10-14, 23:11:01
Mit Wakü bekommt man 250 Watt gut in den Griff, sonst würde man ständig Klagen von den Wakü-Besitzern hier hören, welche z.B. X1900-Crossfire mit Wakü betreiben.
Eine Karte wäre nicht das Problem. Wie willst du dann aber mit Wakü ein R600 Crossfire System mit angeblichen 500W :eek: kühlen?
Spasstiger
2006-10-14, 23:26:48
Eine Karte wäre nicht das Problem. Wie willst du dann aber mit Wakü ein R600 Crossfire System mit angeblichen 500W :eek: kühlen?
Mit einem Mora Pro und neun 120 mm Lüftern drauf sollte das kein Thema sein. ;)
Einen Core 2 Duo @ 4 GHz könnte man damit auch noch ganz nebenbei mitkühlen.
dargo
2006-10-14, 23:36:44
Mit einem Mora Pro und neun 120 mm Lüftern drauf sollte das kein Thema sein. ;)
Klar, wieso nicht gleich 20 120-er Lüfter rundums Gehäuse. :ueye:
Einen Core 2 Duo @ 4 GHz könnte man damit auch noch ganz nebenbei mitkühlen.
Ein C2D@4Ghz ist dann ein Witz (von der Verlustleistung) im Vergleich zu angeblichen 250W des R600.
Mit einem Mora Pro und neun 120 mm Lüftern drauf sollte das kein Thema sein. und wie soll der raum gekühlt werden?
klimaanlage? :biggrin:
naja, 250W werden es sicher nicht werden, aber auch 150W finde ich schon viel zu viel. ich verstehe das nicht.
nvidia braucht mit der 7900er reihe viel weniger strom und erreicht etwa die gleiche leistung wie ati mit der 1900er serie.
ich würds wirklich gut finden, wenn man alle produkte über 100W einfach boykotieren würde.
was meint ihr wie schnell die hersteller da reagieren würden?
es muss einer mal endlich einen sparsamen und effizienten chip bauen, damit das aufhört. (sehe AMD und intel) wäre der A64 nicht so sparsam, hätte sich intel nie bemüht einen ähnlich sparsamen chip zu bringen und wir hätten bei den cpus auch solche monster mit über 150W.
dargo
2006-10-15, 00:30:53
naja, 250W werden es sicher nicht werden, aber auch 150W finde ich schon viel zu viel. ich verstehe das nicht.
Die 150W wird selbst der G80 mit Sicherheit überschreiten wenn die Bilder mit den zwei PCIe Stromanschlüssen stimmen.
es muss einer mal endlich einen sparsamen und effizienten chip bauen, damit das aufhört. (sehe AMD und intel)
Eine GPU ist deutlich komplexer aufgebaut (Transistoranzahl) als eine CPU. Hinzu kommt die Stromversorgung der Grafikkarte (die der CPU ist logischerweise auf dem Mainboard plaziert) und der Grafikspeicher, auch wenn er nicht soviel Leistung braucht.
Crazytype
2006-10-15, 01:32:06
Heisen die jüngsten News zum r600 Stromverbrauch nicht 17x Watt?
Ailuros
2006-10-15, 03:03:29
250W sind viel zu uebertrieben.
Spasstiger
2006-10-15, 03:24:37
250W sind viel zu uebertrieben.
Angenommen die Transistorzahl wird verdoppelt, dann wäre der Wert doch gar nicht so abwegig. Ein X1950 XTX schluckt auch schonmal ihre 140 Watt. Ok, mit der Fertigung in 80 nm könnte man den Verbrauch ein wenig eindämmen. Aber ich gehe davon aus, dass die 200-Watt-Marke geknackt wird.
Angenommen die Transistorzahl wird verdoppelt, dann wäre der Wert doch gar nicht so abwegig. Ein X1950 XTX schluckt auch schonmal ihre 140 Watt. Ok, mit der Fertigung in 80 nm könnte man den Verbrauch ein wenig eindämmen. Aber ich gehe davon aus, dass die 200-Watt-Marke geknackt wird.
Oh man. Wenn ich das lese, würde ich schon fast meinen, ich befinde mich hier bei der BILD.
Diese 200, 250 W Spekulationen sind völlig unnütz und ohne Hand und Fuß.
Dann noch zu behaupten, in 80nm könnten diese Werte erreicht werden, ist noch schwachsinniger als alles andere.
Man Leute, ihr habt doch alle Physik in der Schule gehabt? :)
Dann sollte euch auch klar sein, das die jetzigen ~130W einer Radeon schon verdammt schwer zu kühlen sind. 200 W sollte mit Luft schon gar nicht mehr machbar sein, in 80 nm schonmal gar nicht, weil dann noch mehr Verlustleistung auf weniger Fläche kommen würde -> vollkommen utopisch.
So ne Karte würde nicht mehr ohne Spezialkühler auskommen und den wirds nicht geben, weil sonst der Absatz abbricht.
Ergo ist alles Unsinn und auch keine weitere Diskussion wert. Konzentriert euch bitte mal auf konkrete Fakten, nicht auf Spekulationen.
StefanV
2006-10-15, 03:49:32
Verbraucht die x1950XTX nicht etwas weniger als die x1900XTX, u.A. aufgrund des GDDR4 statt GDDR3 Speichers??
Majestic
2006-10-15, 09:37:55
Ich finde schon lustig das überall Energiesparen propagiert wird und die beiden Hersteller immer größere Energievernichter* auf den Markt bringen. Die Hitzeentwicklung meiner X1800XT schon heftigst und wenn sich das mit den neunen Karten noch weiter fortsetzt bzw... verschlimmert....:(
Was ist eigendlich der Grund dafür das die X1x00 Karte (und Nachfolger) solche Hei(tz)ßsporne sind? Leckströme, Anzahl der Transistoren, einfach der Takt oder was ganz anderes ?
*(Bevor wieder gleich so ne Meldung ala "Standard" kommt. Nenne ich mal so. Auch wenn nach dem E.E.H.S. Blödsinn ist)
Die 150W wird selbst der G80 mit Sicherheit überschreiten wenn die Bilder mit den zwei PCIe Stromanschlüssen stimmen.
Es besteht auch die Möglichkeit, dass so eine Karte ihren Strom fast nur über die zusätzlichen Stromstecker aufnimmt, in der Hoffnung, dort eine sauberere Spannung als über das Mainboard zu erhalten. Dann wären wir wieder im Power Envelope von <150 Watt.
So unwahrscheinlich ist das btw gar nicht, da eines der größten Probleme bei den heutigen, komplexen PCBs darin besteht, Signale und Spannungen über das gesamte Board stabil zu halten.
Undertaker
2006-10-15, 10:06:43
Verbraucht die x1950XTX nicht etwas weniger als die x1900XTX, u.A. aufgrund des GDDR4 statt GDDR3 Speichers??
laut computerbase ganze 4w (also abzgl nt-wirkungsgrad ~3w), was wohl zum einen daran liegt das der speicher eh schon wenig strom braucht und der vorteil des gddr4 durch den höheren takt auch nocheinmal geschmälert wird
BlackBirdSR
2006-10-15, 10:13:27
Was ist eigendlich der Grund dafür das die X1x00 Karte (und Nachfolger) solche Hei(tz)ßsporne sind? Leckströme, Anzahl der Transistoren, einfach der Takt oder was ganz anderes ?
Du hast gerade selbst fast alles aufgezählt was dazu beiträgt.
dargo
2006-10-15, 11:50:24
Man Leute, ihr habt doch alle Physik in der Schule gehabt? :)
Dann sollte euch auch klar sein, das die jetzigen ~130W einer Radeon schon verdammt schwer zu kühlen sind. 200 W sollte mit Luft schon gar nicht mehr machbar sein, in 80 nm schonmal gar nicht, weil dann noch mehr Verlustleistung auf weniger Fläche kommen würde -> vollkommen utopisch.
Du weißt aber schon, dass die Transistoranzahl deutlich steigen soll? :)
Wer sagt denn, dass die Die Fläche des R600 in 80nm kleiner sein wird als die des R580 in 90nm?
Verbraucht die x1950XTX nicht etwas weniger als die x1900XTX, u.A. aufgrund des GDDR4 statt GDDR3 Speichers??
Nein. Die X1950XTX braucht sogar ~4W mehr als die X1900XTX. Der GDDR4 bringt in diesem Fall nicht weniger Verlustleistung da er mit 250Mhz mehr taktet.
Es besteht auch die Möglichkeit, dass so eine Karte ihren Strom fast nur über die zusätzlichen Stromstecker aufnimmt, in der Hoffnung, dort eine sauberere Spannung als über das Mainboard zu erhalten. Dann wären wir wieder im Power Envelope von <150 Watt.
So unwahrscheinlich ist das btw gar nicht, da eines der größten Probleme bei den heutigen, komplexen PCBs darin besteht, Signale und Spannungen über das gesamte Board stabil zu halten.
Das halte ich sogar für sehr unwahrscheinlich. Jeder Mainboardhersteller muss sich an die Spezifikation halten. Dh. der PCIe Slot muss die max. 75W liefern können. Trotzdem ist es möglich, dass der G80 in "normalen" Anwendungen knapp unter 150W bleibt und man nur sicherheitshalber der Karte einen zweiten PCIe Stromanschluss verpasst hat. Immerhin gibt es eventuell noch Leistungsspitzen.
Da muss ich gleich an die X800XL PCIe denken. Es gab Hersteller die der Karte einen PCIe Stromanschluss verpasst haben und andere nicht, obwohl sie laut xbitlabs knapp 50W verbraucht hat.
Ailuros
2006-10-15, 12:38:06
Angenommen die Transistorzahl wird verdoppelt, dann wäre der Wert doch gar nicht so abwegig. Ein X1950 XTX schluckt auch schonmal ihre 140 Watt. Ok, mit der Fertigung in 80 nm könnte man den Verbrauch ein wenig eindämmen. Aber ich gehe davon aus, dass die 200-Watt-Marke geknackt wird.
Wieviel Transistoren hat NV40 und wieviel G70 oder sogar G71 und wie sieht es genau mit dem Stromverbrauch aus bei nicht zu grossen Takt-Unterschieden?
Siehst Du irgend eine Macke in Deiner Logik? Doppelt so viel Transistoren heisst auf keinen Fall doppelt so viel Stromverbrauch. Das Ziel beider IHVs afaik ist den Stromverbrauch unter der 200W fuer das naechste Jahrzehnt zu halten und obwohl diese etwas hoch sein wird mit 90 bzw. 80nm bei den kommenden GPUs, wird sich das 65nm in 2007 wieder ausbalancieren.
http://users.otenet.gr/~ailuros/estimate.jpg
Und ja es ist nur eine Schaetzung aus 2004; schaetz aber mal 2006/7 ab und schau genau hin wie die Transistoren-anzahl,Takrate, Stromverbrauch, Bandbreite u.a. eingeschaetzt wurde.
[](-__-)[]
2006-10-15, 13:52:05
Der Stromverbrauch bzw. die Verlustleistung sollte doch auf dem gleichen Niveau bleiben und später dann sinken.
Meinte ATIgegenüber der c`t.
dargo
2006-10-15, 14:16:20
(-__-)[]']Der Stromverbrauch bzw. die Verlustleistung sollte doch auf dem gleichen Niveau bleiben und später dann sinken.
Meinte ATIgegenüber der c`t.
Sollte das nicht erst beim Nachfolger des R600 der Fall sein?
Snoopy1978
2006-10-15, 14:36:46
Der Bericht das der R600 bis zu 250 Watt fressen soll wurde aber schon früher dementiert(genauso wie die Meldung das der R600 Kühler 3 Slots belegt). Alls neuer Wert wird bis zu 175 Watt gehandelt.
Ati hatte ja zugegeben daß der Stromverbrauch und die Hitzeentwicklung langsam aus dem Ruder laufen und deshalb wollen die Jungs aus Kanada auf Mehrkern GPU´S setzen.Zumindest hat das ein Offizieller im Interview mit Golem gesagt.
Winter[Raven]
2006-10-15, 14:49:08
genauso wie die Meldung das der R600 Kühler 3 Slots belegt
Also vor paar seiten meinte Ailuros, die ersten R600 würden 3Slot haben...
Snoopy1978
2006-10-15, 15:02:24
Der Inquirer und andere Quellen meinten aber unter der Überschrift "False
R600 rumors to the round" daß das eben nicht der Fall sein würde.
Und ich kann mir das auch schwerlich vorstellen, das wäre ein gar gewaltiger Kühleraufbau, Crossfire könnte man da vergessen.Die Mainboard-Hersteller müssten da ja neue Bords designen. Bei einigen Hauptplatinen gehts ja jetzt schon eng zu.
[](-__-)[]
2006-10-15, 15:09:57
Sollte das nicht erst beim Nachfolger des R600 der Fall sein?
Das wurde nicht erwähnt, auf jeden Fall war von der neuen Generation die Rede.
StefanV
2006-10-15, 15:51:07
Nein. Die X1950XTX braucht sogar ~4W mehr als die X1900XTX. Der GDDR4 bringt in diesem Fall nicht weniger Verlustleistung da er mit 250Mhz mehr taktet.
Kommt wohl drauf an, was fürn Test man liest :ugly:
Moralelastix
2006-10-15, 18:13:23
http://uk.theinquirer.net/?article=35096
Effektivere Transistornutzung?
Hoffentlich kommt er auch wirklich bald. Ich war heut auch in der Kirch beten!
Denn so eine Verspätung wie beim R500 würd ich net verkraften.
dargo
2006-10-15, 18:16:56
Kommt wohl drauf an, was fürn Test man liest :ugly:
Beide Tests waren von xbitlabs. Es wurde auch AFAIK das gleiche gebencht für die Messung.
X1900XTX = ~120W
X1950XTX = ~124W
AnarchX
2006-10-15, 18:19:19
Hoffentlich kommt er auch wirklich bald. Ich war heut auch in der Kirch beten!
Denn so eine Verspätung wie beim R500 würd ich net verkraften.
Auch für ATI wäre dies doch sehr kritisch...;)
Sunrise
2006-10-15, 18:43:27
Nein. Die X1950XTX braucht sogar ~4W mehr als die X1900XTX. Der GDDR4 bringt in diesem Fall nicht weniger Verlustleistung da er mit 250Mhz mehr taktet.
Der Takt ist hier nicht ausschlaggebend, sondern die Spannung, mit der ATi deren GDDR4 hier betreibt. Diese befindet sich am oberen Rand der Spec, ATi "übertaktet" den Speicher hier also ab Werk, welcher (genau wie GDDR3 auf ihrer X1900XTX) mit 1.8V~1.9V angesprochen wird.
Rest steht hier:
http://www.beyond3d.com/forum/showpost.php?p=847622&postcount=1104
aylano
2006-10-15, 19:20:27
Denn so eine Verspätung wie beim R500 würd ich net verkraften.
Wie groß war eigentlich die Verspätung vom R500???
[MK2]Mythos
2006-10-15, 19:34:38
Den R500 gab es nie auf dem Markt. :)
OBrian
2006-10-15, 19:34:42
Da er nie kam (und kommen wird), kann man sagen, sie tendiert gegen unendlich.:cool:
AnarchX
2006-10-15, 19:43:37
Mythos']Den R500 gab es nie auf dem Markt. :)
Doch den gibt es, wenn auch nicht als Desktop-GraKa.;)
Aber hier ist wohl eher R520 gemeint.
[MK2]Mythos
2006-10-15, 19:43:41
BTW, wenn der R600 kleiner wird als der G80 unterstützt dies ja nun absolut gar nicht die 512 Bit SI Theorie, sofern er denn wirklich kleiner wird...
Hoffentlich rückt ATi bald mal mit Neuigkeiten raus. :D
Doch den gibt es, wenn auch nicht als Desktop-GraKa.;)
Aber hier ist wohl eher R520 gemeint.
Ich hab gewußt das einer wieder klugscheißt. :P
StefanV
2006-10-15, 20:05:41
Doch den gibt es, wenn auch nicht als Desktop-GraKa.;)
Xenos ist AFAIK nicht R500...
AnarchX
2006-10-15, 20:13:12
Xenos ist AFAIK nicht R500...
Bis auf ein paar Anpassungen für die Xbox360(z.B. eDRAM) entspricht er AFAIK doch großteils dem R500-Projekt, welches für die damalige Zeit noch etwas zu ehrgeizig war für den GraKa-Markt.
Bis auf ein paar Anpassungen für die Xbox360(z.B. eDRAM) entspricht er AFAIK doch großteils dem R500-Projekt, welches für die damalige Zeit noch etwas zu ehrgeizig war für den GraKa-Markt.
das war der r400
AnarchX
2006-10-15, 21:19:37
das war der r400
R500 basiert auf dem R400-Projekt und mit R600 trifft nun diese Entwicklungslinie auch den PC-GraKa-Markt.;)
R500 basiert auf dem R400-Projekt und mit R600 trifft nun diese Entwicklungslinie auch den PC-GraKa-Markt.;)
glaubt ihr nicht , dass das jetzt wayne ist? -.-
Du weißt aber schon, dass die Transistoranzahl deutlich steigen soll? :)
Das bleibt abzuwarten.
Selbst bei doppelt so vielen Transistoren müsste die Fläche doppelt so groß sein, in 90nm, damit er ähnlich gut kühlbar bleibt, wie die aktuellen Karten und selbst das ist vollkommen unrealistisch.
Das Ding muss ja auch noch auf die Platine passen und der Kühler muss den Chip komplett abdecken. Also wer das glaubt, der ist wirklich naiv.
Wer sagt denn, dass die Die Fläche des R600 in 80nm kleiner sein wird als die des R580 in 90nm?
Spielt überhaupt keine Rolle. Bei 250 W wären es auch in 80nm noch mehr W pro Fläche, deshalb auch absolut unrealistisch.
deekey777
2006-10-15, 22:48:18
R500 basiert auf dem R400-Projekt und mit R600 trifft nun diese Entwicklungslinie auch den PC-GraKa-Markt.;)
Es gab nie einen R500. Als es durchgesickerte, dass das ursprüngliche R400-Projekt eingestellt und stattdessen R420 aka Loki kommt, wurde der zukünftige Desktop-R500 schnell in R600 umbenannt.
Grob gesagt: R500 = R600. Die Bezeichnung R500 wurde zugunsten des zukünftigen R520 übersprungen.
R400 -> R500 R600
|
-> Xenos/C1
Was der R400 tatsächlich war oder werden sollte, werden wir nie erfahren.
aylano
2006-10-15, 22:53:18
Mythos']Den R500 gab es nie auf dem Markt. :)
Achso, dann stelle ich die Frage neu.
Wie groß war eigentlich die Verspätung vom R520 hingegen zum High-End-Konkurrenz-Produkt a la Nvidia G70-Serie???
ca. 3 Monate???
AnarchX
2006-10-15, 23:07:59
Es gab nie einen R500.
Nur seltsam, dass man "R500" sehr oft im Zusammenhang mit Xenos/C1 zu lesen bekommt.:|
LovesuckZ
2006-10-15, 23:08:48
Wie groß war eigentlich die Verspätung vom R520 hingegen zum High-End-Konkurrenz-Produkt a la Nvidia G70-Serie???
ca. 3 Monate???
Die Frage kann dir niemand beantworten.
Der r520 kam drei Monate nach dem G70. Das finde ich noch vollkommen im Rahmen, da Produkte nicht zeitgenau rausgebracht werden können.
AnarchX
2006-10-15, 23:11:46
Die Frage kann dir niemand beantworten.
Der r520 kam drei Monate nach dem G70. Das finde ich noch vollkommen im Rahmen, da Produkte nicht zeitgenau rausgebracht werden können.
R520 sollte AFAIK eher als G70 erscheinen laut ATIs Planung(Frühling bis Sommer 2005), die eigentliche Konkurrenz zu G70(G71) ist ja eher der R580.
Aber dann lief einiges schief...
deekey777
2006-10-16, 00:06:34
Nur seltsam, dass man "R500" sehr oft im Zusammenhang mit Xenos/C1 zu lesen bekommt.:|
Ist aber falsch, denn der R500 aka R600 ist der D3D10-Chip.
ATi-Leute mochten es gar nicht, wenn der C1 als R500 bezeichnet wurde, insbesondere nach der Vorstellung der Xbox360 bzw. schon vorher, als ATi so freundlich war, Techpapers zu verteilen.
was ist dann mit dem ehemaligem r600 geworden? heißt der jetzt r700? und der ehemalige r700 -> r800? und der ehmelagile R8...
merkt ihr endlich, dasss das egal ist -.-
Ailuros
2006-10-16, 06:19:54
']Also vor paar seiten meinte Ailuros, die ersten R600 würden 3Slot haben...
Nein. Wo denn?
***edit: es wurde von anderen oefters in der Vergangenheit erwaehnt dass extravagante Stromverbrauchszahlen (wie 250 oder 300W) nicht auf single chip oder single GPU ausgerichtet sind. Gibt es irgend eine Garantie dass ATI diesmal nicht auch etwas in Richtung GX2 ausrueckt?
dargo
2006-10-16, 11:18:35
Spielt überhaupt keine Rolle. Bei 250 W wären es auch in 80nm noch mehr W pro Fläche, deshalb auch absolut unrealistisch.
Naja, es wird immer von den 250W ausgegangen (auch wenn mittlerweile ~170W genannt werden). Diese 250W (oder von mir aus 170W) kommen aber nicht alleine von der GPU. Ein großer Teil ist der Stromversorgung zu verdanken. Eine GPU des R580 verbrät auch "nur" ~60W.
Ailuros
2006-10-16, 11:24:58
Naja, es wird immer von den 250W ausgegangen (auch wenn mittlerweile ~170W genannt werden). Diese 250W (oder von mir aus 170W) kommen aber nicht alleine von der GPU. Ein großer Teil ist der Stromversorgung zu verdanken. Eine GPU des R580 verbrät auch "nur" ~60W.
In 2D oder wie meinen?
http://www.xbitlabs.com/images/video/ati-x1950xtx/x1950_power.gif
http://www.xbitlabs.com/articles/video/display/ati-x1950xtx_7.html
....und da wir schon dabei sind, bemerkt mal bitte den von Xbitlabs gemessenen Stromverbrauch-unterschied zwischen der 7950GX2 und der GTX.
AnarchX
2006-10-16, 11:27:13
Zusätzliche 50-60W durch Spannungserversorgung und RAM...:|
Wenn dem so wäre, wäre aber der R580 auch nicht so ein Hitzkopf, 50W kühlen ist doch eher einfach.;)
dargo
2006-10-16, 11:29:03
@Ailuros
Ich meine alleine die GPU. Ich habe mal gelesen, dass eine Seite nur den Stromverbrauch der GPU mit ~60W bei einer X1900XT gemessen haben soll. Der Rest ist der Stromversorgung und dem Speicher zu verdanken.
Wenn dem so wäre, wäre aber der R580 auch nicht so ein Hitzkopf, 50W kühlen ist doch eher einfach.;)
Es waren AFAIK ~60W. Und 60W auf so einen kleinen Raum zu kühlen ist nicht gerade einfach.
....und da wir schon dabei sind, bemerkt mal bitte den von Xbitlabs gemessenen Stromverbrauch-unterschied zwischen der 7950GX2 und der GTX.
Was findest du daran seltsam?
Ailuros
2006-10-16, 11:51:36
@Ailuros
Ich meine alleine die GPU. Ich habe mal gelesen, dass eine Seite nur den Stromverbrauch der GPU mit ~60W bei einer X1900XT gemessen haben soll. Der Rest ist der Stromversorgung und dem Speicher zu verdanken.
Nur 60W verbraucht eine R580 noch lange nicht; dass die Zahl zu niedrig ist sollte man ja gleich verstehen koennen. Wenn es so waere wuerde eine GPU in 3D weniger als ein heutiger high end Bildschirm verbrauchen :rolleyes:
Was findest du daran seltsam?
Gar nichts. Nur eine These woher das angebliche 250W Geruecht kommen koennte. Wenn zwischen GX2 und GTX 110:84 warum dann nicht auch R6x0 250:170 als Beispiel zwischen hypothetischem dual und single chip?
dargo
2006-10-16, 11:54:52
Nur 60W verbraucht eine R580 noch lange nicht; dass die Zahl zu niedrig ist sollte man ja gleich verstehen koennen. Wenn es so waere wuerde eine GPU in 3D weniger als ein heutiger high end Bildschirm verbrauchen :rolleyes:
Ich versuche mal die Seite zu finden.
|MatMan|
2006-10-16, 11:58:05
@Ailuros
Ich meine alleine die GPU. Ich habe mal gelesen, dass eine Seite nur den Stromverbrauch der GPU mit ~60W bei einer X1900XT gemessen haben soll. Der Rest ist der Stromversorgung und dem Speicher zu verdanken.
Dass der Speicher so viel Strom verbraucht, kannst du ganz schnell wieder vergessen, denn den kann man problemlos passiv kühlen, d.h. der verbraucht vielleicht 10W.
Wenn jetzt die Stromversorgung 40-50W verbrauchen sollte um 70-80W für GPU und Speicher zu erzeugen, dann wäre deren Wirkungsgrad unter aller Sau, nämlich um die 50-60%. Normalerweise liegt der Wirkungsgrad bei einem Schaltnetzteil (und genau das ist die Stromversorgung) bei 80-90% (oder sogar höher). Dann würden für sich die Stromversorgung auch passiv kühlen lassen, da dass dann wieder nur ca 10-20W sind.
Siehe http://www.tweakpc.de/news/10436/sapphire-radeon-toxic-x1950-xtx-mit-plug-play-wasserkuehlung/, sogar bei einer Serien-WaKü wird nur die GPU gekühlt, nicht der Speicher und auch nicht die Stromversorgung. Würde sich die Leistung mit 60W GPU und 60W Speicher/ Stromversorgung verteilen, würde das wohl so nicht funktionieren...
=> Den Löwenanteil der Leistung verschlingt schon die GPU. Alles andere sind Versuche das schön zu reden.
Nur 60W verbraucht eine R580 noch lange nicht; dass die Zahl zu niedrig ist sollte man ja gleich verstehen koennen. Wenn es so waere wuerde eine GPU in 3D weniger als ein heutiger high end Bildschirm verbrauchen :rolleyes:
Gar nichts. Nur eine These woher das angebliche 250W Geruecht kommen koennte. Wenn zwischen GX2 und GTX 110:84 warum dann nicht auch R6x0 250:170 als Beispiel zwischen hypothetischem dual und single chip?
pcie kann doch nur max 75 Watt liefern. :|
Externe Strokmversorgung nochmal 75 Watt. Also max 150 Watt oder nicht?!
AnarchX
2006-10-16, 12:02:42
pcie kann doch nur max 75 Watt liefern. :|
Externe Strokmversorgung nochmal 75 Watt. Also max 150 Watt oder nicht?!
Man kann aber auch 2 Stromstecker verbauen -> 225W (siehe G80-Sample).;)
Aktuell werden auch die PCIe-Specs auf einen höheren Verbrauch am PEG umgestellt.
dargo
2006-10-16, 12:30:51
@Ailuros und |MatMan|
Jetzt nagelt mich nicht fest. Es könnte auch eine X1800XT gewesen sein. Auf jedem Fall eine von den beiden, X1800XT 512MB oder X1900XT 512MB.
Hier mal was zum grübbeln:
http://img156.imageshack.us/img156/1659/x1900xtii9.jpg
Eine X1900XT 512MB in Aktion mit dem 3DMark05, genauso wie bei xbitlabs.
Macht bei mir 35,6W nur für die Spannungswandler bzw. Stromversorgung.
GPU = ~60W
Spannungswandler = ~36W
Speicher = ~15W
Kommt in etwa hin was? :rolleyes:
Wenn jetzt die Stromversorgung 40-50W verbrauchen sollte um 70-80W für GPU und Speicher zu erzeugen, dann wäre deren Wirkungsgrad unter aller Sau, nämlich um die 50-60%. Normalerweise liegt der Wirkungsgrad bei einem Schaltnetzteil (und genau das ist die Stromversorgung) bei 80-90% (oder sogar höher). Dann würden für sich die Stromversorgung auch passiv kühlen lassen, da dass dann wieder nur ca 10-20W sind.
1. Ich habe von ca. 60W für die GPU gesprochen.
2. Dass der Wirkungsgrad der Spannungsumwandlung auf der Grafikkarte "schlecht" ist, ist völlig normal. Das kann man auch schlecht mit einem guten NT vergleichen, weil:
- kein Platz auf dem Graka-PCB vorhanden ist um die Effizienz zu erhöhen
- die Kosten für die Grafikkarte bei so einem hohen Aufwand, um die Effizienz der Stromversorgung zu erhöhen, explodieren würden
Edit:
Jetzt rechnen wir mal ein wenig weiter. GPU + Speicher würden ca. 75W benötigen.
Wenn ich jetzt von den ~110W von xbitlabs ausgehe hat die Stromversorgung einer X1900XT eine Effizienz von ~68%. Gar nicht mal soo schlecht, wenn man bedenkt, dass noch vor ca. 2 Jahren gute NTs solche Effizienz geboten haben.
|MatMan|
2006-10-16, 13:53:44
@ dargo:
hm ich weiß nicht wie verläßlich die Strommessung von diesem Tool auf deinem Screenshot ist, denn so ganz untrivial so eine Messung m. M. nach nicht...
So wie du hatte ich in meinem vorherigen Post auch schon gerechnet, nur war ich von 120-130W ausgegangen und nicht von 110W...
Dass ein NT einen recht niedrigen Wirkungsgrad hat, liegt AFAIK daran, dass es meist nur wenig ausgelastet wird und idR total überdimensioniert ist.
Bei einer Grafikkarte weiß man aber recht genau, wieviel Leistung benötigt wird und kann die Spannungsversorgung darauf optimieren, beim NT geht das nicht.
Bei deiner Rechnung wären es immernoch ca 35W, die an der Spannungsversorgung verbraten werden müßten, ich halte das für immernoch viel zu viel, wenn man sich den winzigen passiven Kühlkörper anschaut, der auch bei einer WaKü ausreichen soll (also ohne Luftstrom).
Um mal was zum Topic bezutragen:
Landet der R600 wirklich bei 200W und hat die Spannungsversorgung wirklich nur einen Wirkungsgrad von knapp 70%, dann werden alleine 60W direkt dort verheizt! ;D :eek:
dargo
2006-10-16, 14:05:42
@ dargo:
hm ich weiß nicht wie verläßlich die Strommessung von diesem Tool auf deinem Screenshot ist, denn so ganz untrivial so eine Messung m. M. nach nicht...
Hier muss ich dir recht geben. Ich kann natürlich nicht garantieren, dass die Messung vom ATT stimmt. ATITool zeigt aber das selbe an.
Bei deiner Rechnung wären es immernoch ca 35W, die an der Spannungsversorgung verbraten werden müßten, ich halte das für immernoch viel zu viel, wenn man sich den winzigen passiven Kühlkörper anschaut, der auch bei einer WaKü ausreichen soll (also ohne Luftstrom).
Das wäre mal vielleicht endlich der Grund dafür wieso das PCB so warm wird. Ich könnte wetten, dass die Spannungswandler zusätzlich die Wärme über das PCB abgeben, genauso wie der GDDR3 Speicher.
Um mal was zum Topic bezutragen:
Landet der R600 wirklich bei 200W und hat die Spannungsversorgung wirklich nur einen Wirkungsgrad von knapp 70%, dann werden alleine 60W direkt dort verheizt! ;D :eek:
Wie kommst du jetzt auf die 70% wenn du noch gar nicht weißt was die R600 GPU und dessen Speicher verbrauchen?
|MatMan|
2006-10-16, 14:29:26
Das wäre mal vielleicht endlich der Grund dafür wieso das PCB so warm wird. Ich könnte wetten, dass die Spannungswandler zusätzlich die Wärme über das PCB abgeben, genauso wie der GDDR3 Speicher.
Sicher wird auch übers PCB Wärme abgegeben, aber das wird der GPU (und Speicher) ja auch noch aufgeheizt, ist somit ziemlich beschränkt...
Wie kommst du jetzt auf die 70% wenn du noch gar nicht weißt was die R600 GPU und dessen Speicher verbrauchen?
Ich brauche doch nicht wissen, was die im einzelnen verbrauchen, da das für die Spannungsversorgung egal ist, es interessiert nur der Gesamtverbrauch der Karte und den hatte ich halt mal mit 200W angenommen.
Ich bin dann von deiner Argumentation ausgegangen, dass der Wirkungsgrad der Spannungsversorgung auch weiterhin vergleichbar mit der aktuellen Generation sein würde (aus Kostengründen), d.h. wenn wir jetzt bei ca 70% liegen würden, dann trifft das auch auf die nächste Generation zu (ich bin aber immernoch der Meinung, dass der Wirkungsgrad nicht so schlecht ist).
Damit wollte ich eigentlich nur sagen, dass es bei einem so hohen Verbrauch der Grafikkarte immer größere Probleme mit der Wärmeentwicklung der Spannungsversorgung gibt, erst Recht wenn der Wirkungsgrad wirklich so schlecht sein sollte.
Macht bei mir 35,6W nur für die Spannungswandler bzw. Stromversorgung.
Nein, es sind 35,6W, die die hinter dem Wandler liegenden Verbraucher verbrauchen. Die Verlustleistung der Wandler selbst kann man nicht erfassen.
dargo
2006-10-16, 16:17:10
Nein, es sind 35,6W, die die hinter dem Wandler liegenden Verbraucher verbrauchen. Die Verlustleistung der Wandler selbst kann man nicht erfassen.
Und das wäre? :)
StefanV
2006-10-16, 16:30:50
Nur 60W verbraucht eine R580 noch lange nicht; dass die Zahl zu niedrig ist sollte man ja gleich verstehen koennen. Wenn es so waere wuerde eine GPU in 3D weniger als ein heutiger high end Bildschirm verbrauchen :rolleyes:
Bei ATI x1800/x1900 gibts die Möglichkeit den Strom der Spannungsregler zu schätzen.
Die Frage ist doch, welcher Strom das ist...
Bei diesen ganzen Schätzungen kommt doch auch noch dazu, das man das ganze versucht hat per Differenzmessung hinzubekommen, was allein schon etwas differenz ausmacht.
Nehmen wir also mal die 60W von Dargo, dazu noch 2-3W pro Speicherchip = 16-24W, dazu nehmen wir einfach mal 75% Effizienz der Spannungsregler an: macht 95-105W, dazu kannst aber auch noch ein paar Watt nehmen, die die Differenzschätzung daneben liegt.
Du siehst, das kommt schon etwa hin.
Und ganz neben bei:
Bei meiner x1800XT waren nur 3 von 6 Pins belegt, beim Zusatzstecker: 1x +12V, 2x Masse, einmal wird anscheinend für irgendeine popelige Diode verbraten...
....und da wir schon dabei sind, bemerkt mal bitte den von Xbitlabs gemessenen Stromverbrauch-unterschied zwischen der 7950GX2 und der GTX.
Die 7950 GX2 wurde aufgrund einer Inkompatibilität mit dem präparierten Mobo nicht gemessen, sondern der von Nvidia angegebene, bzw. ein Schätzwert benutzt.
Q
Ailuros
2006-10-17, 00:14:07
Die 7950 GX2 wurde aufgrund einer Inkompatibilität mit dem präparierten Mobo nicht gemessen, sondern der von Nvidia angegebene, bzw. ein Schätzwert benutzt.
Q
Selbst eine 140:84 Relation macht immer noch Sinn fuer meine 250:175 dual chip R600 These.
250W sind mir einfach zu viel zu verdauen fuer eine einzige GPU.
dildo4u
2006-10-17, 00:17:14
Die Schätzungen gehen ja hier ins Absurde der R580 hat schon fast 400Mio Transistoren ich denke nicht das in 90nm viel mher als 500 möglich sind.Also wie da manche auf über das Dopplete an Verbrauch einer 1900XT kommen ist mir schleierhaft.
Die Schätzungen gehen ja hier ins Absurde der R580 hat schon fast 400Mio Transistoren ich denke nicht das in 90nm viel mher als 500 möglich sind.Also wie da manche auf über das Dopplete an Verbrauch einer 1900XT kommen ist mir schleierhaft.
ca. doppelt soviele GPUs ?
DrumDub
2006-10-17, 09:43:45
Die Schätzungen gehen ja hier ins Absurde der R580 hat schon fast 400Mio Transistoren ich denke nicht das in 90nm viel mher als 500 möglich sind.Also wie da manche auf über das Dopplete an Verbrauch einer 1900XT kommen ist mir schleierhaft. der r600 kommt in 80nm. und mehr als 500 mio. transen sind wohl recht sicher. allerdings gibt es auch spekulationen für ne dual-gpu-lösung auf einem pcb: http://www.beyond3d.com/forum/showpost.php?p=853610&postcount=1
Ailuros
2006-10-17, 10:28:40
Dual chip GPUs (mit 256bit pro chip) gibt es schon seit einiger Zeit. Es waere ziemlich bekloppt wenn man solch eine Loesung als "512bit" bezeichnen wuerde.
Was schliesst denn ueberhaupt die 384bit Moeglichkeit fuer R600 genau aus?
DrumDub
2006-10-17, 11:34:20
Dual chip GPUs (mit 256bit pro chip) gibt es schon seit einiger Zeit. Es waere ziemlich bekloppt wenn man solch eine Loesung als "512bit" bezeichnen wuerde. wo eine wille, da ist auch ein weg. besonders im marketing... ;) abgesehen davon habe ich nur spekus von b3d zitiert. imho ist bisher im bezug auf r600 sehr wenig sicher. die 80nm produktion würde ich dazu zählen.
Was schliesst denn ueberhaupt die 384bit Moeglichkeit fuer R600 genau aus? ich zumindest nicht.
Dual chip GPUs (mit 256bit pro chip) gibt es schon seit einiger Zeit. Es waere ziemlich bekloppt wenn man solch eine Loesung als "512bit" bezeichnen wuerde.
was mich grad mal so auf dualcores bringt: es waren doch mal von dualcore GPUs die rede... war das schon auf die nex-gen bezogen oder erst die übernächste?
kann es sein, das der r600 schon 2 cores hat und jeweils einer davon über 256bit verfügt?
Ailuros
2006-10-17, 23:46:14
was mich grad mal so auf dualcores bringt: es waren doch mal von dualcore GPUs die rede... war das schon auf die nex-gen bezogen oder erst die übernächste?
kann es sein, das der r600 schon 2 cores hat und jeweils einer davon über 256bit verfügt?
Eine dual chip R600 wuerde ich nicht ausschliessen, denn moeglich koennte so etwas in der Zukunft schon sein. Falls Du aber meinen solltest dass R600 mit 2 cores von Anfang an kommt, wuerde ich eher nein sagen.
Dual chip GPUs (mit 256bit pro chip) gibt es schon seit einiger Zeit. Es waere ziemlich bekloppt wenn man solch eine Loesung als "512bit" bezeichnen wuerde.
Was schliesst denn ueberhaupt die 384bit Moeglichkeit fuer R600 genau aus?
Das es in keinem Gerücht bisher erwähnt wurde *SCNR*
Vieleicht ist man aber auch vorerst bei 256bit geblieben, da der Memorycontroller ja aus dem R580 Desing viel rausquetschen konnte, und mit hochgetakteten GDDR4 ist auch mit nem kleinen Bus viel möglich. Was nicht ATI untypisch ist, wäre nicht der erste Chip der an seiner Takt-Oberkante läuft um "mithalten" zu können.
Ailuros
2006-10-19, 00:00:06
Was nicht ATI untypisch ist, wäre nicht der erste Chip der an seiner Takt-Oberkante läuft um "mithalten" zu können.
Was ich mir aber persoenlich fuer ATI abwuensche....:frown:
Fetza
2006-10-19, 00:17:57
Das es in keinem Gerücht bisher erwähnt wurde *SCNR*
Vieleicht ist man aber auch vorerst bei 256bit geblieben, da der Memorycontroller ja aus dem R580 Desing viel rausquetschen konnte, und mit hochgetakteten GDDR4 ist auch mit nem kleinen Bus viel möglich. Was nicht ATI untypisch ist, wäre nicht der erste Chip der an seiner Takt-Oberkante läuft um "mithalten" zu können.
Sowas wie den NV30 gabs bei ATI bisher aber noch nich;)
greetz
Fetza
Ailuros
2006-10-19, 00:55:01
Sowas wie den NV30 gabs bei ATI bisher aber noch nich;)
greetz
Fetza
NV1 war eigentlich um einiges schlimmer; es war am Anfang von NV's Karriere und kostete damals fast ihre Existenz.
StefanV
2006-10-19, 01:07:30
Wars beim nV2 (Dreamcast Probedingsda) nicht ähnlich? ;)
Ailuros
2006-10-19, 01:16:54
Wars beim nV2 (Dreamcast Probedingsda) nicht ähnlich? ;)
Das kuerzeste Los zog damals 3Dfx.
AnarchX
2006-10-19, 10:11:44
Samsungs Probleme mit den GDDR4-Yields und ATIs Plan B
http://www.theinquirer.net/default.aspx?article=35198
Vielleicht doch ein >256bit SI.;)
Ailuros
2006-10-19, 11:49:52
Samsungs Probleme mit den GDDR4-Yields und ATIs Plan B
http://www.theinquirer.net/default.aspx?article=35198
Vielleicht doch ein >256bit SI.;)
Wenn nicht werden die ersten ultra high end GPUs die GDDR4 auch wirklich brauchen ziemlich selten und teuer sein.
Godmode
2006-10-19, 12:24:54
Wenn nicht werden die ersten ultra high end GPUs die GDDR4 auch wirklich brauchen ziemlich selten und teuer sein.
Dieses Problem treffen wir eigentlich eh bei jeder neuen Generation an!
seahawk
2006-10-19, 12:29:57
Samsungs Probleme mit den GDDR4-Yields und ATIs Plan B
http://www.theinquirer.net/default.aspx?article=35198
Vielleicht doch ein >256bit SI.;)
Dafür dürfte es jetzt zu spät sein. Entweder man hat mehr >256Bit geplant oder nicht. Gibt es eigentlich einen Grund warum man den Chip nicht befähigt GDDR3 und GDDR4 ansprechen zu können ?
Godmode
2006-10-19, 12:40:24
Dafür dürfte es jetzt zu spät sein. Entweder man hat mehr >256Bit geplant oder nicht. Gibt es eigentlich einen Grund warum man den Chip nicht befähigt GDDR3 und GDDR4 ansprechen zu können ?
Wahrscheinlich wird der Controller so viel einfacher, als wenn er zwei Speicherarten ansprechen können muss.
Zocker_28
2006-10-19, 13:40:21
Hab hier was gefunden bei Google, kann das Stimmen? 2 kerne?
http://img222.imageshack.us/img222/117/1wf0.jpg (http://imageshack.us)
TheGoD
2006-10-19, 13:45:56
Mit 20 MB Zusatzspeicher ala X360, glaub eher an nen Fake.
natürlich bödsinn aber trotzdem lustig anzuschauen
Hab hier was gefunden bei Google, kann das Stimmen? 2 kerne?
http://img222.imageshack.us/img222/117/1wf0.jpg (http://imageshack.us)Das ist ganz sicher kein Foto des Chips. Da wurde definitiv nachgeholfen.
Ailuros
2006-10-19, 14:08:45
Irgend ein Depp hat feuchte Traeume dass R600 nur 2*Xenos + 20MB eDRAM sein koennte oder was? :rolleyes:
Sunrise
2006-10-19, 18:21:26
Samsungs Probleme mit den GDDR4-Yields und ATIs Plan B
http://www.theinquirer.net/default.aspx?article=35198
Lustig, dass der INQ das jetzt erst bemerkt hat. Übrigens wieder ein glatter Widerspruch zum letzten Bericht, in dem noch stand, Samsung hätte eine "fast perfekte" Ausbeute bei GDDR4.
Inzwischen sollte der INQ eigentlich wissen ("wissen" - ok, hier hab ich in der Tat kurz lachen müssen), dass Samsung mit die größte Marketing-Maschine ist, die es im Semiconductor-Bereich gibt. Gerade wo der INQ doch so "informiert" (nochmal kurz lachen, bitte) über die Halbleiter-Branche sein will. :D
Samsung tätigt permanent vollkommen unzuverlässige Aussagen über ihre eigenen (Halbleiter-)Produkte und ihre zukünftigen Pläne, die so extrem optimistisch "geschätzt" werden, dass wir bisher noch nicht einmal positiv überrascht wurden. Selbst High-End GDDR3 (alles über 700MHz) benötigte eine halbe Ewigkeit, bis zur Verfügbarkeit - man kann sich teilweise noch nicht einmal auf die Angabe "Mass Production" verlassen, wie es aussieht. Dabei sollte gerade dies den potentiellen Kunden sagen: "Wir haben hier Produkte, die könnt ihr in Massen kaufen" und nicht "Wir haben es geschafft, 10 Module >700MHz herzustellen, sie können jetzt gerne schon bestellen, wir liefern Ihnen die restlichen 10.000 dann nächstes Jahr".
Das alles sollte die Pläne hinsichtlich GDDR4 bei R600 allerdings nicht ändern, oder Joe Macri würde da wohl etwas in Erklärungsnot geraten. :wink:
AnarchX
2006-10-19, 19:42:23
ATi R600 Card Is Long & Hot
Since we have to go quiet for the G80 now, we will focus our attention on the ATi next generation R600. We got to know that R600 is a 300W beast built on 80nm process technology. To cool off that beast, you need a 4 heatpipes cooling solution. The R600 card is long from what we have seen, around G80GTX length but the cooler is longer than the PCB. It has two power connectors like the NV flagship card and it is dual slot of course. Also we knew that the last spin at TSMC is less than ideal so we can conclude it is suffering from poor yield at this point of time. It is slated to launch in Q1 2007 according to ATi's roadmap but it might delay further
http://www.vr-zone.com/index.php?i=4181
Hvoralek
2006-10-19, 19:45:50
Liefern nicht PCIe + 2 Zusatzstromanschlüsse maximal 3x75 = 225W? :rolleyes:
AnarchX
2006-10-19, 19:48:38
Liefern nicht PCIe + 2 Zusatzstromanschlüsse maximal 3x75 = 225W? :rolleyes:
Vielleicht noch ein externes NT im Lieferumfang? ;)
Die 300W scheinen auf jeden Fall Unsinn zu sein.
James Ryan
2006-10-19, 20:03:03
Hab hier was gefunden bei Google, kann das Stimmen? 2 kerne?
http://img222.imageshack.us/img222/117/1wf0.jpg (http://imageshack.us)
Man achte auf die genau gleich verteilten Staubkörnchen auf den beiden GPUs! ;D
Ganz schlechter Fake!
MfG :cool:
Ailuros
2006-10-20, 03:30:44
Der INQ hat natuerlich schon R600-3dMark06 Zahlen, egal ob das Ding produktionsreif ist oder nicht *kopfschuettel*.
VR-zone gehoert aber zur gleichen Kategorie der "zuverlaessigen" Quellen und obwohl gefluestert wird dass R600 Probleme mit der Taktung hat will ich es zuerst von einer zuverlaessigen Quelle hoeren bis ich es glaube.
Majestic
2006-10-20, 12:28:22
Also insgesamt scheint ja was an der (extremen) Werten beim Stromverbrauch und Hitzeentwicklung dran zu sein. Auch wenn man sich über die genauen Werte mangels Informationen noch streiten kann. Der Marktdruck scheint ja beider Hersteller zu zwingen solche hitzigen&lauten Produkte auf den Markt zu werfen. Schade eigendlich.
Black-Scorpion
2006-10-20, 12:52:29
Weil es auch soviele Karten mit R600 gibt wissen die das alle. :rolleyes:
Überlegt selber wann die Karten erscheinen sollen und seit wann solche Horrorstories im Web verbreitet werden.
Und das auch noch von Seiten die die "News" gegeseitig abschreiben.
Majestic
2006-10-20, 12:56:36
Weil es auch soviele Karten mit R600 gibt wissen die das alle. :rolleyes:
Überlegt selber wann die Karten erscheinen sollen und seit wann solche Horrorstories im Web verbreitet werden.
Und das auch noch von Seiten die die "News" gegeseitig abschreiben.
Naja nach den Werten der aktuellen Karten (von ATI) ist es ja nicht so weit hergeholt. Und das bisher noch von ungelegten Eiern geredet wird war mir klar ;) Aber eine Tendenz ist wohl schon zu erkennen. Das kann man wohl nicht abstreiten, oder?
Ailuros
2006-10-20, 13:19:47
(Ich beziehe mich immer noch auf nicht zuverlaessige Geruechte)...falls diese stimmen sollten, kann es mit der zeitigen Taktrate gar nicht moeglich sein dass der chip so viel verbratet.
Black-Scorpion
2006-10-20, 13:24:19
Naja ich nach den Werten der aktuellen Karten (von ATI) ist es ja nicht so weit hergeholt. Und das bisher noch von ungelegten Eiern geredet wird war mir klar ;) Aber eine Tendenz ist wohl schon zu erkennen das kann man wohl nicht abstreiten, oder?
Eine Tendenz von etwas was noch nichtmal fertig existiert und daraus willst du genau was erkenenn?
Majestic
2006-10-20, 13:56:47
Eine Tendenz von etwas was noch nichtmal fertig existiert und daraus willst du genau was erkenenn?
Dann nenn es meinetwegen auch Spekulation von mir. Und um mehr geht es in diesem Thread doch auch nicht, oder?
Aber selbst wenn man noch keine Daten über den R600 hat, ist zumindestens anzunehmen das wohl nicht gerade deutlich weniger verbraten wird. Und angenommen an den spekulativen Daten die im Netz so rumfliegen auch nur ein Quentchen Wahrheit dran und man sich mal die Kühllösungen der letzten Generationen so anschaut ...
R4x0->http://images.google.de/images?q=tbn:h1SeYg5J8VzlIM:http://www.kohryu.com/picture/sapphire/x800xt-pe-pciexpress.jpg
R480->http://images.google.de/images?q=tbn:oKRDp6HO9be0eM:http://www.ixbt.com/video2/images/r480/x850-scan-front-with-cooler.jpg
R520/580->http://images.google.de/images?q=tbn:KMoeHp9wRs3saM:http://www.nordichardware.com/skrivelser_img/440/X1800.jpg
R600 -> ???
Der INQ hat natuerlich schon R600-3dMark06 Zahlen, egal ob das Ding produktionsreif ist oder nicht *kopfschuettel*
....
Interessanter weise hat der Inquirer beim G80 bis jetzt keinen Stuss geschrieben.
Ailuros
2006-10-21, 08:55:14
Interessanter weise hat der Inquirer beim G80 bis jetzt keinen Stuss geschrieben.
Heisst aber auch nicht viel; denn die bisherigen Infos vom INQ ueber G80 waren ja sowieso in ihrer Mehrzahl fuer die Tonne.
AnarchX
2006-10-21, 09:44:45
http://resources.vr-zone.com//newspics/Oct06/20/RV670.gif
StefanV
2006-10-21, 14:21:56
Hm, ev. hat man ja am R600 2x gearbeitet, einmal in der 80nm Version und einmal in der 65nm Version? ;)
Naja, erstmal abwarten und Tee rauchen, wie RV630 so wird...
Konami
2006-10-21, 15:47:27
Wie gut sich solche "Monsterkarten" mit hohem Stromverbrauch, dementsprechendem Gewicht & Lautstärke verkaufen, hat man doch schon an der Geforce FX gesehen. Ich glaube nicht, dass sich ATI so einen Fehler erlauben würde, selbst wenn sie (im Gegensatz zur FX damals) etwas schneller als die Konkurrenz wäre.
Hm, ev. hat man ja am R600 2x gearbeitet, einmal in der 80nm Version und einmal in der 65nm Version? ;)
Naja, erstmal abwarten und Tee rauchen, wie RV630 so wird...
LoL wie schmeckt das?
In einem Interview mit der deutschen Ati Niederlassung meinte jemand, daß die übernächste Generation ein Dualcore werden wird. Womit natürlich nicht klar ist, ob es sich dabei um einen Refresh R600 in 45nm handelt, oder aber um einen R700(?).
Edit: Interview (http://www.golem.de/showhigh2.php?file=/0608/47044)
LoL wie schmeckt das?
In einem Interview mit der deutschen Ati Niederlassung meinte jemand, daß die übernächste Generation ein Dualcore werden wird. Womit natürlich nicht klar ist, ob es sich dabei um einen Refresh R600 in 45nm handelt, oder aber um einen R700(?).
Edit: Interview (http://www.golem.de/showhigh2.php?file=/0608/47044)
Ich tippe auf R700. Der R600 in 45nm wäre ein Refresh. ;)
Gruß M_B
paul.muad.dib
2006-10-21, 21:21:58
LoL wie schmeckt das?
In einem Interview mit der deutschen Ati Niederlassung meinte jemand, daß die übernächste Generation ein Dualcore werden wird. Womit natürlich nicht klar ist, ob es sich dabei um einen Refresh R600 in 45nm handelt, oder aber um einen R700(?).
Edit: Interview (http://www.golem.de/showhigh2.php?file=/0608/47044)
Außerdem interessant fand ich, dass dem Stromverbrauch deutlich mehr Beachtung geschenkt werden soll. Ob sie es schaffen, den Verbrauch bei R700 wieder zu senken? Oder geht es vor allem darum, ihn nicht noch weiter zu steigern?
dargo
2006-10-21, 22:13:17
Was mich aber interessieren würde - wie soll man durch einen Dualcore den Verbrauch senken können? Ich meine, wenn ich zwei GPUs mit halber Geschwindigkeit nehme kommt fast die gleiche Verlustleistung am Ende heraus, als wenn ich eine schnellere GPU verwende. Ok, etwas Verlustleistung wird man da wohl senken können.
AnarchX
2006-10-21, 22:18:34
Ich glaube hier verstehen viele das Dualcore falsch.;)
Es werden imo nämlich nicht zweimal der gleiche Kern sein, eher wird der zweite Kern eine andere, spezialisierte Funktion besitzen, siehe G80 mit Quantum Physic Engine.
Zweimal den gleichen Kern auf einen Die zu klatschen wäre nämlich grober wirtschaftlicher Unsinn bei GPUs.
Sunrise
2006-10-21, 22:32:35
Ob sie es schaffen, den Verbrauch bei R700 wieder zu senken? Oder geht es vor allem darum, ihn nicht noch weiter zu steigern?
Das hängt - allem voran - natürlich von den Plänen des IHVs ab (dem Design selbst) und der endgültigen Realisierung der Prozess-Targets der Fab. R700 ist auch noch zu weit entfernt, als dass ich es persönlich wagen würde, hier irgendwelche Schätzungen abzugeben.
Bereits 65nm wird wieder beträchtlichen Spielraum bringen, schenkt man den Aussagen von TSMC glauben. Ich sage das deshalb so vorsichtig, weil man in die eigenen Dokumente viel schreiben kann. Was jedoch natürlich Fakt ist, sind die potentiell enorm erhöhte, mögliche Komplexitätssteigerung bei ähnlichen Maßen pro Die, wie aktuell auf 90/80nm. Das ist also kein Geheimnis und ATi fährt auch schon seit Monaten (~April) Testwafer auf dieser Node. TSMCs Pläne für 45nm sind übrigens da noch einmal um mehrere Größenordnungen "aggressiver".
Steigert man nun aber die Komplexität in ähnlichen Schritten, und richtet die nächsten Generationen wieder am High-End aus, wie dies aktuell (zumindest bei NV) vollzogen wird, dann bleibt im Endeffekt von diesen theoretischen und prozesstechnischen "Vorteilen" nicht mehr viel übrig, da man diese natürlich nutzen wird. Man erhält also praktisch wieder genauso viel mehr Leistung, und benötigt im Endeffekt auch wieder genauso viel menr an Strom / resp. die Verlustleistung wird sich nicht sonderlich stark verringern.
Simple Refreshes aktueller ASICs sind natürlich absolut prädestiniert für neue, noch "bessere" Full-Nodes, und treiben die Margen (die in der ersten Generation immer etwas leiden) dann auch wahrscheinlich wieder in ähnliche Regionen, wie NVs aktueller G71 auf 90nm, wobei das möglicherweise auch eher ein Extrembeispiel ist, da NV stark von ATis Verspätung profitiert hatte - wie immer gilt: man wird es sehen, wenn es soweit ist.
Daher Ailuros' und meine vorsichtige Einschätzung, was ATis Strategie in der Vergangenheit und auch (möglicherweise) zukünftig anbelangt.
dargo
2006-10-21, 22:32:39
Zweimal den gleichen Kern auf einen Die zu klatschen wäre nämlich grober wirtschaftlicher Unsinn bei GPUs.
Wieso eigendlich?
AnarchX
2006-10-21, 22:36:33
Wieso eigendlich?
Schonmal über die Yieldraten eines solchen Transistormonsters nachgedacht? ;)
dargo
2006-10-21, 22:54:42
Schonmal über die Yieldraten eines solchen Transistormonsters nachgedacht? ;)
Ich meinte eigendlich das gleiche Prinzip wie beim Kentsfield. Man klatscht einfach zwei (Dual)Cores zusammen.
Was würde eigendlich mehr Strom ziehen?
Beispiel 1:
Eine GPU mit 1,45V und 400 Milionen Transistoren
oder
Beispiel 2:
Zwei GPUs mit 1,1V und je Core 200 Milionen Transistoren
Vorrausgesetzt beide Beispiele sind gleich schnell.
Intessant fand ich auch dieses Komentar:
Während viele Branchenbeobachter AMD nur unterstellten, ATI wegen deren Chipsatz-Entwicklungen gekauft zu haben, sieht Edinger die Entwicklung von schnellen externen Grafikprozessoren als weiterhin lukrativ an: "Die diskrete Grafik wird stagnieren, aber auf einem sehr hohen Niveau, und das auch halten" lautet die Markteinschätzung des ATI-Vizepräsidenten
Stagnieren:confused: Wieso denn? Gehen den Herstellern im Bereich
High-End die Ideen aus?
Moralelastix
2006-10-21, 23:26:13
Konkurrenz der Konsolen?
Wenn die Spiele PC Lösungen immer teuerer werden(SLi Physik usw.) ??
Intessant fand ich auch dieses Komentar:
Stagnieren:confused: Wieso denn? Gehen den Herstellern im Bereich
High-End die Ideen aus?
Das hängt von den Spezifikationen (Direct3d10) ab.
Direct3d10 wird sich wahrscheinlich über Jahre halten, da es zur Zeit ausreicht.
Man braucht mehr Rohpower oder auch Shaderpower.
Gruß M_B
dildo4u
2006-10-21, 23:35:39
Ich denke eher das der Verbrauch ein Problem sein wird.Denn trotz neuer kleinerer Fertigungsprozesse stieg der Stromverbrauch doch immens an von 50Watt 2002 für eine 9700pro bis heute wo man whol bei den DX 10 Karten mit 180Watt und mher rechnen muss.Um 500-600 Mio Transistoren Stormsparend unterzubringen braucht man whol 65nm nur dazu müsste ATI erst mal 1 Jahr warten bis der Prozess für die Grafikchipfertigung zur Verfügung steht.
MikBach
2006-10-22, 00:05:43
:mad: Ich denke eher das der Verbrauch ein Problem sein wird.Denn trotz neuer kleinerer Fertigungsprozesse stieg der Stromverbrauch doch immens an von 50Watt 2002 für eine 9700pro bis heute wo man whol bei den DX 10 Karten mit 180Watt und mher rechnen muss.Um 500-600 Mio Transistoren Stormsparend unterzubringen braucht man whol 65nm nur dazu müsste ATI erst mal 1 Jahr warten bis der Prozess für die Grafikchipfertigung zur Verfügung steht.
Sehe ich auch so.
Wenn ATI und NV Karten rausbringen, die 150-180 Watt schlucken, dann können die sich jene in den Scheitel schmieren und ggf. auf die Stirn kleben.
:mad:
Gruß M_B
dargo
2006-10-22, 00:13:42
:mad:
Sehe ich auch so.
Wenn ATI und NV Karten rausbringen, die 150-180 Watt schlucken, dann können die sich jene in den Scheitel schmieren und ggf. auf die Stirn kleben.
:mad:
Es wird doch keiner gezwungen ein High-End Modell zu kaufen. :|
Ich meinte eigendlich das gleiche Prinzip wie beim Kentsfield. Man klatscht einfach zwei (Dual)Cores zusammen.
Was würde eigendlich mehr Strom ziehen?
Beispiel 1:
Eine GPU mit 1,45V und 400 Milionen Transistoren
oder
Beispiel 2:
Zwei GPUs mit 1,1V und je Core 200 Milionen Transistoren
Vorrausgesetzt beide Beispiele sind gleich schnell.
Erstens müsstest du mit der Effizienz oder dem Mangel derselben bei Multi-GPU-Systemen rechnen. Dann brauchst du zusätzliche Transistoren für den Interconnect und alles in allem: Schau dir die 7950 GX2 an.
dildo4u
2006-10-22, 00:16:52
Es wird doch keiner gezwungen ein High-End Modell zu kaufen. :|Naja die Frage ist ob es so schnell brauchbare Mittelklasse DX 10 Karten geben wird.Crysis soll ja Anfang 2007 kommen und für alle Details wird whol DX10 nötig sein.Ich denke eher das es ewig dauern wird bis es DX 10 Mittelklasse Karten geben wird ATI und Nvidia werden in dieser Klasse noch eine ganze weile SM3.0 Karten verkaufen.
MikBach
2006-10-22, 00:18:05
Es wird doch keiner gezwungen ein High-End Modell zu kaufen. :|
Dann kann ich mir auch auch eine mittelmäßige Karte kaufen, die auf meinem TFT-TV nur Müll produziert.
Dafür braucht man keine High-end-Karte.
Gruß M_B
AnarchX
2006-10-22, 00:21:39
Naja die Frage ist ob es so schnell brauchbare Mittelklasse DX 10 Karten geben wird.Crysis soll ja Anfang 2007 kommen und für alle Details wird whol DX10 nötig sein.Ich denke eher das es ewig dauern wird bis es DX 10 Mittelklasse Karten geben wird ATI und Nvidia werden in dieser Klasse noch eine ganze weile SM3.0 Karten verkaufen.
Zur Cebit 2007 sollen jedenfalls NVs D3D10 Mainstream kommen (80nm?) und ATI wird wohl auch nicht viel später ihren D3D10 Mainstream launchen.
Siehe Roadmap:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4899603&postcount=1157
Zudem nicht vergessen für D3D10 bedarf es ja auch noch Vista. ;)
dargo
2006-10-22, 00:22:05
Erstens müsstest du mit der Effizienz oder dem Mangel derselben bei Multi-GPU-Systemen rechnen. Dann brauchst du zusätzliche Transistoren für den Interconnect und alles in allem: Schau dir die 7950 GX2 an.
Die GX2 ist das beste was man machen kann um die Wärme pro Fläche zu reduzieren. Die Verlustleistung der GX2 ist um ca. 22% höher als die der G7900GTX obwohl der Speicher doppelt und zusätzlicher Chip für die Komunikation vorhanden ist. Die GX2 ist aber mit Sicherheit mehr als 22% schneller als eine G7900GTX (genaue Zahlen habe ich jetzt nicht).
Edit:
Ich nehme jetzt mal einfach den Test von Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/21/).
Immerhin, in 1600x1200 6xAA/16xAF stolze 60% mehr Leistung im Durchschnitt (!) als eine G7900GTX bei ~22% mehr Stromverbrauch.
dargo
2006-10-22, 00:25:19
Naja die Frage ist ob es so schnell brauchbare Mittelklasse DX 10 Karten geben wird.Crysis soll ja Anfang 2007 kommen und für alle Details wird whol DX10 nötig sein.Ich denke eher das es ewig dauern wird bis es DX 10 Mittelklasse Karten geben wird ATI und Nvidia werden in dieser Klasse noch eine ganze weile SM3.0 Karten verkaufen.
Auch wenn es hier um den R600 geht. Ich denke da zb. an die G8800GTS. NV empfiehlt dafür ein NT mit 400W und 26A combined 12V Power. Es würde mich nicht wundern, wenn die G8800GTS weniger Strom zieht als eine X1900XT.
Die GX2 ist das beste was man machen kann um die Wärme pro Fläche zu reduzieren. Die Verlustleistung der GX2 ist um ca. 22% höher als die der G7900GTX obwohl der Speicher doppelt und zusätzlicher Chip für die Komunikation vorhanden ist. Die GX2 ist aber mit Sicherheit mehr als 22% schneller als eine G7900GTX (genaue Zahlen habe ich jetzt nicht).
Im Durchschnitt aller Spiele? Auch die, die SLI nicht mögen? Und im Durchschnitt nimmt sie sicherlich mehr als 25% zusätzliche Leistung auf.
dargo
2006-10-22, 00:34:33
Und im Durchschnitt nimmt sie sicherlich mehr als 25% zusätzliche Leistung auf.
Im Durchschnitt bei CB sogar nur ~15% mehr Verlustleistung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/22/
Im Durchschnitt aller Spiele? Auch die, die SLI nicht mögen? Und im Durchschnitt nimmt sie sicherlich mehr als 25% zusätzliche Leistung auf.
Ich nochmal:
http://www.xbitlabs.com/articles/video/display/power-noise_3.html
Geschätzte +30%.
Im Durchschnitt bei CB sogar nur ~15% mehr Verlustleistung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/22/
CB misst das Komplettsystem, für unsere Zwecke leider wertlos.
dargo
2006-10-22, 00:41:16
CB misst das Komplettsystem, für unsere Zwecke leider wertlos.
Deswegen sagte ich auch ~22%. Habe mich aber vertan. Ich bin von 90W bei der G7900GTX ausgegangen. Diese liegt aber bei 84W.
http://www.xbitlabs.com/articles/video/display/ati-x1950xtx_7.html
Dann von mir aus eben ~31% mehr Verlustleistung. Ist immer noch ein Spitzenergebnis wenn man die Mehrleistung betrachtet.
Im Durchschnitt aller Spiele?
Alle Spiele mit Sicherheit nicht. Aber seien wir mal ehrlich. Wer braucht die SLI Leistung bei cpu-limitierten Games?
Gouvernator
2006-10-22, 00:55:13
grrr hört sofort auf über SLI und GTX Schrott zu sprechen :mad:
dargo
2006-10-22, 00:59:16
grrr hört sofort auf über SLI und GTX Schrott zu sprechen :mad:
Wieso? Ist doch nicht zu OT. Oder wäre bei ATI mit dem RV630 keine Grafikkarte @GX2 möglich?
StefanV
2006-10-22, 01:13:09
Stagnieren:confused: Wieso denn? Gehen den Herstellern im Bereich
High-End die Ideen aus?
Gesetz des abnehmenden Ertrages, salopp gesagt halten die Karten länger (und länger) und werden nicht soo sehr viel schneller, aufgrund Einschränkungen der Produktion...
Und da die IGPs immer besser werden...
Alle Spiele mit Sicherheit nicht. Aber seien wir mal ehrlich. Wer braucht die SLI Leistung bei cpu-limitierten Games?
Ich möchte, wenn ich eine Karte kaufe, eigentlich möglichst konstante Leistung in allen Games. Leider ist das mit Multi-GPU noch weniger möglich als ohnehin schon.
Was nützt mir doppelte Performance in Q4, wenn Far Cry mit HDR keinen Deut schneller wird - ganz im Gegensatz zur 7900 GTX.
Der Thread ist nun keine Spekulation mehr!
Das 3 Quartal 2006 ist vorbei!
Macht einen neuen Thread auf und beginnt nochmal von vorne.
Ist eh nur noch Themenfremd was hier drinsteht!
Der Thread ist nun keine Spekulation mehr!
Das 3 Quartal 2006 ist vorbei!
Macht einen neuen Thread auf und beginnt nochmal von vorne.
[B]Ist eh nur noch Themenfremd was hier drinsteht![B/]
Geht so.
Besonders die Geschichte mit der Verlustleistung der Next-Gen-GPUs ist recht beunruhigend.
Sollte der G80 (fast) winkelunabhängiges AF und HDR + MSAA bieten und deutlich weniger Verlustleistung produzieren, dann ist für mich der R600 gestorben.
Mir ist zwar durchaus bewußt, dass die meisten die Verlustleistung bei einer High-End-Graka nicht interessiert, für mich ist sowas schon wichtig.
Bildqualität hat aber oberste Priorität. :)
Gruß M_B
dargo
2006-10-22, 11:22:00
Leider ist das mit Multi-GPU noch weniger möglich als ohnehin schon.
Was nützt mir doppelte Performance in Q4, wenn Far Cry mit HDR keinen Deut schneller wird - ganz im Gegensatz zur 7900 GTX.
Da ich kein SLI habe kenne ich mich damit nicht aus. Die Vorraussetzung wäre natürlich, dass dann SLI praktisch immer funzt (zumindest wo es gebraucht wird). Sonst macht es ja keinen Sinn.
LolekDeluxe
2006-10-22, 12:47:44
:mad:
Sehe ich auch so.
Wenn ATI und NV Karten rausbringen, die 150-180 Watt schlucken, dann können die sich jene in den Scheitel schmieren und ggf. auf die Stirn kleben.
:mad:
Gruß M_B
Was heulst du rum, Du hast schon eine GK die 150Watt schluckt.:biggrin:
Aber über GF7 lästern, mein ganzer PC verbraucht 150 Watt.
Dann kann ich mir auch auch eine mittelmäßige Karte kaufen, die auf meinem TFT-TV nur Müll produziert.
Dafür braucht man keine High-end-Karte.
Gruß M_B
Wenn Du schon so ein Bildquali fetischist bist, verstehe ich nicht wie Du dich mit einem TFT-TV zufreiden stellen läßt.
andererGast
2006-10-22, 14:06:32
Da ich kein SLI habe kenne ich mich damit nicht aus. Die Vorraussetzung wäre natürlich, dass dann SLI praktisch immer funzt (zumindest wo es gebraucht wird).SLI bringt praktisch immer einen ordentliche Geschwindigkeitssteigerung, wenn man sich die Zeit nimmt um ein optimales Profil zu finden. Die meisten Spiele haben auch out-of-the-box schon ein brauchbares Profil, aber manchmal muss man sich eben ein wenig mit SLI-Profilen und dem Nhancer auseinandersetzen um eine dem Aufpreis würdige Performance zu bekommen. Das ist für manche ein Nachteil, manchen macht es auch Spaß, das muss jeder für sich entscheiden.
Gesetz des abnehmenden Ertrages, salopp gesagt halten die Karten länger (und länger) und werden nicht soo sehr viel schneller, aufgrund Einschränkungen der Produktion...
Und da die IGPs immer besser werden...
Was laberst du da für Blödsinn?
dargo
2006-10-22, 14:25:07
SLI bringt praktisch immer einen ordentliche Geschwindigkeitssteigerung, wenn man sich die Zeit nimmt um ein optimales Profil zu finden. Die meisten Spiele haben auch out-of-the-box schon ein brauchbares Profil, aber manchmal muss man sich eben ein wenig mit SLI-Profilen und dem Nhancer auseinandersetzen um eine dem Aufpreis würdige Performance zu bekommen. Das ist für manche ein Nachteil, manchen macht es auch Spaß, das muss jeder für sich entscheiden.
Also kann ich praktisch bei jedem Spiel die Performance fast verdoppeln wenn man sich nur mit dem Nhancer beschäftigt? Umso besser. :)
TheGoD
2006-10-22, 16:12:08
Intessant fand ich auch dieses Komentar:
Stagnieren:confused: Wieso denn? Gehen den Herstellern im Bereich
High-End die Ideen aus?
Ich denke damit ist nur der mögliche Umsatz bzw. Gewinn gemeint der mit discreten GPUs gemacht werden kann. Der Ati Typ geht also von keinem oder nur geringen Wachstum des Marktes aus, denkt aber das sich auch weiterhin mit neuen Karten gute Gewinne machen lassen. Ich denke die Performance wird in den nächsten Jahren wie gewohnt ansteigen.
Also kann ich praktisch bei jedem Spiel die Performance fast verdoppeln wenn man sich nur mit dem Nhancer beschäftigt? Umso besser. :)Ja, solange es nicht CPU-limitiert ist.
MikBach
2006-10-22, 17:51:25
Was heulst du rum, Du hast schon eine GK die 150Watt schluckt.:biggrin:
Was labberst du für ein Müll?
Seit wann verbraucht eine X800XT 150 Watt? :rolleyes:
Deswegen hole ich mir auch die 1950PRO und nicht die X1900XT(X)...:|
Wenn Du schon so ein Bildquali fetischist bist, verstehe ich nicht wie Du dich mit einem TFT-TV zufreiden stellen läßt.
Blödsinn.
Wenn man sich gut auskennt und weiß, wie man die Bildoptimierer einstellt oder gar ausstellt, dann bieten TFTs mitllerweile eine superbe BQ.
Gute Beispiele sind der Samsung M91 und die 68er Serie von Toshiba.
Gruß M_B
Snoopy1978
2006-10-26, 21:23:06
Ist eigentlich schon mal was neues über die Kühleinheit des R600 aufgetaucht?
Bei VR-Zone reden die davon das bei diesem Grafikchip ein 4- Heatpipe Dualslot-Kühler verwendet werden soll. Dieser ragt angeblich auch noch über das PCB(welches in etwa so groß wie das PCB der GeForce 8800 sein soll) hinaus. Auch labern die bei VR-Zone wieder was von bis zu 300 Watt Verbrauch.
themk
2006-10-26, 22:48:29
VR-Zone hat in der Vergangenheit bewiesen, bei solchen Vorabinfos äußerst ungenaue Angaben zu machen.
seahawk
2006-10-27, 07:50:19
Crossfire ;)
Die gelbe Eule
2006-10-27, 08:03:53
Wir sind eigentlich ja schon im vierten Quartal, kann man den Header anpassen oder bleibt die Ironie dann nicht mehr enthalten?
MikBach
2006-10-27, 09:00:44
Wir sind eigentlich ja schon im vierten Quartal, kann man den Header anpassen oder bleibt die Ironie dann nicht mehr enthalten?
So sieht´s aus.
Der Threadtitel war eine Anspielung auf die extreme Verspätung des R520. :wink:
Sollte man imo lassen.
Gruß M_B
So, angeblich kommt die R600 am 27.1.07 (ja, ein Samstag ... aber so hab ich es aufgeschnappt)
Hvoralek
2006-11-01, 00:35:35
Soll es ein Hardlaunch werden? Zuletzt war mW die Rede von Vorstellung im Jan und Verfügbarkeit im März.
Soll es ein Hardlaunch werden? Zuletzt war mW die Rede von Vorstellung im Jan und Verfügbarkeit im März.
Ja - die Quelle ist seriös, also einfach mal mit einkalkulieren.
Die Deadline für Vista tikt ja munter weiter ... also das macht schon Sinn.
Moralelastix
2006-11-01, 13:07:18
Wann genau soll denn Vista kommen?
Wann genau soll denn Vista kommen?
Januar/07 für Endkunden
Aber ich bezweifle, dass ATI/AMD es nicht versucht, den Chip so schnell wie möglich auszuliefern. IMO nix warten auf Vista
Moralelastix
2006-11-01, 16:57:40
Aber dann passt doch alles? Genau zum Vista launch auch von beiden IHVs die passende Harware.
Und von NV vielleicht auch schon die Midrangehardware in 65nm kurz darauf.
Hvoralek
2006-11-01, 18:44:17
Und von NV vielleicht auch schon die Midrangehardware in 65nm kurz darauf.Gibt es eigentlich schon Angaben zu den kleineren R6xx? Letztes Mal hat ATI versucht, von High- End bis Budget alles auf einmal zu veröffentlichen, wie sieht das diesmal aus?
AnarchX
2006-11-01, 19:05:25
Gibt es eigentlich schon Angaben zu den kleineren R6xx? Letztes Mal hat ATI versucht, von High- End bis Budget alles auf einmal zu veröffentlichen, wie sieht das diesmal aus?
Laut VR-Zone wird wohl RV630 und RV610 zusammen mit dem R600 kommen:
http://www.vr-zone.com/?i=4188
Hoffentlich schafft es ATI diesmal ein ordentliches Mainstreamdesign zu entwerfen, seit RV350/360 sah es leider nicht mehr so gut aus...
Hvoralek
2006-11-01, 19:11:26
Laut VR-Zone wird wohl RV630 und RV610 zusammen mit dem R600 kommen:
http://www.vr-zone.com/?i=4188Dort ist nur die Rede vom 1H07. Das kann immer noch bedeuten, dass da fünf Monate zwischen liegen.
Hoffentlich schafft es ATI diesmal ein ordentliches Mainstreamdesign zu entwerfen, seit RV350/360 sah es leider nicht mehr so gut aus...Naja, RV560/570 sind ja nicht schlecht. Sie kommen nur ein Jahr zu spät.
Dort ist nur die Rede vom 1H07. Das kann immer noch bedeuten, dass da fünf Monate zwischen liegen.
...wollen wir es nicht hoffen
AnarchX
2006-11-01, 19:35:15
Dort ist nur die Rede vom 1H07. Das kann immer noch bedeuten, dass da fünf Monate zwischen liegen.
Vielleicht werden sie zu dem Zeitpunkt vorgestellt wenn R600 verfügbar ist, wäre jedenfalls vom Marketing nicht schlecht.
Im Januar mit einem Paperlaunch ködern und zur CeBIT die Karten in den Handel werfen.
Naja, RV560/570 sind ja nicht schlecht. Sie kommen nur ein Jahr zu spät.
Die Leistung die sie liefern ist schon ok, aber auf der wirtschaftlichen Seite sieht es dann nicht so rosig aus, da muss ATI mit einer 310Mio Transistoren GPU ->RV560(aka RV570) gegen eine 178Mio Transistoren GPU(G73B1) antretten, die zudem eine erheblich höhere Packdichte bei den Transistoren hat.
Ingesammt sehe ich das 3:1 Ratio bei Mainstream/unteres Mainstream nicht als besonders sinnvoll an.
Ich hoffe doch stark, daß Ati mit der Markteinführung des R600 auch gleizeitig vernünftige (schnelle) Mainstreamkarten anbieten wird, und nicht wieder nv diesen Markt für ein3/4 Jahr komplett überlässt.
Moralelastix
2006-11-02, 16:26:31
http://uk.theinquirer.net/?article=35483
......
"In the end
Nvidia has a really strong line-up for upcoming Yuletide shopping madness. However, within the ranks of Graphzilla's troopers there is an obvious intent to bury all of the more advanced features that the competition will offer in couple of months' time. 512-bit memory interface, more pixels per clock, second gen RingBus marchitecture... all this is hidden in the dungeons of Markham and DAAMIT's R&D Labs in Santa Clara and Marlboro."
......
AnarchX
2006-11-02, 22:23:25
Irgendwie glaube ich, dass das 512bit SI des R600 gleich den 32 Pixelpipelines des R520 ist... ;)
Es wird wohl ein noch weiter optimiertes 256bit SI sein + GDDR4, wenn man 512bit schon länger geplant hätte, wären wohl in der Folie zum R600 mehr als die "more than 80GB/s" aufgetaucht.
Gibt es schon einen genaueren Termin für den R600 oder heisst es wieder 1H07?
Hvoralek
2006-11-02, 22:51:08
Gibt es schon einen genaueren Termin für den R600 oder heisst es wieder 1H07?Zuletzt war die Rede vom 27. Jan.
seahawk
2006-11-03, 07:23:15
Der Inq. weiss imho gar nichts über den R600, außer dem was bestimmte Seiten ihn wissen lassen wolllen.
Ailuros
2006-11-03, 15:37:29
http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
Fuer wen Razor arbeitet verrate ich Euch aber nicht ;)
Gaestle
2006-11-03, 16:23:16
Irgendwie glaube ich, dass das 512bit SI des R600 gleich den 32 Pixelpipelines des R520 ist... ;)
Es wird wohl ein noch weiter optimiertes 256bit SI sein + GDDR4, wenn man 512bit schon länger geplant hätte, wären wohl in der Folie zum R600 mehr als die "more than 80GB/s" aufgetaucht.
Andererseits bedeutet ein breiteres SI auch die Mögklichkeit für moderate Speichertakte am Anfang und liefert dazu noch eine bessere Skalierbarkeit (durch Taktbarkeit) nach oben für die Zukunft.
Sunrise
2006-11-03, 16:28:12
http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
Fuer wen Razor arbeitet verrate ich Euch aber nicht ;)
:biggrin:
Warum bloß fallen mir beim Lesen wieder unsere Gedanken über ATIs angepeilte, aggressiven Taktraten ein...
deekey777
2006-11-03, 16:35:41
http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
Fuer wen Razor arbeitet verrate ich Euch aber nicht ;)
Ist ein Deutscher, er arbeitet für den BND.:biggrin:
Architecture wise, its one step in the direction of the Xenos and one step in the direction of the r5x0, seems to be very flexible GPU (ALU types).
Full speed ROPS wie beim Xenos?:|
Still have to find out the branching performance, and number of ALU's, TMU's, ROP's , but if its using 96 ALU's in Xenos type configuration, batch size will increase to 96 as well dropping branching performance at little bit.
Wie kommt er auf 96?
AnarchX
2006-11-03, 17:47:35
Andererseits bedeutet ein breiteres SI auch die Mögklichkeit für moderate Speichertakte am Anfang und liefert dazu noch eine bessere Skalierbarkeit (durch Taktbarkeit) nach oben für die Zukunft.
Schneller Speicher fällt aber eher im Preis als die Kosten für ein solch aufwendiges 512bit PCB und zudem sollte man ja auch an den Mainstream denken.
Ailuros
2006-11-03, 23:15:02
Schneller Speicher fällt aber eher im Preis als die Kosten für ein solch aufwendiges 512bit PCB und zudem sollte man ja auch an den Mainstream denken.
Meine Glaskugel zeigt mir keinen 512bit bus, aber es wird auch nicht das erste Mal sein dass wir an der Nase herumgefuehrt wurden.
Ailuros
2006-11-03, 23:18:49
Ist ein Deutscher, er arbeitet für den BND.:biggrin:
Traitor :biggrin:
Full speed ROPS wie beim Xenos?:|
.
Wie kommt er auf 96?
Och es gab ein Interview von Orton wo er von 96 ALUs sprach.
Rein spekulativ:
96*9*=/>0.7= =/>605GFLOPs
Und ja mir sind die durchaus logischen Einwaende was theoretische GFLOP Zahlen betrifft durchaus bewusst; im Ernst glaube ich dass 700MHz ihnen nicht ausreichen koennte.
Ailuros
2006-11-03, 23:21:17
:biggrin:
Warum bloß fallen mir beim Lesen wieder unsere Gedanken über ATIs angepeilte, aggressiven Taktraten ein...
Ich hoffe Dir hat niemand erzaehlt dass sich da was geaendert hat; wenn ich das Puzzle der verstreuten Infos zussamenschiebe sieht es fuer den mainstream Markt auch nicht besonders vielvesprechend aus.
xL|Sonic
2006-11-03, 23:39:04
Wie schaut es denn mit den BQ Settings aus? Wird da ATI auf dem Level des R580+ bleiben oder eher mit dem G80 gleichziehen?
Gibt es darüber schon irgendwelche Infos oder Gerüchte, die man als durchaus wahrscheinlich erachten kann?
Was kann der G80 BQ mäßig mehr?
deekey777
2006-11-04, 00:04:48
Traitor :biggrin:
Och es gab ein Interview von Orton wo er von 96 ALUs sprach.
Rein spekulativ:
96*9*=/>0.7= =/>605GFLOPs
Und ja mir sind die durchaus logischen Einwaende was theoretische GFLOP Zahlen betrifft durchaus bewusst; im Ernst glaube ich dass 700MHz ihnen nicht ausreichen koennte.
Es ging mir um die Batchgröße, wobei ich jetzt kapiert habe, wie er es meinte. Aber: Wie kommst du auf die Neun? Das ist, wenn ich mich nicht täusche, die Flop-Leistung einer einzelnen Xenos-ALU.
Razor1 schreibt, wenn diese 96 ALUs wie beim Xenos angeordnet sind, dann wäre die Batchgröße 96. Hm, wie kommt er darauf? Im Umkehrschluss wäre die Batchgröße beim Xenos 48. Wie soll das gehen, wenn es ein USC-Chip ist?
Ailuros
2006-11-04, 00:13:50
Aber: Wie kommst du auf die Neun? Das ist, wenn ich mich nicht täusche, die Flop-Leistung einer einzelnen Xenos-ALU.
Reine Spekulation natuerlich auf Xenos basiert.
Razor1 schreibt, wenn diese 96 ALUs wie beim Xenos angeordnet sind, dann wäre die Batchgröße 96. Hm, wie kommt er darauf? Im Umkehrschluss wäre die Batchgröße beim Xenos 48. Wie soll das gehen, wenn es ein USC-Chip ist?
Ich kenn mich mit den Batchgroessen sowieso nicht so gut aus; auf jeden Fall hat er hoechstwahrscheinlich aber doch recht. 6-way anstatt 3-way duerfte was Granularitaet betrifft schon einen Unterschied machen.
gibs bilder vom neuen AF ,im vergleich zum alten sehr schlechten NV AF ?
Hvoralek
2006-11-04, 02:58:11
gibs bilder vom neuen AF ,im vergleich zum alten sehr schlechten NV AF ?Spätestens Mittwoch wird es wohl reichlich geben.
Sunrise
2006-11-04, 03:01:49
Wenn ich das Puzzle der verstreuten Infos zussamenschiebe sieht es fuer den mainstream Markt auch nicht besonders vielvesprechend aus.
Das wird sich so schnell auch nicht ändern, wenn ich die aktuellen Hinweise richtig deute.
Was kann der G80 BQ mäßig mehr?Bis 16x MSAA und das AF sollte auch besser sein als bei R580. Zwangsoptimierungen soll es im Gegensatz zu ATI keine geben.
Ach und natürlich das Supersampling nicht vergessen, das ATI auch nicht zu bieten hat.
Mhh ein doppelter Xenos? Wäre interessant, wenn es tatsächlich so wäre.
Eine ALU des Xenos hat tatsächlich 9 Flops? Ist das nicht etwas viel im Vergleich zum G80?
Ailuros
2006-11-04, 13:52:08
Mhh ein doppelter Xenos? Wäre interessant, wenn es tatsächlich so wäre.
Eine ALU des Xenos hat tatsächlich 9 Flops? Ist das nicht etwas viel im Vergleich zum G80?
48*9 FLOPs * 0.5GHz = 216 GFLOPs
128*3 FLOPs * 1.35GHz = 518 GFLOPs
Nur ist eben in Echtzeit ein G80 nicht nur 2x mal so schnell ;)
***edit: ooops dass kann falsch verstanden werden....um es klarer zu machen gilt der letzte Satz genauso fuer R600.
Was kann der G80 BQ mäßig mehr?
16xAA möglicherweise.
48*9 FLOPs * 0.5GHz = 216 GFLOPs
128*3 FLOPs * 1.35GHz = 518 GFLOPs
Nur ist eben in Echtzeit ein G80 nicht nur 2x mal so schnell ;)
***edit: ooops dass kann falsch verstanden werden....um es klarer zu machen gilt der letzte Satz genauso fuer R600.
Verstehe, ein R600 sollte dann 96*9* 0,7 (wurde schon gesagt^^) = 605 Flops
Der R600 muss dann wohl etwa 750 MHz Coretakt haben um den G80 zu schlagen. Der G80 ist mit der Texelleistung ja sehr variierend, da er zumal keine wirklich vollständigen TMUs hat(was ich jedenfalls gehört habe). Falls manwirklich 2x Xenos genommen hat, wären das 32 TMUs. Also eine Texelleistung von etwa 24000Mtex/s, wenn man wirklich ein xenosartiges Modell baut.
Ailuros
2006-11-04, 15:34:02
Verstehe, ein R600 sollte dann 96*9* 0,7 (wurde schon gesagt^^) = 605 Flops
Der R600 muss dann wohl etwa 750 MHz Coretakt haben um den G80 zu schlagen. Der G80 ist mit der Texelleistung ja sehr variierend, da er zumal keine wirklich vollständigen TMUs hat(was ich jedenfalls gehört habe). Falls manwirklich 2x Xenos genommen hat, wären das 32 TMUs. Also eine Texelleistung von etwa 24000Mtex/s, wenn man wirklich ein xenosartiges Modell baut.
Razor hat da auch wieder recht; R600 ist quasi ein hybrides "etwas" zwischen Xenos und R5x0 und wohl eher bei einem 4:1 Ratio ;)
Die Fuellraten des G80 wird man erst nach den ausfuehrlichen Analysen verstehen koennen.
4:1? nicht 3:1?
Xenos hat doch 16 TMUs bei 48 USCs? Oder waren es nur 12?
deekey777
2006-11-04, 15:43:50
4:1? nicht 3:1?
Xenos hat doch 16 TMUs bei 48 USCs? Oder waren es nur 12?
Genau hinschauen:
Razor hat da auch wieder recht; R600 ist quasi ein hybrides "etwas" zwischen Xenos und R5x0 und wohl eher bei einem 4:1 Ratio ;)
Die Fuellraten des G80 wird man erst nach den ausfuehrlichen Analysen verstehen koennen.
Die Angabe bezieht sich auf den kommenden R600. =)
Ailuros
2006-11-04, 15:43:50
4:1? nicht 3:1?
Xenos hat doch 16 TMUs bei 48 USCs? Oder waren es nur 12?
Ja nur soll sich das 3:1 Verhaeltnis auf 4:1 steigen.
R580= 48 + 8 = 56 ALUs / 16 TMUs = 3.5:1
Uebrigens:
The next generation, he said, could potentially have 96 shader processors and will exceed half a teraflop of computing power.
http://www.techreport.com/etc/2006q4/stream-computing/index.x?pg=1
Kann aber genauso eine Irrefuehrung sein wie Kirk's "jack of all trades, master of none" ;)
Gflops sagt doch noch lange nichts über die Leistung einer GPU aus. Vielmehr muss beim neuen Modell mehr Bandbreite und Füllrate geschaffen werden.
Selbst die Shaderleistung des R580 war für Dx9 viel zu groß. Texelleistung hatte der Chip leider zu wenig.
Falls Dx10 aber soviel Shaderpower frisst kann ich nicht sagen.
Falls es tatsächlich 24 TMUs sind, dann wären das etwa 18000Mtex/s bei 750Mhz. Da ROPs und TMUs beim R580 die gleiche Anzahl haben, sind das auch 18000Mp/s.
Ailuros
2006-11-05, 02:48:45
Deshalb betonte ich ja auch dass man nicht denken sollte dass laut theoretischen GFLOP Zahlen G80 = 2*Xenos ist.
Da ROPs und TMUs beim R580 die gleiche Anzahl haben, sind das auch 18000Mp/s.
Kommt ganz drauf ob die ROPs vom Xenos oder R5x0 geerbt wurden. Beim ersten sind es "nur" 8 die aber ueber bis zu 32c/64z faehig sind.
Die brennende Frage ist ob ATI bei 8x MSAA stecken bleibt oder doch bis zu 12x MSAA freigeben wird; rein theoretisch wenn auch R600 ueber single cycle 4xMSAA faehig ist, sehe ich nicht ein warum auf R3xx/4xx/5xx bis zu 3 loops fuer MSAA moeglich waren und auf R600 nicht.
Bisherige Geruechte bestehen auf nur 8xAA; fuer mich entscheidet aber diese Kleinigkeit auf keinen Fall die generelle Bewertung vom R600. Denn eigentlich kann der G80 auch nicht mehr als 8x Multisampling; der Unterschied ist dass es coverage mask AA mit jeweils 8x und 16x samples noch zusaetzlich gibt.
Sunrise
2006-11-05, 10:38:54
R600 ist quasi ein hybrides "etwas" zwischen Xenos und R5x0 und wohl eher bei einem 4:1 Ratio ;)
Demi hatte da ein ganz nettes Posting in diesem Thread. Es wird sich wohl herausstellen, dass R600 mit Xenos weniger gemein hat, als viele vielleicht denken.
PS: Bzgl. dieser (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4175353&postcount=213) 90nm->80nm-Theorie (was G80 anbelangt) lag ich garnicht so falsch, oder? :biggrin: (Man könnte das jetzt noch ein wenig weiterspinnen, aber dafür bin ich im falschen Thread.)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.