Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation
Er wollte damit sagen: Selbst wenn es 500 GFLOP/s sind heißt das noch lange nicht, dass der Chip schneller ist.Ich glaub wenn der chip 500gflops ballert, wird eer schon schneller sein. Was er damit sagen wollte: Nur halt nicht zwingend eben um den gflops-unterschied.
seahawk
2006-12-07, 06:59:04
Die 50% und die 173GB/s sind reiner FUD, ATi kocht doch auch nur mit Wasser bzw. will seinen Kunden keinen Preis ~800$+ zumuten.;)
Die 500GFLOPs können aber durchaus stimmen, aber GFLOP ist halt nicht GFLOP wie man beim G80 sieht, der aus seinen nur 360GFLOPs(aktuell) doch einiges herausholt, auf Grund der sehr flexiblen und effizienten Architektur.
Der Pres dürfte für die XTX (oder wie auch immer sie das Ding nennen) zweitrangig sein. Und sollte man für 800 $ ne KArte bringen die als Singel sich kanpp um 8800GTS SLI-Niveau einordnet, dann kann man den Preis nehmen.
Weiterhin sehe ich kein Grund warum die Architektur des R600 unfelxibeler sein sollte, immerhin hat ATI mehr Erfahrung mit uSA.
Bedenkt man dazu die Fehler des G80, defektes MUL, defekte Spannungsregelung, dann dürfte ATI gar keine Probleme haben ein in jeder Hinsicht besseres Produkt hinzustellen. Einzig bei der BQ dürfte es praktisch eng werden um NV rela deutlich zu übertrefffen.
dann dürfte ATI gar keine Probleme haben ein in jeder Hinsicht besseres Produkt hinzustellen.Dann hätte ATI aber viel zu tun. Sie müssen aber auch gar nicht in jeder Hinsicht besser sein.
nagus
2006-12-07, 07:36:08
quelle: rage3d.com
A rumor I read over at pureoverclock.Don't know if its been posted but it seems a bit wild.
"R600 to feature 700 to 800MHz clock for the GPU
- Complex 12-layer PCB monster
- 512-bit memory controller
- Each memory chip has its own 32-bit wide physical connection to the chip's bi-directional bus of 1024-Bit RingBus memory interface.
- Memory bandwidth 115GB/s to 140.1GB/s (GDDR4 at 1.1GHz - 2.2GHz in DDR) (8800GTX only =’s 86GB/s)
- The R600 board is FAT. The PCB will be shorter than 8800GTX's in every variant & can be compared to X1950XT and 7900GTX.
- R600 will be the heaviest board that will hit the market in history.
- Monstrous all copper cooler, longer-than-the-PCB quad-heat pipe.
- The cooler actually enhances the structural integrity of the PCB, so you should be aware that R600 will bring some interesting things to the table.
- Why is it important that a cooler is so big? Well, it needs to dissipate heat from practically every element of the board: GPU chip, memory chips and the power regulation unit.
- Two versions of the board: #1 called Pele w/ 1GB to 2GB of GDDR4 memory, and UFO w/ 1GB to 2GB of GDDR3 memory.
- Newer digital Rage Theatre 200 to replace the aging original Rage Theatre chip.
- R600 will offer video-in and video-out functions, VIVO, HD in and out connectors (Built in All-in-Wonder???)
- R600 = 80nm @ 200 to 220 Watts – should consume less power then Geforce 8800GTX.
- R600 features new dual-bridge connector for Crossfire capability.
- Expect this baby to be in stores during Q1'07, or around January 30th.
- ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.
- Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units
- R600 should feature at least five times more eDRAM than Xbox 360 has.
80nm
64 Shader pipelines (Vec4+Scalar) = yields with scalar performance of 256 units
720+ million transistor
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
512-bit 1GB to 2GB 2.0GHz GDDR3 & 4 Memory
140+ GB/sec Bandwidth (at 2.0 GHz)
1024-Bit Ring Bus (ALSO?)
WGF2.0 Unified Shader"
Riesengroßer Unfug. Da hat wohl einer seine feuchten Träume zu Papier gebracht. 50 MiB eDRAM...ist klar...;D
Winter[Raven]
2006-12-07, 07:57:56
defektes MUL
Ist diese defekt oder liegt nur brach? Irgendjemand von unseren 3D Gurus meinte ja mal, Nvidia habe noch paar Ässe im Hinterarm.
seahawk
2006-12-07, 08:32:26
Habe wir das nicht schon zu oft im Bezug auf NV gehört. Ne, ich glaube das Ding ist genauso defekt wie die SPannungsregelung und Runtertaktung des G80. Imho hat NV alles versucht um diesen halbweges funktionierenden Chip deutlich vor dem R600 in den MArkt zu drücken, weil der R600 eben deutlich besser ist.
ShadowXX
2006-12-07, 08:38:26
Habe wir das nicht schon zu oft im Bezug auf NV gehört. Ne, ich glaube das Ding ist genauso defekt wie die SPannungsregelung und Runtertaktung des G80. Imho hat NV alles versucht um diesen halbweges funktionierenden Chip deutlich vor dem R600 in den MArkt zu drücken, weil der R600 eben deutlich besser ist.
Du hattest aber den Newsblurb von Uttar gelesen, oder?
quelle: rage3d.com
- R600 should feature at least five times more eDRAM than Xbox 360 has.
Das allein ist schon sooooo .... unwahrscheinlich, dass der Rest der angeblichen Specs in seiner Glaubwürdigkeit stark beeinträchtig wird.
Es wäre super, wenn nicht gleich jedes Hirngespinst von irgendeinem Fanboy aus anderen Foren hier kritik- und vor allem kommentarlos reingepastet wird.
AnarchX
2006-12-07, 08:49:03
Kein Wunder warum er 173GB/s brauch, bei seinen 32ROPs@800MHz...;D
deekey777
2006-12-07, 08:57:34
Klar wird der R600 eDRAM haben. Ich meine, Dave Orton hat schon vor Monaten gesagt, dass es von ATi keine Desktop-Grafikchips mit eDRAM geben wird, da dieses einfach nicht nötig ist. Trotzdem wird er eDRAM haben. Er muss es einfach (wie groß ist der Backbuffer bei 2560er Auflösung mit 6xMSAA und FP16-RT?).
R600 = 80nm @ 200 to 220 Watts – should consume less power then Geforce 8800GTX.
Was'n das für ein QUatsch? Auch dss wurde schon längst für falsch erklärt.
Two versions of the board: #1 called Pele w/ 1GB to 2GB of GDDR4 memory, and UFO w/ 1GB to 2GB of GDDR3 memory.
Boom-Shakka-Lakka.
HD in and out connectors
Wenn das der Fall ist, dann kann man mit Sicherheit sagen, dass es bald keine YUV-Ausgabe in 1080 mehr geben wird. Darum: Ist Quatsch.
- ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.
- Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units
O Junge....
Armaq
2006-12-07, 09:25:43
Der Quote ist ja in jeder Hinsicht unrealistisch. -.-
Gibts eigentlich überhaupt gesichtere Informationen? Das Ding muss doch schon Jahre in der Entwicklung sein, aber anscheinend funktioniert der "Abschirmdienst" von den beiden Devs sehr gut.
robbitop@work
2006-12-07, 09:37:16
Bedenkt man dazu die Fehler des G80, defektes MUL, defekte Spannungsregelung,
Das MUL ist defekt? :| Die Spannungsregelung auch?
Wartet erstmal einen richtigen (R600-Launch?) Treiber ab. ;)
Selbst wenn das MUL nicht direkt genutzt werden kann, wird es immerhin noch zur Perspektivkorrektur genutzt, so wie es die ALU0 vom NV4x wurde. Deswegen war sie nicht defekt. Das spart den ALUs "Opportunitätskosten". Somit können alle ALUs arbeiten anstatt ständig für Perspektivkorrekturen misbraucht werden würden.
dann dürfte ATI gar keine Probleme haben ein in jeder Hinsicht besseres Produkt hinzustellen. Einzig bei der BQ dürfte es praktisch eng werden um NV rela deutlich zu übertrefffen.
Seltsame Schlussfolgerung.
Zu den R600 Specs:
Leute die sind von Rage3D. Dann müssen die ja stimmen. ;)
Ich glaub wenn der chip 500gflops ballert, wird eer schon schneller sein.
GFLOPS haben einfach keinerlei Aussage. Das gilt für jeglichen Chip.
Und eins kann man zu auch sicher sagen: Vec4-ALUs sind nicht effizienter als Skalare.
deekey777
2006-12-07, 10:28:10
Zu den R600 Specs:
Leute, die sind von Rage3D. Dann müssen die ja stimmen. ;)
Die sind nicht von Rage3D.
In diesem Thread (http://www.rage3d.com/board/showthread.php?t=33874006) finde ich irgendwie gar nichts.
€: Jetzt ist alles klar: http://en.wikipedia.org/wiki/Radeon_R600 ;D
seahawk
2006-12-07, 10:29:57
Das MUL ist defekt? :| Die Spannungsregelung auch?
Wartet erstmal einen richtigen (R600-Launch?) Treiber ab. ;)
Selbst wenn das MUL nicht direkt genutzt werden kann, wird es immerhin noch zur Perspektivkorrektur genutzt, so wie es die ALU0 vom NV4x wurde. Deswegen war sie nicht defekt. Das spart den ALUs "Opportunitätskosten". Somit können alle ALUs arbeiten anstatt ständig für Perspektivkorrekturen misbraucht werden würden.
Wenn sie nur perspetiven Korrektur mache nkann, muss man aber die theoretische Maximalleistung neu bestimmen und gleichzeitig kann man keinen weiteren Leistungssprung erwarten.
Wenn die Spannungsregelung durch Treiber gefixt werden kann, dann verkauft NV momentan ein unfertiges Produkt, was ich noch schlimmer finde. Ich vermute aber, dass es ein echter HArdwaredefekt ist.
Seltsame Schlussfolgerung.
Zu den R600 Specs:
Leute die sind von Rage3D. Dann müssen die ja stimmen. ;)
Ein logische Schlussfolgerung, schneller als G80 sollte der R600 sein und muss er sein. Ich glaube auch nicht, dass ATI ihn mit einer defketen Spannungsregelung losschickt. Bei der BQ sehe ich kaum noch praktischen Fortschritt möglich gegenüber dem was NV mit dem G80 bietet. Irgendwann nähert man sich einen Punkt, bei dem ein Mehr BQ in keinem Verhältnis zum Aufwand steht. Wobei 12xMSAA ....
Warum sollen die Specs in Teile nicht stimmen, Rage §D ist eine seriöse Seite.
Superheld
2006-12-07, 10:37:16
Vieleicht war es zu schwierig die Spannung im laufenden Betrieb bei 700mio Transen zu ändern:|
Gaestle
2006-12-07, 11:07:59
Ja und? Ein 256bit Bus waere im Gegensatz Grund zur Unruhe was die zukuenftige RV6xx betrifft. Komischerweise blubbert einer der Gast-Papageien sogar von 1350MHz@512bit. 110-120GB koennte ich ja noch schlucken aber 173GB/sec? Es stimmt vieles nicht am Bullshit das kursiert.
Wie unwahrscheinlich ist es, dass es sich um "Marketing-MHz" handelt und es physikalisch 675MHz (ca. 80GB/s) sind?
Das wären zwar etwas weniger, als eine 8800GTX, dafür aber möglicherweise feiner abgestuft (32Bit-Blöcke statt 64Bit). Und es gibt viel Luft nach oben.
Wie unwahrscheinlich ist es, dass es sich um "Marketing-MHz" handelt und es physikalisch 675MHz (ca. 80GB/s) sind?
Das wären zwar etwas weniger, als eine 8800GTX, dafür aber möglicherweise feiner abgestuft (32Bit-Blöcke statt 64Bit). Und es gibt viel Luft nach oben.
bislang hat jede neue High End GPU auch High End Speicher bekommen. 675 Mhz wäre kein High End mehr.
Und schnellerer Speicher ist günstiger als ein breiteres Interface. Auch die GPU-Hersteller müssen an einer relativ günstigen(wirtschaftlich rentablen) Gesamtgrafikkarte(inkl Ram) interessiert sein.
robbitop@work
2006-12-07, 11:21:46
Wenn sie nur perspetiven Korrektur mache nkann, muss man aber die theoretische Maximalleistung neu bestimmen und gleichzeitig kann man keinen weiteren Leistungssprung erwarten.
Die GFLOP Anzahl, die per se gar nichts aussagt, wäre dann bei 374 GFLOPs. Ob die nicht doch zum R600 Launch absichtlich vorgehalten wird, weiß niemand. Fakt ist, dass die 345 GFLOPs vom G80 verglichen mit R580 so durchhämmern wie 700 - 900 GFLOPs dort (ich habe das ADD der MiniALUs mit reingerechnet). Je nach Shader. Fazit: GFLOPs sind Schall und Rauch.
Neben der besseren Granularität durch skalare Einheiten bringt es natürlich Einiges, dass die 345 GFLOPs "in Ruhe gelassen" werden.
Da NV in den Folien aber mit 518 GFLOPs rechnet, würde ich warten. Ich behaupte es ist schon alles so wie es sein sollte. Kaputt ist da nichts. Entweder ist es eine (nicht dumme) Designentscheidung (Dual Issue kostet!! und bringt wenig, wenn die Einheit dann sowieso blockiert wird wie bei der Konkurrenz durch Perspektivkorrektur und Vorzeichenwechsel -> siehe Rxxx MiniALUs).
Anyway: derzeit ist die Shaderleistung kein Flaschenhals, aber das kommt ja immer mehr.
Wenn die Spannungsregelung durch Treiber gefixt werden kann, dann verkauft NV momentan ein unfertiges Produkt, was ich noch schlimmer finde. Ich vermute aber, dass es ein echter HArdwaredefekt ist.
Wieso unfertig? Es funktioniert doch alles. Mit einem solchen Feature wird nicht mal geworben. Wo wird also eine Spec verletzt? Die Treiber sind noch relativ unreif, da es eine neue Architektur ist. Da steckt natürlich noch Geschwindigkeitspotenzial und einige Fixe drin. Warte doch erstmal ab bevor du voreilig urteilst.
Fakt ist: G80 ist verdammt gut. Wie gut R600 ist, wird sich zeigen. Wissen tut es von uns jedenfalls noch keiner. ;)
Ein logische Schlussfolgerung, schneller als G80 sollte der R600 sein und muss er sein.
Sterben müssen wir alle. Was anderes muss keiner. ;)
Wieso muss R600 schneller sein? Wegen der lächerlichen 2-3 Monate? Dieser Zeitraum ist in der Entwicklungsperiode ziemlich unbedeutend. Zumal die 2-3 Monate durch 80nm Fertigungsschwierigkeiten entstanden sind. (schon das 2. mal jetzt). Ich denke, dass er schneller sein kann, wenn es in ATI's Macht liegt, diesen durch ein wenig mehr Takt auf diesen Vorsprung zu bringen. Vieleicht hat ATI aber auch wieder einen R300 im Ofen und er vernichtet den G80, vieleicht hat ATI einen R400 im Ofen und man hat keine Chance. Wir wissen es nicht. Da hilft die Logik kaum weiter, wenn wichtige Eingangsgrößen fehlen. ;)
G80 hat vieles schon verdammt gut implementiert und verdammt effizient. Einen wirklichen G80 Killer vorzustellen, der auch noch zu normalen Preisen in Massen verfügbar sein soll, wäre sicherlich schwer. (aber nicht unmöglich laut Albert Einstein ;-)
Ich glaube auch nicht, dass ATI ihn mit einer defketen Spannungsregelung losschickt.
Ich hoffe es nicht. Aber R520 ging es im ersten Treiber auch so. Einfach mal abwarten. ;)
Bei der BQ sehe ich kaum noch praktischen Fortschritt möglich gegenüber dem was NV mit dem G80 bietet. Irgendwann nähert man sich einen Punkt, bei dem ein Mehr BQ in keinem Verhältnis zum Aufwand steht.
Gesetz des abnehmenden Grundertrages. ;) Dazu ließen sich schön Artikel schreiben...
Wobei 12xMSAA ....
Je nach Situation besser/schlechter wären als 16xQ. Dürfte marginal sein. IMO sind MSAA Modi >4x oder 6x sowieso kaum noch sichtbar. Ich will optional einstellbares SG-SSAA für die Oldschool Spiele und ein reifereres AAA/TSAA. Das war bisher ein Gefrickel mit diesen komischen Kompatibilitätsfunktionen. Einstellen -> läuft. So muss das sein. Vieleicht ist in Punkto Effizienz ja auch noch etwas herauszuholen.
Warum sollen die Specs in Teile nicht stimmen, Rage 3D ist eine seriöse Seite.
Es ist eine Seite mit sagen wir leichter Affinität zum IHV mit ehemals rotem Emblem. Besonders das Forum ist es (wo ja auch Gerüchte gestreut werden).
robbitop@work
2006-12-07, 11:25:57
Das wären zwar etwas weniger, als eine 8800GTX, dafür aber möglicherweise feiner abgestuft (32Bit-Blöcke statt 64Bit). Und es gibt viel Luft nach oben.
Diese Granularitätssteigerung bringt kaum noch etwas. Es wird ja immer ein Quad in den Framebuffer geschrieben. Ohne Anti Aliasing sind das 4x 32 Bit Farbe und 4x 8 Bit (4:1 Kompression) Z. Das kann man mit der Anzahl der MS-Samples skallieren.
dargo
2006-12-07, 11:40:46
Wenn die Spannungsregelung durch Treiber gefixt werden kann, dann verkauft NV momentan ein unfertiges Produkt, was ich noch schlimmer finde. Ich vermute aber, dass es ein echter HArdwaredefekt ist.
Ich glaube so langsam nicht mehr daran, dass da noch was gefixt wird. Afaik sind in den G80 Biosen keine 2D Taktraten und Spannungen hinterlegt. Möglich ist natürlich, dass jeder Hersteller früher oder später ein angepasstes Bios liefert, halte dies aber eher für unwahrscheinlich. Nicht jeder traut sich einfach ein Bios Update auszuführen.
Eine andere Alternative wäre auch, dass die Architektur große Spannungs- und Taktsprünge einfach nicht zulässt und man direkt auf Diese verzichtet hat.
Naja, genug zum G80. Hier geht es schließlich um den R600.
- Memory bandwidth 115GB/s to 140.1GB/s (GDDR4 at 1.1GHz - 2.2GHz in DDR) (8800GTX only =’s 86GB/s)
Wie errechnen sich eigendlich die 115GB/s?
Die 140,8GB/s würden zu den 1100MHZ GDDR4 bei 512Bit SI passen.
robbitop
2006-12-07, 11:43:46
Eine Spannungs und Taktumschaltung muss nicht unbedingt im BIOS passieren. Bevor man urteilt, sollte man brauchbare Treiber abwarten. Bisher gab es ja nur einen offiziellen Treiber. Der andere war der pre Launchtreiber und die geleakten Treiber zählen nicht, da nicht für die Öffentlichkeit. Nach dem 100er FW kann man dann langsam die Hoffnung aufgeben. Der kommt ja in einer Woche AFAIK.
dargo
2006-12-07, 11:50:04
Die GFLOP Anzahl, die per se gar nichts aussagt, wäre dann bei 374 GFLOPs. Ob die nicht doch zum R600 Launch absichtlich vorgehalten wird, weiß niemand.
Das ist wirklich interessant. Ich bin echt gespannt was passiert wenn der R600 erscheint.
Ich frage mich halt nur welche Taktik besser ist?
Die G80 Leistung bis zum R600 zurückhalten weil eh genug vorhanden ist um sich deutlich von der Konkurrenz abzusetzen oder wäre es nicht besser gleich die "Bremse" zu lösen um noch mehr Käufer für den G80 zu überzeugen? Hmm ... :uponder:
Eine Spannungs und Taktumschaltung muss nicht unbedingt im BIOS passieren.
Hmm, da hast du auch wieder Recht. Meine damalige X1800XL konnte ich auch per ATITool untertakten und untervolten.
robbitop
2006-12-07, 11:59:34
Ich frage mich halt nur welche Taktik besser ist?
Das ist die Frage. Leistung zurückhalten könnte von großem Vorteil sein, denn die Vorgänger hat man eh mit links geschlagen. Ob das nun mit 100 oder 120% ist, bleibt erstmal egal. Sie wurden deutlich geschlagen. ;) Aber so weiß der Konkurrent nicht genau, wie schnell G80 wirklich ist und kann sich kaum darauf einstellen. Dem Konkurrent bleibt ja eh nur noch ein relativ schmaler Rahmen zum Festlegen des finalen Taktes, wenn man nicht die Yields ersäufen will. Beim X800XT Presse Edition hat man es anscheinend ein wenig übertrieben. Verfügbar waren die monatelang anscheinend kaum.
Ist natürlich die Frage, ob NV sowas wirklich macht. Schlitzohrig sind sie ja. AiL deutete sowas an und sinnvoll wäre es auch.
seahawk
2006-12-07, 12:03:18
Wie unwahrscheinlich ist es, dass es sich um "Marketing-MHz" handelt und es physikalisch 675MHz (ca. 80GB/s) sind?
Das wären zwar etwas weniger, als eine 8800GTX, dafür aber möglicherweise feiner abgestuft (32Bit-Blöcke statt 64Bit). Und es gibt viel Luft nach oben.
Unwahrscheinlich, da ich GDDR4 als gesichert ansehe. Wer soll Samsung den sonst abkaufen ?
Für Midrangeprodukte dürfte GDDR4 momentan verboten teuer sein. Irgendwer muss K4U52324QE (mass production sit 06/2006) ja abnehmen. Und den gibt es ja nur als 07 mit 1100mhz, 08 mit 1200mhz und 09 mit 1400mhz. Also unter 1100mhz wird man nicht gehen.
ATI hatte ihre PE und nvidia hatte die 7800 GTX512. Achja, den Dustbuster gabs ja auch noch. ^^
dargo
2006-12-07, 12:05:11
Leistung zurückhalten könnte von großem Vorteil sein, denn die Vorgänger hat man eh mit links geschlagen. Ob das nun mit 100 oder 120% ist, bleibt erstmal egal. Sie wurden deutlich geschlagen. ;) Aber so weiß der Konkurrent nicht genau, wie schnell G80 wirklich ist und kann sich kaum darauf einstellen.
Also, wenn das wirklich der Fall ist wäre es echt fies von NV aber lustig. ;D
Dann kann ich erst recht bis Februar/März warten - günstigerer G80 mit mehr Leistung als momentan. :ugly:
Und den gibt es ja nur als 07 mit 1100mhz, 08 mit 1200mhz und 09 mit 1400mhz. Also unter 1100mhz wird man nicht gehen.
Afaik untertaktet ATI den GDDR4 bei der X1950XTX auch. Von 1,1Ghz auf 1,0Ghz.
Hauwech
2006-12-07, 12:20:06
Mal was anderes:
Angenommen die kleineren Versionen sind schon fertig, hängt es dann vom Launch der dicken Karten ab wann diese in den Markt kommen?
Gerade bei den kleinen Karten ziehen ja anscheinend "Argumente" wie Zukunftssicherheit (DX10 bzw D3D10) eher mehr. Wenn ich nicht ganz falsch liege, war die 5200 (DX9) ja ggü der 9200 (DX8) ein richtiger Renner bei den Verkaufszahlen.
Hat also Nvidia einen grossen Vorteil bzgl des Launchs der kleineren Karten durch die im Vergleich frühe Vorstellung des G80 ggü R600?
Mit den kleinen Karten wird ja eher das grosse Geld gemacht als mit den dicken Kärtchen.
seahawk
2006-12-07, 12:36:35
Also, wenn das wirklich der Fall ist wäre es echt fies von NV aber lustig. ;D
Dann kann ich erst recht bis Februar/März warten - günstigerer G80 mit mehr Leistung als momentan. :ugly:
Afaik untertaktet ATI den GDDR4 bei der X1950XTX auch. Von 1,1Ghz auf 1,0Ghz.
Die 1100Mhz würden aber ziemlich genau zu den Spekus aus Rage 3D passen. Auf 950 Mhz untertaktet kommt man auf ca. 121 GB/s.
Andererseitss rechnet mal 256Bit mit 1400Mhz : 89,6 GB/s paßt das nicht famos zur 8800GTX ?
seahawk
2006-12-07, 12:37:37
Mal was anderes:
Angenommen die kleineren Versionen sind schon fertig, hängt es dann vom Launch der dicken Karten ab wann diese in den Markt kommen?
Gerade bei den kleinen Karten ziehen ja anscheinend "Argumente" wie Zukunftssicherheit (DX10 bzw D3D10) eher mehr. Wenn ich nicht ganz falsch liege, war die 5200 (DX9) ja ggü der 9200 (DX8) ein richtiger Renner bei den Verkaufszahlen.
Hat also Nvidia einen grossen Vorteil bzgl des Launchs der kleineren Karten durch die im Vergleich frühe Vorstellung des G80 ggü R600?
Mit den kleinen Karten wird ja eher das grosse Geld gemacht als mit den dicken Kärtchen.
ATI/AMD will Mainstreamkarten erst im 2HJ. 07 liefern. NV evtl. noch im 1Q07. Wer da einen Vorteil hat dürfte klar sein.
Ailuros
2006-12-07, 12:52:22
Bedenkt man dazu die Fehler des G80, defektes MUL, defekte Spannungsregelung, dann dürfte ATI gar keine Probleme haben ein in jeder Hinsicht besseres Produkt hinzustellen. Einzig bei der BQ dürfte es praktisch eng werden um NV rela deutlich zu übertrefffen.
Ist zwar mal wieder verdammt OT, aber wo wurde Deine ziemlich lange Liste an "Defekten" genau bestaetigt?
Das Ding ist ein aeuesserst merkwuerdiges Stueck HW bzw. GPU und ich hatte immer noch nicht genug Zeit ueber alle Aspekte zu gehen. Was die 2D Frequenz betrifft ist sie mit Absicht gleich laut NV selber (ohne weitere Erklaerungen) und obwohl ich nicht ausschliessen will dass mein mainboard sich irgendwie merkwuerdig verhalten koennte (und nein es hat keine Nebeneffekte), ist es schon ziemlich merkwuerdig dass sich das Ding bei mir im "physikalischen" IRQ3 installiert (was bis jetzt nie vorkam, normalerweise 10 oder 11 je nach mobo), sobald aber der Treiber installiert ist, setzt winblows das Ding dann auf IRQ18.
Was jetzt den resistor betrifft der fuer die falsche Spannungsreglung verantwortklich war, kommt es in den besten Familien vor und es ist wohl eher laecherlich eine solche Kleinigkeit anzuhaengen ueberhaupt wenn es die Launchtermine nicht versetzte.
Zum Thema MUL kann man auch nichts sagen, bis zukuenftige Treiber und reifere Compiler zum Vorschein kommen. Erst dann wird man sehen kann ob die MUL-Einheit tatsaechlich nur dumm rumhockt oder doch irgend einen Zweck hat.
Eigentlich grenzt es an den Rand der Frechheit G80 als defekte HW hinzustellen, ueberhaupt wenn im Vergleich R600 durch viel tieferen Mist und Korrigierungen laufen musste und muss. Nur weil manche die Klappe nicht aufmachen weil sonst die gesamte Fanbande einem das Skalp abnimmt, heisst es bei weitem nicht dass manche nicht den wahren Hintergrundgeschichten bewusst sind. Fuer ATI heisst es momentan "put up or shut up".
DrumDub
2006-12-07, 12:59:06
wegen des noch fehlenden idle-modus beim g80 würde ich mir keine sorgen machen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5001568#post5001568
wegen des noch fehlenden idle-modus beim g80 würde ich mir keine sorgen machen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5001568#post5001568
Ich schon - hab irgendwo ein ziemlich genau gegenteiliges Statement von Nvidia gesehen.
DrumDub
2006-12-07, 13:28:33
Ich schon - hab irgendwo ein ziemlich genau gegenteiliges Statement von Nvidia gesehen. irgendwo ist nirgendwo. will sagen: ohne quelle ist so ne aussage ziemlich witzlos...
Godmode
2006-12-07, 13:35:32
Das ist die Frage. Leistung zurückhalten könnte von großem Vorteil sein, denn die Vorgänger hat man eh mit links geschlagen. Ob das nun mit 100 oder 120% ist, bleibt erstmal egal. Sie wurden deutlich geschlagen. ;) Aber so weiß der Konkurrent nicht genau, wie schnell G80 wirklich ist und kann sich kaum darauf einstellen. Dem Konkurrent bleibt ja eh nur noch ein relativ schmaler Rahmen zum Festlegen des finalen Taktes, wenn man nicht die Yields ersäufen will. Beim X800XT Presse Edition hat man es anscheinend ein wenig übertrieben. Verfügbar waren die monatelang anscheinend kaum.
Ist natürlich die Frage, ob NV sowas wirklich macht. Schlitzohrig sind sie ja. AiL deutete sowas an und sinnvoll wäre es auch.
Das wäre doch mehr als dreist;D Ich glaube aber ehrlich gesagt nicht daran!
Mr. Lolman
2006-12-07, 13:52:06
Ich glaub nicht ganz daran, dass NV Leistung zurückhält. Sonst hätten sie das ja auch beim G70 schon gemacht, oder beim NV25...
Ich glaub eher, dass die Leistung schon ziemlich am Optimum ist, (oder ists nur ein unnötiges Überbleibsel, dass immernoch FP16 anstatt FP32 für die Shaderberechnungen eingesetzt wird?
ich auch nicht! es fehlen afaik noch immer funktionierende treiber, um sich in sachen zurückgehaltener performance überhaupt gedanken machen zu können. ich durfte mir mal gestern nacht noch ein bild von einer gtx machen. 3dk-scores wirklich beeindruckend, allerdings bildfehler (z.b. oblivion) und ruckelorgien und totalabstürze in anno1701 lassen mich im moment den g80 am besten als nice Fu.....g Quandary beschreiben - für den moment!
seahawk
2006-12-07, 14:00:50
Vor allem frage ich mich wie man manche Spiele benchen konnte, die doch erhebliche Darstellungsfehler haben. Oder wie schnell sit dioe Karte, wenn sie den Content korrekt darstellt ? Oder ist sie in Wahrheit nur hauchdünn über der X1950XTX ?
The_Invisible
2006-12-07, 14:05:10
vielleicht ist sie durch die darstellungfehler auch langsamer als sie sollte ;)
und das andere: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=333373
jetzt wirds langsam schon lächerlich
mfg
Armaq
2006-12-07, 14:09:00
Also 10-15% sollten locker noch durch Treiber drin sein. War bei der NV40 Generation auch nicht anders, ich erinnere an HL2.
Mr. Lolman
2006-12-07, 14:12:19
Vor allem frage ich mich wie man manche Spiele benchen konnte, die doch erhebliche Darstellungsfehler haben. Oder wie schnell sit dioe Karte, wenn sie den Content korrekt darstellt ? Oder ist sie in Wahrheit nur hauchdünn über der X1950XTX ?
Ich check die Scores überhaupt nicht ganz. Jeder bekommt was anderes raus. Oder hat man schon mal, die 8800GTX hinter der X1950XTX gesehen?
http://img.hexus.net/v2/graphics_cards/nvidia/g80gtx/images/bench-scct.png
Mr. Lolman
2006-12-07, 14:14:56
Also 10-15% sollten locker noch durch Treiber drin sein. War bei der NV40 Generation auch nicht anders, ich erinnere an HL2.
Wobei es mit HL² bei NV ähnlich war, wie bei ATi mit Doom³. Bei Performancesteigerungen haben imo nix mit einer Optimierung der Grundperformance zu tun. Falls man diese noch um 10% erhöhen kann, ist das imo schon recht viel. Mit appspezifischen Optimierungen jedoch kann natürlich fürs die jew. App. noch deutlich mehr drinnen sein...
robbitop@work
2006-12-07, 14:27:00
ist es schon ziemlich merkwuerdig dass sich das Ding bei mir im "physikalischen" IRQ3 installiert (was bis jetzt nie vorkam, normalerweise 10 oder 11 je nach mobo), sobald aber der Treiber installiert ist, setzt winblows das Ding dann auf IRQ18.
it est? *gespannt_ist*
Zum Thema MUL kann man auch nichts sagen, bis zukuenftige Treiber und reifere Compiler zum Vorschein kommen. Erst dann wird man sehen kann ob die MUL-Einheit tatsaechlich nur dumm rumhockt oder doch irgend einen Zweck hat.
Die hockt nicht dumm rum. Die hällt den ALUs "den Rücken frei". Sonst wären die Takteweise wegen blöder Perspektivkorrektur und Vorzeichenwechsel blockiert, wie es im NV4x der Fall war. Vieleicht war diese MUL Unit nie zu etwas anderem gedacht. Das weiß noch keiner von uns. Fakt ist: Dual Issue ist teuer und relativ ineffiziet. Vieleicht hat man die Tiefe der Pipeline deutlicher verkürzt als man denkt. Breiter skallieren kann man im Refresh immernoch. (ist aber nur eine mögliche Ansicht)
robbitop@work
2006-12-07, 14:32:10
Ich glaub nicht ganz daran, dass NV Leistung zurückhält. Sonst hätten sie das ja auch beim G70 schon gemacht, oder beim NV25...
Ich glaub eher, dass die Leistung schon ziemlich am Optimum ist, (oder ists nur ein unnötiges Überbleibsel, dass immernoch FP16 anstatt FP32 für die Shaderberechnungen eingesetzt wird?
Bei einer Brandneuen Architektur seit 4 Jahren meinst du ist die Leistung bei beta Releasetreibern am "Optimum"? Guter Witz. ;)
Bei neuen Architekturen sind immer bis zu 30% Optimierungspotenzial drin. Das war bei ATI und AMD schon immer so.
Ich glaub nicht ganz daran, dass NV Leistung zurückhält. Sonst hätten sie das ja auch beim G70 schon gemacht, oder beim NV25...
Das waren beides Refreshes. Da sind die Treiber schon "erwachsen". Schwierig dort Leistung zurückzuhalten und den Leuten das dann noch zu erklären. ;)
Ich erinnere mich an einen Radeon 8500 Launch an dem ein neuer GF3 Treiber rauskam, der das Ergebnis gewendet hat. Weder die eine noch die andere Variante ist jetzt ohne Sources sicher.
Ergo: Egal was du oder ich glaube. Es heißt letztendlich "Abwarten". ;)
aber imo hat damals schon der detonator_xp (20.81 imo) nimmer ausgereicht. es kam ja die ti-500, welche dann in etwa performancetechnisch dem r200 ebenbürtig war.
Mr. Lolman
2006-12-07, 14:49:54
Bei einer Brandneuen Architektur seit 4 Jahren meinst du ist die Leistung bei beta Releasetreibern am "Optimum"? Guter Witz. ;)
Ich denke schon. Aber abwarten. Man siehts ja eh, ob noch große 3dmark-Steigerungen kommen (denn die möglichen appspezifischen Optimierungen wurden in dem Bench wohl längst getätigt, weswegen künftige Performancesprünge nur mehr durch eine Steigerung der Grundperformance erreicht werden können)
Das waren beides Refreshes. Da sind die Treiber schon "erwachsen". Schwierig dort Leistung zurückzuhalten und den Leuten das dann noch zu erklären. ;)
Ich erinnere mich an einen Radeon 8500 Launch an dem ein neuer GF3 Treiber rauskam, der das Ergebnis gewendet hat. Weder die eine noch die andere Variante ist jetzt ohne Sources sicher.
Ergo: Egal was du oder ich glaube. Es heißt letztendlich "Abwarten". ;)
Der besagte GF3 Treiber hat hauptsächlich die 3dmarkscores aufpoliert. (damals als appoptimierungen noch in den Kinderschuhen steckten ;)) Außerdem meinte ich eigentlich NV40 und nicht den G70. Hab mich verschrieben ;)
ACK zu deinem Ergo.
robbitop@work
2006-12-07, 14:57:54
Der besagte GF3 Treiber hat hauptsächlich die 3dmarkscores aufpoliert. (damals als appoptimierungen noch in den Kinderschuhen steckten ;)) Außerdem meinte ich eigentlich NV40 und nicht den G70. Hab mich verschrieben ;)
ACK zu deinem Ergo.
NV40 wurde deutlich schneller. Vom 60er Launchtreiber bis zum 70er oder 80er gab es eine ordentliche Steigerung. Genauso wurde R3xx/4xx auch schneller mit der Zeit. R5xx ebenso.
Und je komplexer die Architekturen werden, desto komplexer werden die Compiler. Und destomehr Headroom sind in Treibern vorhanden. Das Teil läuft gewiss nicht nach dem Launch am Optimimum.
LovesuckZ
2006-12-07, 15:42:16
wegen des noch fehlenden idle-modus beim g80 würde ich mir keine sorgen machen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5001568#post5001568
Was würdest du denn an Nvidia's Stelle sagen?
Schöne PR Aussage. Und solange wie noch nichts da ist, sollte man sich sorgen machen.
Die sollen langsam mit einen neuen XP Treiber zu Potte kommen. :mad:
oder ists nur ein unnötiges Überbleibsel, dass immernoch FP16 anstatt FP32 für die Shaderberechnungen eingesetzt wird?
Es wird bei G80 alles mit FP32 gerechnet (selbst Pixelshader 1.1).
robbitop@work
2006-12-07, 15:52:28
Was würdest du denn an Nvidia's Stelle sagen?
Schöne PR Aussage.
Wenn's nicht stimmt, wäre es eine Lüge. Das hätte mit PR nichts mehr zu tun. Die Aussage war ja glasklar.
LovesuckZ
2006-12-07, 15:53:45
Ich check die Scores überhaupt nicht ganz. Jeder bekommt was anderes raus. Oder hat man schon mal, die 8800GTX hinter der X1950XTX gesehen?
Verwendet die X1950XTX Karte überhaupt 4xAA in dieser Auflösung? :rolleyes:
Wenn's nicht stimmt, wäre es eine Lüge. Das hätte mit PR nichts mehr zu tun. Die Aussage war ja glasklar.
Das Problem ist nur, dass es keine Konsequenzen hat.
Moralisch gesehen kann es Spuren hinterlassen, rechtlich ist es anscheinend belanglos.
robbitop@work
2006-12-07, 16:03:15
Das Problem ist nur, dass es keine Konsequenzen hat.
Moralisch gesehen kann es Spuren hinterlassen, rechtlich ist es anscheinend belanglos.
Wirklich dreist zu lügen habe ich bisher ganz ganz selten in diesem Geschäft gesehen. Etwas schwammig zu formulieren und gewisse Dinge zu suggerieren schon desöfteren. Ergo: abwarten ;-)
Blaire
2006-12-07, 16:04:18
Ich check die Scores überhaupt nicht ganz. Jeder bekommt was anderes raus. Oder hat man schon mal, die 8800GTX hinter der X1950XTX gesehen?
http://img.hexus.net/v2/graphics_cards/nvidia/g80gtx/images/bench-scct.png
Splinter Cell sieht auf Ati Karten auch deutlich schlechter aus. Von daher wundern mich diese Ergebnisse garnicht.
http://www.behardware.com/articles/644-16/nvidia-geforce-8800-gtx-8800-gts.html
deekey777
2006-12-07, 16:12:13
Zu den Treibern:
http://www.beyond3d.com/articles/develop-d3d10/index.php?p=04
Es dauert halt, bis die Treiber ein ähnliches Niveau erreichen.
Splinter Cell sieht auf Ati Karten auch deutlich schlechter aus. Von daher wundern mich diese Ergebnisse garnicht.
http://www.behardware.com/articles/644-16/nvidia-geforce-8800-gtx-8800-gts.html
Aber nur mit HDR. Und FX16 sollte kaum weniger Speicher/-bandbreite verbrauchen als FP16.
Und inwieweit wundern dich diese Ergebnisse gar nicht?
Splinter Cell sieht auf Ati Karten auch deutlich schlechter aus. Von daher wundern mich diese Ergebnisse garnicht.
http://www.behardware.com/articles/644-16/nvidia-geforce-8800-gtx-8800-gts.html
Aber nicht mehr bei Double Agent.
Und eins kann man zu auch sicher sagen: Vec4-ALUs sind nicht effizienter als Skalare.
Du kriegst mit denen aber vermutlich mehr "FLOPS/mm²" hin, als mit Skalaren. Theoretische FLOPS.
Blaire
2006-12-07, 16:36:33
Aber nur mit HDR. Und FX16 sollte kaum weniger Speicher/-bandbreite verbrauchen als FP16.
Und inwieweit wundern dich diese Ergebnisse gar nicht?
Bei reduzierter Grafikqualität ist es eben meistens schneller... Und wer zockt das schon ohne HDR bzw. geringeren Details? :confused: Und Unterschiede gibts auch ohne HDR nur sieht man es bei HDR eben deutlicher.
Blaire
2006-12-07, 16:37:35
Aber nicht mehr bei Double Agent.
Da hat Nvidia derzeit ein großes Problem angeblich wird es noch diese Woche neue Treiber dafür geben.
Armaq
2006-12-07, 16:43:30
Wobei es mit HL² bei NV ähnlich war, wie bei ATi mit Doom³. Bei Performancesteigerungen haben imo nix mit einer Optimierung der Grundperformance zu tun. Falls man diese noch um 10% erhöhen kann, ist das imo schon recht viel. Mit appspezifischen Optimierungen jedoch kann natürlich fürs die jew. App. noch deutlich mehr drinnen sein...
Ich denke eher generell. Applikationsspezifisch sollten vll. sogar ~30% drin sein?
Gibt es denn nun überhaupt EINE gesicherte Erkenntnis? Launch, Technik?
Ich check die Scores überhaupt nicht ganz. Jeder bekommt was anderes raus. Oder hat man schon mal, die 8800GTX hinter der X1950XTX gesehen?
http://img.hexus.net/v2/graphics_cards/nvidia/g80gtx/images/bench-scct.png
Ja, über 100 % teilweise. Keine Ahung obs am Treiber liegt oder ob gewisse Dinge den G80 doch töten können. Wahrscheinlich ist ersteres (MADD-Leistung ~25% unter Maximum mit öffentlich erhältlichen Treibern), möglich aber auch zweiteres.
@DrumDub:
PCGH 01/2007, S.52. Fragt sich nur, wem Nvidia Mist erzählt hat.
robbitop@work
2006-12-07, 16:57:48
@DrumDub:
PCGH 01/2007, S.52. Fragt sich nur, wem Nvidia Mist erzählt hat.
Hat nicht jeder da. Zitier' mal bitte.
DrumDub
2006-12-07, 17:02:36
@DrumDub:
PCGH 01/2007, S.52. Fragt sich nur, wem Nvidia Mist erzählt hat. danke erstmal. ein zitat der genauen aussage, wäre wirklich nett. :)
LovesuckZ
2006-12-07, 17:30:20
danke erstmal. ein zitat der genauen aussage, wäre wirklich nett. :)
Da steht nichts.
Mr. Lolman
2006-12-07, 17:33:47
Ja, über 100 % teilweise. Keine Ahung obs am Treiber liegt oder ob gewisse Dinge den G80 doch töten können. Wahrscheinlich ist ersteres (MADD-Leistung ~25% unter Maximum mit öffentlich erhältlichen Treibern), möglich aber auch zweiteres.
100%? Wo? Denn da helfen die fehlenden 25% auch nicht mehr viel weiter...
Ich denke eher generell. Applikationsspezifisch sollten vll. sogar ~30% drin sein?
Das hängt dann natürlich von den Apps ab. Bin mir relativ sicher, dass der NV40 in HL² stw. jetzt doppelt so schnell ist, als er am Anfang war...
tombman
2006-12-07, 17:39:48
""in-the-know""?
... einfach Deutsch sprechen.
to be in the know = zu den Eingeweihten gehören
...einfach Englisch lernen.
Gouvernator
2006-12-07, 17:42:53
Verwendet die X1950XTX Karte überhaupt 4xAA in dieser Auflösung? :rolleyes:
Das Problem ist nur, dass es keine Konsequenzen hat.
Moralisch gesehen kann es Spuren hinterlassen, rechtlich ist es anscheinend belanglos.
Also rein theoretisch gibts erst ab 2880x1920 probleme mit 6xAA dann fehlen nämlich die Ränder egal mit welchem Spiel sogar mit uralt Mafia. 6xAA mit allem wie AAA,ASBT usw, kann problemlos in 2560x1920 funktionieren.
tombman
2006-12-07, 17:54:48
Also den feuchten R600 Traum von oben glaubt eh keiner...
Die Erfahrung zeigt, daß der r600 bestenfalls 25% schneller sein wird als der G80...
Der refresh des G80 kommt dann wieder auf ähnliches Niveau und alle sind glücklich- vorallem ATI/Nvidia, die es wiedermal geschafft haben unfaßbar große Geldmengen den Enthusiasten-Melkkühen abzuzapfen ;)
Ailuros
2006-12-07, 18:23:52
Ich glaub nicht ganz daran, dass NV Leistung zurückhält. Sonst hätten sie das ja auch beim G70 schon gemacht, oder beim NV25...
Ich glaub eher, dass die Leistung schon ziemlich am Optimum ist, (oder ists nur ein unnötiges Überbleibsel, dass immernoch FP16 anstatt FP32 für die Shaderberechnungen eingesetzt wird?
Welche GPU lief denn je bei Vorstellung nahe am Optimum dass ich es verpasst habe? Ausser ein paar sehr seltenen Aussnahmen lieferten spaetere Treiber in allen Faellen mehr Stabilitaet und mehr Leistung. Gleiches galt auch fuer R520, gilt heute fuer G80 (denn es ist nur ein Treiber bis jetzt) und wird natuerlich auch fuer R600 gelten.
Ailuros
2006-12-07, 18:25:55
Die hockt nicht dumm rum. Die hällt den ALUs "den Rücken frei". Sonst wären die Takteweise wegen blöder Perspektivkorrektur und Vorzeichenwechsel blockiert, wie es im NV4x der Fall war. Vieleicht war diese MUL Unit nie zu etwas anderem gedacht. Das weiß noch keiner von uns. Fakt ist: Dual Issue ist teuer und relativ ineffiziet. Vieleicht hat man die Tiefe der Pipeline deutlicher verkürzt als man denkt. Breiter skallieren kann man im Refresh immernoch. (ist aber nur eine mögliche Ansicht)
Sagen die meisten Thesen; willst Du wirklich Deine Hand dafuer ins Feuer legen? Ich auf jeden Fall nicht ;)
ist zwar OT: aber angesichts der preisentwicklung, treiberstatus, supports,... kaufe ich mir zu weihnachten ne xbox360! obwohl dies sicher nicht die aufgabe dieses threads ist jemanden abzuschrecken, so macht er mich doch im nachhinein nachdenklich. ich mein, 2500.- euronen für etwas (der rest adäquate hardware miteinberechnet), was ich auch auf ner ollen konsole für 350.- euro bekomme, sprengt imo gnadenlos den rahmen. und wir reden ja nicht über z.b. nen mesa-boogie amp o.ä, sondern nur über nen grafikbeschleuniger, der mit dem nächsten upgrade sowieso total out ist.
Interessiert wahrscheinlich niemanden, das mußte ich jedoch trotzdem loswerden - sorry!
Ailuros
2006-12-07, 18:39:16
Jedem das seine. Koennte ich 0815 bilinear und niedrigere als 1600 Aufloesungen heutzutage tolerieren koennte ich sogar Spiele auf dem Schlepptop spielen. Consolen haben ein ganz anderes Publikum als high end PCs.
Gouvernator
2006-12-07, 18:43:02
ist zwar OT: aber angesichts der preisentwicklung, treiberstatus, supports,... kaufe ich mir zu weihnachten ne xbox360! obwohl dies sicher nicht die aufgabe dieses threads ist jemanden abzuschrecken, so macht er mich doch im nachhinein nachdenklich. ich mein, 2500.- euronen für etwas (der rest adäquate hardware miteinberechnet), was ich auch auf ner ollen konsole für 350.- euro bekomme, sprengt imo gnadenlos den rahmen. und wir reden ja nicht über z.b. nen mesa-boogie amp o.ä, sondern nur über nen grafikbeschleuniger, der mit dem nächsten upgrade sowieso total out ist.
Interessiert wahrscheinlich niemanden, das mußte ich jedoch trotzdem loswerden - sorry!
Das gabs doch schon mal :)
Xbox360 und GoW auf PAL vs. 8800GTX
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332139&highlight=g80+xbox
The_Invisible
2006-12-07, 18:47:02
Das gabs doch schon mal :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332139&highlight=g80+xbox
ja, Ao3, Anno und co schauen auf PAL sicher sehr gut aus ;)
mfg
Jedem das seine. Koennte ich 0815 bilinear und niedrigere als 1600 Aufloesungen heutzutage tolerieren koennte ich sogar Spiele auf dem Schlepptop spielen. Consolen haben ein ganz anderes Publikum als high end PCs.
Ähm - ich hab nen High-End System (3.7GHZ C2D, P5WDH, 2GB-Ram, 2x200GB, WaKü, X1900XTX).
Aber ohne Ironie: Ich weiß schon, eigentlich isses schon geil, mal die 10k-Grenze in 3dK06 zu knacken (blieb mir aufgrund der XTX bisher verweigert), allerdings ist der Preis dafür imo, vor allem in Anbetracht der Schnellebigkeit, sehr hoch.
BTT
Ailuros
2006-12-07, 19:48:38
Ähm - ich hab nen High-End System (3.7GHZ C2D, P5WDH, 2GB-Ram, 2x200GB, WaKü, X1900XTX).
Muss der Grund sein warum die ueber "teure" HW gerade gemeckert hast.
Aber ohne Ironie: Ich weiß schon, eigentlich isses schon geil, mal die 10k-Grenze in 3dK06 zu knacken (blieb mir aufgrund der XTX bisher verweigert), allerdings ist der Preis dafür imo, vor allem in Anbetracht der Schnellebigkeit, sehr hoch.
BTT
Der wahren Ironie zu Liebe, bin ich froh wenn ich mich erinnern kann auf welcher Festplatte ich 3dfart ueberhaupt installiert habe :P
Muss der Grund sein warum die ueber "teure" HW gerade gemeckert hast.
Der wahren Ironie zu Liebe, bin ich froh wenn ich mich erinnern kann auf welcher Festplatte ich 3dfart ueberhaupt installiert habe :P
Ich aber - nämlich gar nimmer :)
Undertaker
2006-12-07, 20:02:55
Die Erfahrung zeigt, daß der r600 bestenfalls 25% schneller sein wird als der G80...
das ist jetzt noch nicht absehbar, wo doch noch nicht wirklich gesicherte daten vor allem bzgl speicherbandbreite da sind - das die ati sehr effizient nutzen kann weiß man aus der vergangenheit, da kann also durchaus mehr als 25% rausspringen...
bei mir wirds aber eh ein g80, da ich mit den treibern von ati nicht mehr leben kann/will, und die lautstärke wohl auch kaum so niedrig wie bei dem g80 sein wird (vermute ich jetzt mal aus den geschätzten verbrauchswerten von 200-220w)
Fetza
2006-12-07, 20:40:54
to be in the know = zu den Eingeweihten gehören
...einfach Englisch lernen.
also ich finde solch völlig deplaziert wirkende anglizismen auch unpassend, und das hat nichts mit englisch lernen zu tun, sondern viel mehr mit stilempfinden.
greetz
Fetza
seahawk
2006-12-07, 21:11:08
Also den feuchten R600 Traum von oben glaubt eh keiner...
Die Erfahrung zeigt, daß der r600 bestenfalls 25% schneller sein wird als der G80...
Der refresh des G80 kommt dann wieder auf ähnliches Niveau und alle sind glücklich- vorallem ATI/Nvidia, die es wiedermal geschafft haben unfaßbar große Geldmengen den Enthusiasten-Melkkühen abzuzapfen ;)
Es gab auch Leute, die beim NV30 bis zum ersten Test feuchte Träume hatten. Ich wäre mir da nicht so sicher, dass ATI nicht wieder einen R300artigen Hammer in der Hand hat. Gerade die größere praktische Erfahrung mit USA und die Nähe zur CBox könnte sich bei den meisten Spielen als wahrer Turbo erweisen.
The_Invisible
2006-12-07, 21:38:02
Es gab auch Leute, die beim NV30 bis zum ersten Test feuchte Träume hatten. Ich wäre mir da nicht so sicher, dass ATI nicht wieder einen R300artigen Hammer in der Hand hat. Gerade die größere praktische Erfahrung mit USA und die Nähe zur CBox könnte sich bei den meisten Spielen als wahrer Turbo erweisen.
lol, du willst das jetzt doch nicht ernsthaft mit damals gleichsetzen
manche sollte wirklich mal ihre schlaftabletten absetzen
mfg
Es gab auch Leute, die beim NV30 bis zum ersten Test feuchte Träume hatten. Ich wäre mir da nicht so sicher, dass ATI nicht wieder einen R300artigen Hammer in der Hand hat. Gerade die größere praktische Erfahrung mit USA und die Nähe zur CBox könnte sich bei den meisten Spielen als wahrer Turbo erweisen.
Schönrederei, willst du damit sagen das der G80 schlecht ist in seiner jetzigen Form? Spielbares 16xCSAA, kein einziges Spiel das nicht in 1600*1200 + 4xAA spielbar wäre. Man kann es nicht vergleichen, und wenn man es tut, dann hat man keinen realistischen ungefärbten Blick.
Irgendwo hörts doch auf mit der Träumerei selbst wenn man nen roten Umhang an hat. On Pair und evtl etwas schneller ist realistisch, auf die gesammte Lebenspanne des G80/R600 hin gesehen. Von allem anderen sollte man sich verabschieden.
deekey777
2006-12-07, 21:46:26
Wir sind wieder im Bereich, der diesen Thread kaputtmacht. Bleibt beim Thema:
R600: alles rund um die neue Generation
Ailuros
2006-12-07, 21:54:08
Es gab auch Leute, die beim NV30 bis zum ersten Test feuchte Träume hatten. Ich wäre mir da nicht so sicher, dass ATI nicht wieder einen R300artigen Hammer in der Hand hat.
Eher R520; nur steigert sich diesmal die Bildqualitaet nicht so stark wie im Vergleich zu R4x0, da das Niveau von R5x0 ohnehin schon hoch liegt.
Gerade die größere praktische Erfahrung mit USA und die Nähe zur CBox könnte sich bei den meisten Spielen als wahrer Turbo erweisen.
Was soll der sich immer wiederholende Quark mit der angeblichen Erfahrung und USCs? Ach ja die Erfahrung ist so gross dass sie schon ueber einem Halbjahr mit verfurzten ROPs herumfuchteln...so langsam wird es mir zu bunt mit dem geballten BS der hier nur so rumfliegt.
Nochmal R600 wird ein sehr guter und sehr konkurrenzfaehiger chip sein, aber es gibt wohl doch einen gewissen Abstand zwischen einer nuechternen Erwartung und den eigentlichen feuchten Traeumen von ein paar Leuten hier. Und bevor ich noch weiteren BS lese, wenn Euch rein theoretisch G80-Leistung + X mehr % (+ den riesigen Aufwand fuer beide fuer D3D10) nicht genug sein sollte, dann tut es mir leid aber Ihr seid zu bedauern.
tombman
2006-12-07, 22:12:47
also ich finde solch völlig deplaziert wirkende anglizismen auch unpassend, und das hat nichts mit englisch lernen zu tun, sondern viel mehr mit stilempfinden.
Deplaziert ist es nur für die Unwissenden...solche Anglizismen sind im Netz gang und gäbe...
Armaq
2006-12-07, 23:04:18
Also den feuchten R600 Traum von oben glaubt eh keiner...
Die Erfahrung zeigt, daß der r600 bestenfalls 25% schneller sein wird als der G80...
Der refresh des G80 kommt dann wieder auf ähnliches Niveau und alle sind glücklich- vorallem ATI/Nvidia, die es wiedermal geschafft haben unfaßbar große Geldmengen den Enthusiasten-Melkkühen abzuzapfen ;)
Das von dir? Bist du nach der 8800GTX und dem ganzen Ärger derart vom Glauben abgefallen? :eek: Bitte sieh das nicht als Anfeimdung, sondern eher ehrliche Verwunderung.
Wobei ich dieser These zustimme. Oberflächlich sieht man schon einen recht harten Wettbewerb der beiden Kontrahenten.
Allerdings macht seit einiger Zeit keiner mehr einen großen Ausreisser - könnte wohl dem Image von Achilles und Hektor Schaden zugefügt werden.
Fetza
2006-12-08, 01:41:27
Deplaziert ist es nur für die Unwissenden...solche Anglizismen sind im Netz gang und gäbe...
unwissend? meinst du so wie das wissen, das du über den g71 hattest mit seinen 32 pixel pipes? ;) Ich Kann mich noch gut daran erinnern als du von den "wissenden" damals gesprochen hast, wonach diese 32 pipes ein faktum dastellen sollten.
Klar sind im netz anglizismen gang und gäbe, aber die frage ist auch wie man sie einsetzt. Aber ich will den thread jetzt auch nicht off topic :D bringen.
unwissend? meinst du so wie das wissen, das du über den g71 hattest mit seinen 32 pixel pipes? ;) Ich Kann mich noch gut daran erinnern als du von den "wissenden" damals gesprochen hast, wonach diese 32 pipes ein faktum dastellen sollten.
Klar sind im netz anglizismen gang und gäbe, aber die frage ist auch wie man sie einsetzt. Aber ich will den thread jetzt auch nicht off topic :D bringen.
Das war doch der Oberfanboy Skynet, der behauptet hat, G71 hat 32 PP!
Fetza
2006-12-08, 05:14:08
Das war doch der Oberfanboy Skynet, der behauptet hat, G71 hat 32 PP!
unter anderem :)
Dunkeltier
2006-12-08, 07:19:07
Also rein theoretisch gibts erst ab 2880x1920 probleme mit 6xAA dann fehlen nämlich die Ränder egal mit welchem Spiel sogar mit uralt Mafia. 6xAA mit allem wie AAA,ASBT usw, kann problemlos in 2560x1920 funktionieren.
Könntest du vielleicht bitte näher erläutern, wieso die Ränder "fehlen" sollten? Es gibt weiterhin Kanten zu glätten, und das zu genüge.
Gouvernator
2006-12-08, 10:57:59
Könntest du vielleicht bitte näher erläutern, wieso die Ränder "fehlen" sollten? Es gibt weiterhin Kanten zu glätten, und das zu genüge.
Villeicht geht da der interner Speicher aus. 2880x1920+6xAA ist net gerade wenig, bei 4xAA ist alles normal.
mapel110
2006-12-08, 11:57:21
Das war doch der Oberfanboy Skynet, der behauptet hat, G71 hat 32 PP!
Solch eine Version war auch von nvidia in Planung zu dem Zeitpunkt, wurde aber dann doch verworfen.
Außer AA kann der R600 ja nicht vieles besser machen als R520. Vollständiges Trilinear wäre noch fein. Aber das kommt wohl nie wieder (man soll zwar nie nie sagen, aber in dem Fall ist die Einsparung der Füllrate und der Transistoren((für TriTMUs)) wohl doch zu groß). So ist jedenfalls mein Eindruck.
ShadowXX
2006-12-08, 12:44:48
Solch eine Version war auch von nvidia in Planung zu dem Zeitpunkt, wurde aber dann doch verworfen.
Außer AA kann der R600 ja nicht vieles besser machen als R520. Vollständiges Trilinear wäre noch fein. Aber das kommt wohl nie wieder (man soll zwar nie nie sagen, aber in dem Fall ist die Einsparung der Füllrate und der Transistoren((für TriTMUs)) wohl doch zu groß). So ist jedenfalls mein Eindruck.
Warum soll vollständiges Tri "nie wieder" kommen.
Wenn du auf AI verzichtest, hast du sogar schon beim r580 volles Tri. Wenn du beim G80 auf HQ gehst hast du auch volles Tri.
Warum sollte es also beim r600 kein volles Tri geben?
Da steht nichts.
Gelesen oder geraten?
…ob hier Abhilfe geschaffen werden kann, scheint nach Rücksprache mit Nvidia fraglich…
Der erste Teil des Satzes bezieht sich natürlich auf den Idle-Verbrauch.
LovesuckZ
2006-12-08, 15:08:55
Gelesen oder geraten?
Nachgeschaut.
Auf S. 52 steht dazu nichts.
Nachgeschaut.
Auf S. 52 steht dazu nichts.
Sorry, ist jetzt ja präzisiert.
Ailuros
2006-12-09, 07:59:54
Außer AA kann der R600 ja nicht vieles besser machen als R520. Vollständiges Trilinear wäre noch fein. Aber das kommt wohl nie wieder (man soll zwar nie nie sagen, aber in dem Fall ist die Einsparung der Füllrate und der Transistoren((für TriTMUs)) wohl doch zu groß). So ist jedenfalls mein Eindruck.
http://www.beyond3d.com/forum/showpost.php?p=888506&postcount=1284
(generell zum Thread hier...)
Reine tri-TMUs waeren anscheinend tatsaechlich Verschwendung; es gibt aber dann immer noch fast-tri-TMUs; sie sind billig zu implementieren und liefern wahres single cycle trilinear.
Das mit dem vollstaendigen Trilinear kann ich auch nicht verstehen; ausser Du meinst "trilinear for free". Auf G80 ist es ohnehin schon fast kostenlos:
http://users.otenet.gr/~ailuros/Introduction.pdf
http://www.beyond3d.com/forum/showpost.php?p=888506&postcount=1284
(generell zum Thread hier...)
Reine tri-TMUs waeren anscheinend tatsaechlich Verschwendung; es gibt aber dann immer noch fast-tri-TMUs; sie sind billig zu implementieren und liefern wahres single cycle trilinear.Hrm? Reine Tri-TMUs liefern auch trilineare Samples in einem Takt. Fast-Tri-TMUs sind deutlich teurer als normale trilineare TMUs.
Ailuros
2006-12-09, 12:15:56
Ich denke SGX hat fast-tri TMUs; dabei frage ich mich warum man dann die angeblich "teurere" Alternative gewaehlt hat :confused:
Ich denke SGX hat fast-tri TMUs; dabei frage ich mich warum man dann die angeblich "teurere" Alternative gewaehlt hat :confused:
Vielleicht weils einfach gut passt ;). Man muss ja immer eine Kosten-/Nutzenrechnung aufstellen.
Du kriegst mit denen aber vermutlich mehr "FLOPS/mm²" hin, als mit Skalaren. Theoretische FLOPS.
Das ist korrekt. Aber bei nV laufen sie ja dafür mit doppeltem Takt.
AnarchX
2006-12-10, 18:08:53
Es scheint ein paar neue "Infos" zu geben:
1. A12 Revision des R600 hat 800MHz erreicht
2. Vgpu ist niedriger als 1.2V, was 80A bei 800MHz für den R600 ergeben soll
3. ein neues PCB für R600 mit GDDR3 -> Codename: Cat eye
4. ATi verwendet sehr teuere Bauteil für das PCB (MVDDQ?), wo eins davon soviel kostet wie die ganze Spannungsversorgung einer 7950GT
Quelle:
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f168%2f168302.shtml
Wieviel davon wahr ist sollte jeder für sich selbst entscheiden und ob er dem Insider aus dem pcnlife.com-Forum glaubt.;)
Das deutet zumindestens auf ein 512Bit-Interface hin, ob die Quele vertraulich ist, ist eine andere Frage...
80 Watt wäre zumindestens aus meiner Sicht ein toller Kompromiss...
dargo
2006-12-10, 18:28:59
Es scheint ein paar neue "Infos" zu geben:
1. A12 Revision des R600 hat 800MHz erreicht
A12?
Autsch, wieviele Revisionen hat der G80 nochmal gebraucht?
2. Vgpu ist niedriger als 1.2V, was 80A bei 800MHz für den R600 ergeben soll
Wieviel niedriger? Bei 1,15V wären es ja 92W alleine für die GPU. :|
Autsch².
Also auf dem Heatspreader steht A2 bei G80.
deekey777
2006-12-10, 18:41:30
A12?
Autsch, wieviele Revisionen hat der G80 nochmal gebraucht?
Nicht A Zwölf, sondern A 1 und 2 (ein Tapeouterste Revision und 2 Layerwechsel oder so).
A12?
Autsch, wieviele Revisionen hat der G80 nochmal gebraucht?Woher willst du wissen wieviele davon es nur auf dem Papier gab und wie die Firmen das sonstso handeln? Es kann auch erste Chipgeneration des R600 und zweite Revision der Maske heissen.
Teile des Entwicklerteams waren beim Launch der 9800pro in Deutschland. Vielleicht is das grundlegende Design des R600 jemandem auf der A12 eingefallen? Ihr habt Probleme :|
Gouvernator
2006-12-10, 18:47:50
Mhhh...:) 1.2V @800 mhz da geht ja noch einiges. Mit meiner XTX hab ich fast +150mhz rausbekommen, wenn das Teil ähnlich geht dann haben wir bald erste Graka mit 1000mhz.
Ailuros
2006-12-10, 18:52:13
Das deutet zumindestens auf ein 512Bit-Interface hin, ob die Quele vertraulich ist, ist eine andere Frage...
7. R600 will reveal saves the band width to be bigger than 8800GTX;
Ich wuerde die verkorkste Uebersetzung eher so uebersetzen:
R600 will have higher bandwidth savings than 8800GTX
Das einzige was auf >256bit deutet in dem endlosen Kauderwelsch, ist die Angabe von GDDR3.
80 Watt wäre zumindestens aus meiner Sicht ein toller Kompromiss...
Errrr....nein ;)
Uebrigens:
R600 postpones mainly be because of the craft question;
Nein und abermals nein; es kann wohl sein dass ATI die Verspaetung an den Herstellungsprocess haengen wird, aber die wahren Gruende liegen woanders.
Nicht A Zwölf, sondern A 1 und 2 (ein Tapeout und 2 Layerwechsel oder so).
Von wegen nur ein tape out und nur 2 layerwechsel pfff; zwoelf klingt zwar zugegeben viel aber das Ding hatte garantiert in diesem Jahr alleine, mehr als nur 2 tape outs.
Wieviel niedriger? Bei 1,15V wären es ja 92W alleine für die GPU.
Autsch².
Leider stimmt das auch.
Ailuros
2006-12-10, 18:54:57
Mhhh...:) 1.2V @800 mhz da geht ja noch einiges. Mit meiner XTX hab ich fast +150mhz rausbekommen, wenn das Teil ähnlich geht dann haben wir bald erste Graka mit 1000mhz.
....und eine sehr gute Konkurrenz zu einem Mikrowellen-Herd. Dass das Ding ziemlich hohe Herstellungskosten hat steht im Link ebenso drin; was nicht drinsteht ist dass eben genau wegen den hohen Herstellungskosten die mainstream GPUs wieder etwas mehr auf sich warten lassen muessen.
AnarchX
2006-12-10, 19:01:14
was nicht drinsteht ist dass eben genau wegen den hohen Herstellungskosten die mainstream GPUs wieder etwas mehr auf sich warten lassen muessen.
Irgendwann muss dochmal ein Sinneswandel in dieser Richtung kommen!?:rolleyes:
Hoffentlich unternimmt AMD dann mal etwas bei Radeon X3... .
reunion
2006-12-10, 19:05:32
Nicht A Zwölf, sondern A 1 und 2 (ein Tapeouterste Revision und 2 Layerwechsel oder so).
Richtig, die erste Zahl nach dem "A" beschreibt die Silicon-Revision, und die zweite die Metal-Layer-Revision. Zumindest wars beim R520 so.
IMHO auch nicht uninteressant:
the core area is 428mm2
Damit wäre das Teil doch um eine ganze Spur kleiner als G80.
....und eine sehr gute Konkurrenz zu einem Mikrowellen-Herd. Dass das Ding ziemlich hohe Herstellungskosten hat steht im Link ebenso drin; was nicht drinsteht ist dass eben genau wegen den hohen Herstellungskosten die mainstream GPUs wieder etwas mehr auf sich warten lassen muessen.
Als ob ein G80 in punkto Herstellungskosten glänzen könnte. Auch nV wird wohl oder übel auf den 65nm Prozess warten müssen.
@Ailuros
Ich will ja keine Klopperei provozieren, aber eben weil der Thread nun so schön harmonisch geht: Würdest du allen einen Gefallen tun und sich in deinen Postings wenigstens um einen Hauch Objektivität bemühen? Danke.
dargo
2006-12-10, 19:21:18
Leider stimmt das auch.
Oh nein. ;(
Gibt es schon irgendwelche Informationen zu langsameren R600 Exemplaren?
So ein Heizofen kommt bei mir nicht in den Rechner. Mit ~110W für die gesamte Graka könnte ich mich anfreunden.
deekey777
2006-12-10, 19:28:07
Von wegen nur ein tape out und nur 2 layerwechsel pfff; zwoelf klingt zwar zugegeben viel aber das Ding hatte garantiert in diesem Jahr alleine, mehr als nur 2 tape outs.
Wenn mich nicht alles täuscht, zeigen die geleakten Bilder zwei verschiedene R600 (man sieht es einerseits an den Schaltungen auf dem Package, andererseits an den unterschiedlich liegenden Pins).
http://www.beyond3d.com/forum/showpost.php?p=881256&postcount=855
A12 könnte also passen, wenn es um den neuen Chip handelt.
although power loss quite low, but ATI male version PCB needed materials as always luxurious, a MVDDQ dispensable thing uses the price 3.5 US dollar CSPpower source, is all higher thanthe 7950GTentire power source cost
Ich weiß nicht, inwieweit das hierrein passt, aber die digitale Stromversorgung der X1950Pro soll auch nicht ganz billig sein, darum verwenden einige Hersteller analoge Bauteile auf der X1950Pro, da es billiger sein soll.
Ailuros
2006-12-10, 19:38:21
@Ailuros
Ich will ja keine Klopperei provozieren, aber eben weil der Thread nun so schön harmonisch geht: Würdest du allen einen Gefallen tun und sich in deinen Postings wenigstens um einen Hauch Objektivität bemühen? Danke.
1. Bist Du als anonymer Irgendjemand nicht "alle".
2. Ich bin fuer meinen eigenen Geschmack objektiv genug; es ist wohl eher so dass Dir die Realitaet nicht passt.
3. Ich lass mir gar nichts vorschreiben ueberhaupt solange ich gegen keine Regeln stosse.
4. Ich koennte mich tatsaechlich weniger bemuehen um einiges weniger Toleranz fuer Feiglinge wie Dich die sich hinter ihrem Finger verstecken in der Zukunft zeigen und dabei sind mir die Konsequenzen auch sch****egal.
Ailuros
2006-12-10, 19:43:32
IMHO auch nicht uninteressant:
Damit wäre das Teil doch um eine ganze Spur kleiner als G80.
Das PCB ist auch kleiner ;)
Als ob ein G80 in punkto Herstellungskosten glänzen könnte. Auch nV wird wohl oder übel auf den 65nm Prozess warten müssen.
Yields und Margen koennen IHVs nicht unter den Teppich kehren.
Black-Scorpion
2006-12-10, 19:50:16
Was bildest du dir eigentlich ein wer du bist?
Du kommst rüber wie Dr. Allwissend und wenn dich jemand durch die Blume darauf aufmerksam macht wird derjenige noch von dir angepisst.
Auch wenn du es so siehst, du bist nichts besseres.
deekey777
2006-12-10, 19:55:53
Und hier ist Schluss mit den netten Worten. Insbesondere so etwas wie "Feigling" wollen nicht nur ich, sondern die meisten User hier nicht sehen. Regelt eure Differenzen per PM.
seahawk
2006-12-10, 20:09:19
Ich finde, dass sich 800+ mhz und GDDR3 durchaus gut anhören. Es bestätigt imho die hohe Performance und den 512Bit Bus.
Stromverbrauch und Wärementwicklung sind bei High-End-Chips sekundär und ATI wird schon ne anständige Kühlung hinbekommen.
Naja die Abwärme darf man nicht unterschätzen, die kleinerer Chipfläche gepaart mit der höheren Taktfrequenz einhergehend mit größerem Stromverbrauch als im Vergleich zur Konkurrenz heißt wohl ein hörbarer Lüfter. Oder das Teil wird teurer als gedacht da die Kühllösung extravagant gestaltet werden wird. An Standart Temperaturen von 80°+ im 3D Betrieb sollte man sich gewöhnt haben, aber wenn man sich heutige 2Slot Kühlungen ansieht, wird da bald ne bessere Abfuhr der wärme nötig werden.
Da der Chip so brachial hoch taktet darf man wohl davon ausgehen das er nicht wesentlich mehr TMUs haben wird als R580. Für was brauch er dann ein die Spekulierte gigantische Speicherbandbreite, wenn er von der Tex-Füllrate ~ auf/unter G80 Niveau sein wird?
LovesuckZ
2006-12-10, 20:30:58
Es bestätigt imho die hohe Performance und den 512Bit Bus.
Hohe Taktraten sind immer ein Zeichen von Hilfslosigkeit.
800MHz bedeuten nur, dass ATi alles aus den GPUs rausquetschen muss, um irgendwie vor Nvidia zu stehen. Das dies ein falscher Weg sein könnte, zeigten r420, r520.
reunion
2006-12-10, 20:42:12
Hohe Taktraten sind immer ein Zeichen von Hilfslosigkeit.
800MHz bedeuten nur, dass ATi alles aus den GPUs rausquetschen muss, um irgendwie vor Nvidia zu stehen. Das dies ein falscher Weg sein könnte, zeigten r420, r520.
Das ist doch absoluter nonsens. nV taktet die Shader-ALUs des G80 mit 1350Mhz. Ein Zeichen von Hilflosigkeit? Das ist eine Frage auf welche Taktraten ein Design ausgelegt ist. Es kann natürlich ein Zeichen von Hilflosigkeit sein, und zwar dann, wenn man nachträglich nachbessern muss um mit der Konkurrenz mithalten zu können. Das allerdings jetzt schon auf R600 zu beziehen, ist doch nichts als billiger Zynismus.
Hej Dicker, danke an die klare Worte an Ailuros :uclap:
Hohe Taktraten sind immer ein Zeichen von Hilfslosigkeit.
800MHz bedeuten nur, dass ATi alles aus den GPUs rausquetschen muss, um irgendwie vor Nvidia zu stehen. Das dies ein falscher Weg sein könnte, zeigten r420, r520.Was war an dem Weg von R420 nochmal falsch? Das Teil ballert FPS bis zum Vergasen. Geschweige von der Rechenleistung des R520. ATI muß nun vorlegen. Weit höhere Frequenzen um gleiuch schnell wie der G80 zu sein wäre hilflslos. Was der R600 wirklich so bringt wissen wir noch nicht. Deswegen kann man auch nicht sagen was der Hilfslosigkeit zuzuschreiben wäre. sowas logisches müßte man, auch ohne den Hauch ;) einer Ahnung was ein Shader ist, wissen.
Man kann es einfach nicht wissen. Den Weg der R420/%20 als falsch zu bezeichnen ist auch nur eine schwer eingefärbte Sicht der Dinge. Wo bleiben die fundierten Aussagen?
LovesuckZ
2006-12-10, 20:50:29
Das ist doch absoluter nonsens.
Tja, da widersprechen dir jedoch die Quartalsergebnisse von Nvidia.
Das ist immer eine Frage auf welche Taktraten ein Design ausgelegt ist.
Es ist eher eine Frage, welcher Aufwand für die Zahl betrieben wird.
Beim r420 (XT) musste ATi die Previewboards noch löten und beim r520 kam eine unerträgliche Kühllösung, eine hohe Stromaufnahme und hohe Temperaturen dazu.
dargo
2006-12-10, 20:50:52
800MHz bedeuten nur, dass ATi alles aus den GPUs rausquetschen muss, um irgendwie vor Nvidia zu stehen.
Ist es etwa nicht normal wenn man etwas schneller sein will als die Konkurrenz?
Außerdem, ist schon irgendwas zur Performance des R600 durchgesickert oder wie kommst du zu dieser Behauptung?
Vielleicht reichen schon 600-650Mhz um mit der G8800GTX gleichzuziehen?
AnarchX
2006-12-10, 20:53:08
Vielleicht reichen schon 600-650Mhz um mit der G8800GTX gleichzuziehen?
Danach sieht es momentan aber nicht aus, wenn man die Aussagen von Ailuros und auch anderen liest, die schon etwas mehr Einblick in R600 haben.
Und gleichziehen ist nicht unbedingt das Ziel von ATi, vor allem bei dem zeitlichen Abstand zwischen G80 und R600.
reunion
2006-12-10, 20:54:14
Da der Chip so brachial hoch taktet darf man wohl davon ausgehen das er nicht wesentlich mehr TMUs haben wird als R580. Für was brauch er dann ein die Spekulierte gigantische Speicherbandbreite, wenn er von der Tex-Füllrate ~ auf/unter G80 Niveau sein wird?
Sehr logisch. AUs hohen Taktraten schließt du, dass R600 wenig Tex-Füllrate haben wird, und deshalb eine hohe Bandbreite nicht benötigt?! Vielleicht hat er ja viele TMUs und hohen Taktraten, und benötigt deshalb so viel Speicherbandbreite?
Tja, da widersprechen dir jedoch die Quartalsergebnisse von Nvidia.Nicht das was Nvidia macht, sondern das was du erzählst. Das ist nämlich nicht das gleiche. Zum Glück.
Es ist eher eine Frage, welcher Aufwand für die Zahl betrieben wird.
Beim r420 (XT) musste ATi die Previewboards noch lötenJetzt weiß ich also warum der Weg des R420 verkehrt war?
wenn man die Aussagen von Ailuros und auch anderen liest, die schon etwas mehr Einblick in R600 habenBITTE??
dargo
2006-12-10, 21:01:07
Und gleichziehen ist nicht unbedingt das Ziel von ATi, vor allem bei dem zeitlichen Abstand zwischen G80 und R600.
Wenn man mit 600-650Mhz gleichzieht, was passiert dann mit 800Mhz? :rolleyes:
Ailuros
2006-12-10, 21:01:18
ATI's Taktik mit den hoeheren Frequenzen ist nichts Neues, ebenso wie die jeweiligen Folgen bei den vorigen Generationen und diese wurden aussfuehrlich genug in der Vergangenheit besprochen. Es tut mir aufrichtig leid wenn ein paar offensichtliche Tatsachen die Gefuehle der ATI-Anhaenger verletzen, aber es hat nichts mit Bevorzugungen zu tun. Kritik bleibt Kritik und es gibt genug Punkte diese auch zu gerechtfertigen bzw. zu analysieren.
ATI hat alle guten Vorrausetzungen NVIDIA wirklich in die Ecke zu draengen; stattdessen werden die exakt gleichen Fehler konstant wiederholt. Natuerlich wenn ein hardcore Fan und dazu noch blind genug ist, dann ist alles so wie es sein sollte und ich hock hier nur rum und spiele den Besserwisser.
AnarchX
2006-12-10, 21:04:48
BITTE??
Was willst du damit sagen?
Das Ailuros phantasiert? Dafür waren aber seine "Phantasien" zum G80 doch sehr präzise...;)
Im Endeffekt ist hier im Thread bis zum Launch fast alles eh nur Spekulation und da vertraue ich doch in die Andeutungen eines Users, der auch in Vergangenheit mit solchen Andeutung doch meist sehr richtig lag, mehr als denen eines kleinen Phantasten auf einer gewissen roten Seite.:wink:
Wenn man mit 600-650Mhz gleichzieht, was passiert dann mit 800Mhz?
800MHz wurden erreicht, was aber nicht heißen muss da es sich hier um finale Taktraten handelt, momentan sieht es doch eher nach den schon länger spekulierten 750MHz aus.
Und momentan würde ich den Vorsprung des R600 auf 0-20% je nach Anwendung schätzen.
reunion
2006-12-10, 21:07:08
Tja, da widersprechen dir jedoch die Quartalsergebnisse von Nvidia.
Ich sehe bei nV keine niedrigeren Taktraten. Die GF7900GTX taktete genau wie R580 mit 650Mhz, und G80 taktete die ALUs gar mit 1350Mhz. Die guten Quartalsergebnisse sind auf die hohe Transistoreneffizienz der G70-Architektur zurückzuführen.
nV taktete halt manche Bereiche des Chips extrem hoch, und andere verhältnissmäßig niedrig, da ATi das offensichtlich (noch) nicht macht, muss man eben einen Mittelweg finden.
Es ist eher eine Frage, welcher Aufwand für die Zahl betrieben wird.
Beim r420 (XT) musste ATi die Previewboards noch löten und beim r520 kam eine unerträgliche Kühllösung, eine hohe Stromaufnahme und hohe Temperaturen dazu.
G80 übertrumpft die Leistungsaufnahme des R520 bei weitem. Das hohe Taktraten und mehr Transistoren die Leistungsaufnahme in die Höhe schnellen lassen, ist logisch, allerdings bedeutet das eben auch mehr Leistung. Dass beides in Zukunft bei beiden Herstellen steigen wird, sollte klar sein.
aylano
2006-12-10, 21:11:43
Wieviel niedriger? Bei 1,15V wären es ja 92W alleine für die GPU.
Autsch².
Leider stimmt das auch.
Wie hoch schätzt man dann den Gesamtverbrauch???
Oder, wie hoch ist der Verbrauch vom G80-Chip?
dargo
2006-12-10, 21:16:39
Und momentan würde ich den Vorsprung des R600 auf 0-20% je nach Anwendung schätzen.
Ok, viel mehr würde ich auch nicht erwarten. Was mir viel wichtiger ist, dass mit dem Erscheinen des R600 endlich wieder ein Preiskampf stattfindet, wenn ich das mal so nennen darf.
Wie hoch schätzt man dann den Gesamtverbrauch???
Puh, das ist schwer zu sagen. Dazu müsste man zuerst wissen wie effizient die Stromversorgung von einer R600 Graka arbeitet.
Ich würde von ca. 180W bei 1GB GDDR3 ausgehen. Das ist aber sehr grob geschätzt.
LovesuckZ
2006-12-10, 21:33:51
Jetzt weiß ich also warum der Weg des R420 verkehrt war?
Habe ich mit dir geredet? :rolleyes:
Ich sehe bei nV keine niedrigeren Taktraten.
NV40 hatte nur 400mhz. Und es kam kein Refresh wie bei ATi.
Der G70 blieb fast 10 Monate auf 430MHz, die 512MB Variante war eine Verzweiflungstat. Nur war diese Karte nicht der wirkliche Verkaufsmagnet.
Die GF7900GTX taktete genau wie R580 mit 650Mhz,
Und war knapp am Ende. Höher hätte Nvidia nicht mehr gehen können, ohne mehr Spannung anlegen zu müssen. Fast schon eine Verzweiflungstat.
und G80 taktete die ALUs gar mit 1350Mhz.
Dafür sind sie weniger komplex. Der r520 war nicht nur komplexer als der G70 sondern auch noch höher getaktet.
Die guten Quartalsergebnisse sind auf die hohe Transistoreneffizienz der G70-Architektur zurückzuführen.
Und der geringeren Taktrate und somit eine bessere Auslastung an vollständigen Chips.
G80 übertrumpft die Leistungsaufnahme des R520 bei weitem.
Die Stromaufnahme liege laut CB.de 17% höher, die Karte ist im Durchschnitt doppelt so schnell bei ihnen. Nicht zu vergessen, dass die Temperatur bei der geringeren Lautstärke noch besser ist. Um eine ähnliche Lautstärke bei der X1800 zu haben, wird die Karte deutlich wärmer.
Hier ist also eine Verbesserung geschehen, welcher der r520 nicht geschafft hat.
seahawk
2006-12-10, 21:39:08
Hohe Taktraten sind immer ein Zeichen von Hilfslosigkeit.
800MHz bedeuten nur, dass ATi alles aus den GPUs rausquetschen muss, um irgendwie vor Nvidia zu stehen. Das dies ein falscher Weg sein könnte, zeigten r420, r520.
NV taktet teile des Chips mit 1350mhz, ein Zeichen von Verzweifelung. ATI hat in letzter Zeit immer auf höhere Taktrate ngesetzt, sie haben diese erreicht und ihre Chips waren über 6 Monate nach Launch betrachtet immer schneller bis erheblich schnleer als der Wettbewerb. Der R600 wird imho etwas über der 8800GTX einsteigen, über die Zeit diese aber ebenso deutlich deklassieren wie die X1950XT den G70.
deekey777
2006-12-10, 21:42:22
Der Geometrie-Takt des G71 liegt bei 700 MHz, der G70 hatte 470 MHz.
Zu den 1350 MHz als Verzweiflungstat: Ist das nicht egal, wie man die Leistung erreicht?
Ailuros
2006-12-10, 21:46:30
Ich sehe bei nV keine niedrigeren Taktraten. Die GF7900GTX taktete genau wie R580 mit 650Mhz, und G80 taktete die ALUs gar mit 1350Mhz. Die guten Quartalsergebnisse sind auf die hohe Transistoreneffizienz der G70-Architektur zurückzuführen.
Die Stream-Prozessoren sind ein anderes Kapitel, eben weil es sich verschiedene clock domains handelt und nicht der gesamte chip mit 1350MHz sondern nur die SPs ausschliesslich laufen.
Und nein die guten Quartalergebnisse sind nicht nur auf G70 zurueckzufuehren, denn NV hat im Schlepptop Markt heftig zugelegt; wobei als ich es damals kurz vor dem R580 andeutete war ich genau der gleiche "Depp" wie heute. G70 war auf 430MHz getaktet und R520 auf 625MHz. Zwar waren die extra 2 ALUs ein billiger Weg mit nur 25MHz hoeherem Takt die Leistung um einiges zu erhoehen, aber es leidet immer noch der Laptop Markt unter dem groesserem Stromverbrauch und der mainstream GPU Markt war auch nicht gerade von grandiosem Erfolg gekroent, ausser mir will hier jemand einreden dass RV530 nicht doch nicht das "Ueberprodukt" war im Vergleich zum G73. Selbst bei Verdoppelung der Einheiten im RV560 sah ich nichts dass den G73 in den Boden stampfen koennte, ausser natuerlich der hoeheren Bildqualitaet denn das muss man auch wirklich einsehen.
ATI baut in den letzten Jahren ausgezeichnete high end GPUs, aber der insgesamte Plan fuer alle anderen Maerkte stinkt eben und ja daran ist teilweise auch die hohe Frequenz-masche schuld. Und wenn das nur alles waere; sie fuchtelten wie auch beim R520 endlos mit zahllosen Revisionen rum wegen HW die doch mehr als nur ein paar Fehler hatte und die paar samples die grosse ISVs schon seit einiger Zeit in der Hand haben waren unter 400MHz getaktet.
nV taktete halt manche Bereiche des Chips extrem hoch, und andere verhältnissmäßig niedrig, da ATi das offensichtlich (noch) nicht macht, muss man eben einen Mittelweg finden.
Das hat absolut gar nichts mit G7x vs. R5x0 zu tun. R580 hat zwar mehr ALU Power als G71, aber es bleiben nach wie vor 4 vs. 6 quads. Was ich von ATI lieber sehen wuerde, waere mehr Einheiten und moderatere Taktraten.
Nur ganz so nebenbei G80 hat wie bekannt 8 clusters und ja dass es eine ziemlich wilde Generalisierung andeuten koennte ist mir bewusst, aber mehr sag ich momentan nicht dazu.
G80 übertrumpft die Leistungsaufnahme des R520 bei weitem. Das hohe Taktraten und mehr Transistoren die Leistungsaufnahme in die Höhe schnellen lassen, ist logisch, allerdings bedeutet das eben auch mehr Leistung. Dass beides in Zukunft bei beiden Herstellen steigen wird, sollte klar sein.
Wenn ich mir die Chipkomplexitaet des G80 genauer bedenke dann ist der Stromverbrauch in 3D um sehr wenig hoeher als auf R5x0.
AnarchX
2006-12-10, 21:46:53
Zu den 1350 MHz als Verzweiflungstat: Ist das nicht egal, wie man die Leistung erreicht?
Solang es keine Probleme gibt dabei schon...;)
Habe ich mit dir geredet? :rolleyes:Wenn du dich nach gepflegter Zweisamkeit mit diesem Kerl :rolleyes: sehnst, dann schreib ihm eine PN.
@Ailuros
Na ganz falsch werd ich schon nicht gelegen haben, weil du unter Druck ;) dann wohl doch brauchbare Texte verfassen kannst. Danke für die Infos.
Relic
2006-12-10, 21:53:21
NV taktet teile des Chips mit 1350mhz, ein Zeichen von Verzweifelung.
Wieso ein Zeichen von Verzweiflung? Ich denke eher, dass Nvidia das von Anfang an so geplant und als effektiven Weg der Leistungssteigerung gesehen hat.
Wieso ein Zeichen von Verzweiflung? Ich denke eher, dass Nvidia das von Anfang an so geplant und als effektiven Weg der Leistungssteigerung gesehen hat.Du hast den Beitrag da ein wenig aus dem Kontext gerissen. Seahawk spielt auf einen vorherigen Beitrag an, in dem sinngemäß stand, dass ATIs Strategie hohe Taktraten zu fahren ein Zeichen von Verzweiflung ist.
Ailuros
2006-12-10, 22:02:35
Du hast den Beitrag da ein wenig aus dem Kontext gerissen. Seahawk spielt auf einen vorherigen Beitrag an, in dem sinngemäß stand, dass ATIs Strategie hohe Taktraten zu fahren ein Zeichen von Verzweiflung ist.
Verzweiflung ist ein bisschen zu hart fuer meinen Geschmack, aber am Ende doch nicht allzu weit von der Realitaet. Wenn es einen Grund gab warum ich so begeistert war mit R300, ist dass er eben u.a. mit 2 quads und NUR 325MHz + zusaetzliche Effizienz einen quasi 1 quad@500MHz NV30 gnadenlos in den Boden stampfte.
Leider sieht es so aus als ob es fuer ATI nach R4x0/R5x0/R6x0 es sich um eine Eintagsfliege handelte.
--------------------------------------------------------------
Lieber Gast,
Es wird wohl Zeit dass der Mist endlich begraben wird; fuer die die auch in der Vergangenheit aehnliche Threads gelesen hatten und u.a. auch oeffentliche Debatten mit Sunrise wussten wohl schon was ich meine. Ich nehme zwar nicht an dass jeder meinen Quark liest, aber ich hab auch keine Lust jede Einzelheit um zich Male wiederzukauen.
NV taktet teile des Chips mit 1350mhz, ein Zeichen von Verzweifelung.
Das ist ja mal völliger Unsinn. Der Chip wurde von Anfang an darauf ausgelegt, dass die Streamprozessoren so hoch getaktet werden können. Man legt nicht einfach mal über den doppelten Nominaltakt für einen bestimmten Chipteil an.
deekey777
2006-12-10, 22:21:47
Bei den 1350 MHz des G80 darf man auch nicht vergessen, dass jede Vec16-ALUs an 4 Quads pro Zyklus werkelt. Es ist nicht nur der hohe Takt für die Leistung verantwortlich, sondern auch die Anzwahl der Recheneinheiten.
Und wieviel schafft ein R580 mit seinen 48 Vec4-ALUs? 48 Pixel bzw. 12 Quads.
Asmodeus
2006-12-10, 22:59:14
Ich fände vor allem die Antwort auf die Frage spannend, wie viel Mühe es ATI beim R600 gekostet hat, diesmal wirklich alle geforderten Features zu implementieren. Bei allen Vorgängermodellen war ich aus Programmierersicht immer sehr enttäuscht, dass ATI nur das notwendigste tat und viele sinnvolle Features, welche bei NV schon lange Standard waren, bei ATI einfach nicht verfügbar waren. Nun scheint ATI bei R600 ja gezwungen zu sein (ohne Aufweichung der Specs) alles geforderte auch genauso zu implementieren, sonst wäre das Siegel DX10-kompatibel wohl gefährdet. Obwohl ich ehrlich gesagt erst daran glaube, wenn die ersten R600 Karten auf dem Markt sind.
Gruss, Carsten.
Das liest sich so als ob ATIs DX9 Chips keine wären (?)
Asmodeus
2006-12-10, 23:28:37
Das liest sich so als ob ATIs DX9 Chips keine wären (?)
Natürlich waren und sind es DX9 Chips, aber NV bot oft noch etwas mehr, was meist auch äußerst sinnvoll war (z.b. npot Texturen). Bei ATI hatte man jedoch oft das Gefühl, steht nicht in den Specs, egal ob es äußerst sinnvoll ist, brauchen wir nicht zu implementieren. Die DX10 Specs umfassen nun neben den ganzen offensichtlichen neuen Sachen auch viele Teilgebiete, die ATi meiner Meinung nach bisher eben immer etwas vernachlässigt hat, da sie einfach von den bisherigen Specs nicht verlangt worden, jetzt aber zwingend erforderlich sind. Und eine ähnliche Geschichte wie bei den nicht möglichen Texturzugriffen im Vertexshader bei ATIs Karten sollte durch die sehr genaue Spezifikation von DX10 auch nicht mehr möglich sein. (hoffe ich jedenfalls)
Gruss, Carsten.
seahawk
2006-12-11, 07:11:21
Wieso ein Zeichen von Verzweiflung? Ich denke eher, dass Nvidia das von Anfang an so geplant und als effektiven Weg der Leistungssteigerung gesehen hat.
Und ATI hat eben von Anfang an auf höheren Takt gestzt. Gucke ich mir R520 und R580 so an, dann war dies bisher eher kein Fehler, da diese ihre Konkurrenz über die Lebensdauer deutlich deklassiertern und in der X1950XTX Variante auch dem G80 noch heftig Konkurrenz machen.
Ich verstehe den G80 Hype nicht, NV hat gerade mal mit ATI gleich gezogen, wenn es um die BQ geht (Ausnahme Rennspiele, da geht die GeFurz weiter gar nicht) und in der lEistung die Vorgängergneraation halbwegs geschlagen.
AnarchX
2006-12-11, 07:36:49
Und ATI hat eben von Anfang an auf höheren Takt gestzt. Gucke ich mir R520 und R580 so an, dann war dies bisher eher kein Fehler.
Das sich R520 weit über ein halbes Jahr verspätete, R520 und R580 ein mieses Perfomance-per-Watt-Verhältnis haben, was imo kein Problem gewesen wäre, wenn man von Anfang an eine vernünftige Kühllösung eingesetzt hätte, aber nein die kam erst 10 Monate später mit der X195XTX, vergisst du nun wohl mal gekonnt? ;)
Auch hatte man mit dem Mainstream seit RV4xx massive Probleme, alles wegen dieser Taktik im Highend, die eine schlechte Skalierbarkeit nach sich zieht(der aktuelle IGP z.B. basiert immernoch auf Technologie aus dem Jahre 2002).
Wenn ATi davon nicht in Zukunft abrückt, fahren sie langfristig damit gegen die Wand.
@ seadingens
Wie bitte..?
Du Träumer von der Power und der Qualli kannste doch nur träumen,auch in Rennspielen...aber wenn man (n) so blöde ist um die Karte einzustellen und dann schwachsinns Bildchen zu veröffendlichen weil einem nix mehr einfällt.......wie schon so oft erwähnt hier.."ihr ATI Jünger" wertet immer lächerlicher.
Mancko
2006-12-11, 09:03:39
Und ATI hat eben von Anfang an auf höheren Takt gestzt. Gucke ich mir R520 und R580 so an, dann war dies bisher eher kein Fehler, da diese ihre Konkurrenz über die Lebensdauer deutlich deklassiertern und in der X1950XTX Variante auch dem G80 noch heftig Konkurrenz machen.
Also das ist ja nunmal Käse. Von Anfang an wurde nicht auf so hohen extremen Takt gesetzt. NV war nur immer ein paar Monate vorher da mit seinen Produkten, so dass ATI nach Überprüfung der Leistung gezwungen war die Taktraten mehr anzuheben als sie ursprünglich wollten. Die Folge waren unzählige Revisionen und damit Verspätung sowie eine gewisse thermische Ineffizienz.
Die weitaus schwerwiegendere Folge hat sich aber in Mainstream, Low End und Mobile eingestellt. Diese Chips sind immer von den High End Produkten abgeleitet und haben deshalb eine direkte Verbindung zu diesen. Wenn es im High End nur unter größten Bemühungen gelingt halbwegs vorne zu bleiben, dann hat das unweigerlich Auswirkungen auf die anderen Produkte.
Die Vergangenheit hat gezeigt, dass wann immer die HIgh End Produkte ineffizient waren (und damit meine ich den Aufwand den man getrieben hat um die Leistung zu erreichen), die Mid Range Low End bis Mobile Lösungen auch nicht der Bringer waren.
Das bestätigt die NV30 Serie, die R4xx Serie und die R5xx Serie.
Zu NV30 Zeiten hat Nvidia in allen Segmenten Boden verloren. Zu R4xx und noch schärfer zur R5xx Zeiten war es wiederum ATI, wobei es in Mobile zu einem richtigen Blutbad gekommen ist. ATI war dort immer unangefochtener Marktführer. Im 3. Quartal hat Nvidia zum ersten Mal mehr Mobile GPUs verkauft als ATI. Das sagt doch wohl alles.
Bisher habe ich hier nur 2 Leute gesehen, die genau darauf hingewiesen haben und einer davon ist Ailuros.
Und die Wahrscheinlichkeit, dass sich das wiederholt für ATI ist mittlerweile verdammt hoch. Je mehr durchsickert, dass sie irrsinnigen Aufwand betreiben um nur halbwegs vorn zu bleiben, desto mehr darf man sich bereits jetzt Sorgen um ihre Mainstream, Low End und vor allem Mobile Lösungen machen.
Ihr dürft eins nicht vergessen: Den irrsinigen Aufwand im High End kann ATI noch halbwegs akzeptabel in den Markt bringen, weil ein kleinerer Fertigungsprozess vorliegt als bei der Konkurenz. In allen anderen Segmenten wird dieser minimale Vorteil nicht vorhanden sein und die Produkte die den besten Mix aus Stromaufnahme, Herstellungskosten, Abwärme und am Ende gebotener Leistung bieten, werden sich durchsetzen - vom Erscheinungstermin mal ganz zu schweigen. Bei den letzten 2 Generationen ging dies ganz klar an Nvidia und ATI kann es sich einfach nicht leisten hier auf Dauer die bisher eingeschlagene Tour weiterzureiten, da sie sonst das ganze Ding an die Wand fahren.
Ich verstehe den G80 Hype nicht, NV hat gerade mal mit ATI gleich gezogen, wenn es um die BQ geht (Ausnahme Rennspiele, da geht die GeFurz weiter gar nicht) und in der lEistung die Vorgängergneraation halbwegs geschlagen.
Die Bildqualität ist deutlich besser und nicht nur gleichgezogen. Jetzt muss ATI nachziehen und vor allem wie bereits auch schon in diesem Thread von jemand anderem erwähnt auch mal diverse Features umsetzen. Die Minimalistentour wie mit DX9 können sie Gott sei Dank nicht mehr reiten. Jetzt müssen sie Flagge zeigen und auch den Enticklern einiges anbieten, auch wenn dies von Kunden nicht gleich in unzähligen Games zu bewundern ist. Ich wünsche mir auch für die Zukunft, dass Microsoft strengere Vorgaben in seinen DX Releases macht. Mit DX10 ist das schonmal recht gut gelungen.
Ailuros
2006-12-11, 11:05:21
Und ATI hat eben von Anfang an auf höheren Takt gestzt. Gucke ich mir R520 und R580 so an, dann war dies bisher eher kein Fehler, da diese ihre Konkurrenz über die Lebensdauer deutlich deklassiertern und in der X1950XTX Variante auch dem G80 noch heftig Konkurrenz machen.
Das Problem liegt anderswo und eben wie schon so oft in anderen Maerkten als im high end GPU Segment, wo rein zufaelligerweise der Umsatz um zich Male hoeher ist. Wenn jemand mit Prozenten spielen wuerde nimmt nur der mainstream GPU Markt weit ueber 6x Mal so hohe Prozente als das high end Segment ein. Ich hab mir jetzt zwar in letzter Zeit keine genauen Daten angesehen, aber nimmt man einen rein theoretischen Fall wo beide IHVs sagen wir mal jeweils 50:50 im high end Segment verkauft haben, jedoch im mainstream Markt die Waage zu deutlich auf den einen IHV faellt, kannst Du mir dann ja gerne erklaeren wer und warum mehr Umsatz gemacht hat und ja natuerlich kann man es dann an den insgesamten finanziellen Resultaten jeder Firma sehen.
Und bevor ich wieder falsch verstanden werde das obrige bezieht sich hauptsaechlich auf die eher wackligen "Erfolge" ATI's im mainstream Segment fuer RV4x0 und RV5x0 und hierbei wuensche ich mir natuerlich ab dass RV6x0 diesem Trend nicht folgen wird.
Ich verstehe den G80 Hype nicht, NV hat gerade mal mit ATI gleich gezogen, wenn es um die BQ geht (Ausnahme Rennspiele, da geht die GeFurz weiter gar nicht) und in der lEistung die Vorgängergneraation halbwegs geschlagen.
Steril auf AF bezogen und im Bereich der extremen Haarspalterei ist die Winkelabhaengigkeit des G80 um einiges kleiner, wozu man aber auch ehrlich gesagt Adleraugen braucht um Differenzen in Echtzeit zu sehen. Aber es gibt auch noch Multisampling und Coverage Sampling. Eine "GeFurz" sieht dann als Beispiel mit 16x coverage und 4x transparency SSAA in Echtzeit so aus:
http://users.otenet.gr/~ailuros/speedMW.jpg
Schlechte BQ und "unterirdische" Leistung :rolleyes:
LovesuckZ
2006-12-11, 11:24:27
Steril auf AF bezogen und im Bereich der extremen Haarspalterei ist die Winkelabhaengigkeit des G80 um einiges kleiner, wozu man aber auch ehrlich gesagt Adleraugen braucht um Differenzen in Echtzeit zu sehen. Aber es gibt auch noch Multisampling und Coverage Sampling. Eine "GeFurz" sieht dann als Beispiel mit 16x coverage und 4x transparency SSAA in Echtzeit so aus:
http://users.otenet.gr/~ailuros/speedMW.jpg
Schlechte BQ und "unterirdische" Leistung :rolleyes:
Most Wanted sieht auf dem G80 einfach umwerfend aus. :cool:
seahawk
2006-12-11, 11:24:32
Ich bestreite gar nicht, dass ATI über das gesamte Produktportofolio ein Problem hat und es ist wahrscheinlich (imho), dass es dieses Mal wieder nicth sehr gut aussieht für ATI, wenn man bedenkt wie locker leicht NV den G80 bedarfsgerecht absprecken kann und man bedenkt, mit welchen Vorsprung sie den VISTA Mid-Range und Low-End-Markt bedienen werden.
Was aber für mich nicht bedeutet, dass der R600 als solcher, wie eben auch seine Vorgänger, deutlich besser als NV Angbot in seinem Marktsegemtn werden dürfte.
ich verstehe nicht, daß jetzt auch noch auf dem r420 rumgehackt wird. auf längere sicht war der r420, wie man jetzt leicht belegen kann, die weitaus permormantere alternative als der g40! s.h. ne x800xtpe ist in etwa das equivalent zum 7800gt, in bezug auf performance. ähnliches gilt vermutlich für den r5x0. in oblivion braucht es schon ne gx2, um der "total verkorksten" gpu paroli bieten zu können. zudem bietet der r5x0 ne bessere BQ, denn der g7x! klar ist, daß selbst ne x1950xtx gegen den g80 kein land mehr sieht. alles andere wäre aber auch ne katastrophe gewesen - imo!
@ail
ich habe den wechsel vom highend-pc auf xbox360 jetzt doch vollzogen und bereue es tatsächlich NICHT. FN3 z.B. ist nicht nur vom gameplay her imo genial, sondern auch grafisch im wahrsten sinne des wortes next-gen!
deekey777
2006-12-11, 11:46:54
Und der Thread bzw. dieser Teil des Thema ist zu. Gründe: Wenn es keine relevanten Infos zum R600 gibt, über die es diskutiert werden kann, findet man andere MÖglichkeiten und rutscht ins OT ab.
Und ATI hat eben von Anfang an auf höheren Takt gestzt. Gucke ich mir R520 und R580 so an, dann war dies bisher eher kein Fehler, da diese ihre Konkurrenz über die Lebensdauer deutlich deklassiertern und in der X1950XTX Variante auch dem G80 noch heftig Konkurrenz machen.
Ich verstehe den G80 Hype nicht, NV hat gerade mal mit ATI gleich gezogen, wenn es um die BQ geht (Ausnahme Rennspiele, da geht die GeFurz weiter gar nicht) und in der lEistung die Vorgängergneraation halbwegs geschlagen.
Ich weiß nicht, ob du die letzten Wochen richtig dabei warst, darum fällt es schwer, dieses Posting als deine persönliche Meinung oder ein Posting mit viel Flame (Gefurz und Rennspiele) zu konkretisieren.
@ seadingens
Wie bitte..?
Du Träumer von der Power und der Qualli kannste doch nur träumen,auch in Rennspielen...aber wenn man (n) so blöde ist um die Karte einzustellen und dann schwachsinns Bildchen zu veröffendlichen weil einem nix mehr einfällt.......wie schon so oft erwähnt hier.."ihr ATI Jünger" wertet immer lächerlicher.
Für diesen Flame und da "lächerlich werden" (für diese Kombination hattest du schon zweimal Ein-Tag-Urlaub) gibt es gleich drei Tage.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.