PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600 schon im dritten Quartal 2006?


Seiten : 1 2 3 [4] 5 6

Hvoralek
2006-09-17, 14:26:41
Hm, hab auf die schnelle nur diese Benchmarks gefunden, wo der R580 max. 17x schneller ist:Du meinst synthetische Benchmarks? Da müsste eigentlich noch mehr machbar sein, bei Havok ist es aber weniger :wink: .

deekey777
2006-09-17, 15:05:08
Hm, hab auf die schnelle nur diese Benchmarks gefunden, wo der R580 max. 17x schneller ist:
Ab hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4122049#post4122049
Sind zwar mehrere Seiten, es wird aber einiges erklärt. So oder so: Die Tests sind wenig bis gar nicht aussagekräftig.

Bei Havok FX sieht es dagegen anders aus. nVidia und Havok haben Havok FX gemeinsam im März präsentiert, ATi und Havok zeigten Havok FX mehrere Wochen später auf der COMPUTEX einige Techdemos, aber ich finde die Artikel bzw. die Daten der Techdemos nicht.

Gast
2006-09-17, 20:16:06
Kann mall bitte die Benchmarks mit Havoc FX zeigen?

LovesuckZ
2006-09-17, 20:37:51
Noch dazu werden die meisten Spiele immernoch auf NV Karten entwickelt. Wenn man ATi-nah proggt, tat sich in der Vergangenheit eine 6800GT schon gegen eine 9700pro schwer (bei Ruby oder The Project z.B.)

Läuft eigentlich Nalu unter oder auf oder mit (...) einer 9700pro? :rolleyes:

Ailuros
2006-09-17, 22:39:38
Das wäre mir neu, bisher habe ich mehrmals gelesen, dass der R580 immer im Zeitplan lag, auch hatte er mit den gleichen Problemen zu kämpfen wie der R520 (Taktraten bis 500-550 MHz möglich).

Nur RV515 erlitt keine Verspaetung. R580 war ca. 6 Monate spaeter als R520 geplant (was auch normal ist fuer einen Refresh). Mit welcher Taktrate und wieviel mehr Transistoren als R520 kam denn R580 genau an?

Interessant. Wäre es bei der Architektur nicht möglich gewesen, in Quad hinzuzufügen?

Hoechstwahrscheinlich war die Architektur nicht dafuer von Anfang an ausgelegt, was es zwar nicht unmoeglich macht aber komplizierter. Im Gegenteil konnte NVIDIA wiederrum eben nicht eine dritte ALU pro SIMD Kanal zur G70 dazuschrauben, eben aus dem gleichen Grund.

ShadowXX
2006-09-18, 13:07:26
Hoechstwahrscheinlich war die Architektur nicht dafuer von Anfang an ausgelegt, was es zwar nicht unmoeglich macht aber komplizierter. Im Gegenteil konnte NVIDIA wiederrum eben nicht eine dritte ALU pro SIMD Kanal zur G70 dazuschrauben, eben aus dem gleichen Grund.
Ich glaube das eineVerdoppelung (wie bei r3x0 -> r4x0) ebenfalls möglich gewesen wäre.....das ganze aber viel viel zu teuer gewesen wäre und es auch ein großes Bandbreitenproblem gegeben hätte.

Aber so ein r580 mit 32 Pipes á 1ner TMU und 1ner r520 ALU wäre bestimmt auch ganz interessant gewesen.

paul.muad.dib
2006-09-18, 13:32:54
Läuft eigentlich Nalu unter oder auf oder mit (...) einer 9700pro? :rolleyes:

Genauso gut wie Double Cross auf einer 6800 Ultra.

AnarchX
2006-09-18, 13:33:15
Aber so ein r580 mit 32 Pipes á 1ner TMU und 1ner r520 ALU wäre bestimmt auch ganz interessant gewesen.

Aber wohl auf Grund des zu hohen Transistorcounts zu dieser Zeit niemals realisierbar oder es wäre eine Taktrate herausgekommen mit der er kaum schneller als der R520 gewesen wäre.;)

Moralelastix
2006-09-18, 13:52:23
http://uk.theinquirer.net/?article=34446


We can now confirm that the new ATI card will consume around 250W.

Könnte die neue ATI sowas wie die GX2 Karte von NV sein also zwei GPUs auf einer Karte ansonsten währe der Energieverbrauch Weltrekord und gleichzeitig im Bereich des Lächerlichen.

*LoL*

DrumDub
2006-09-18, 14:01:24
fuad halt... :rolleyes:

ShadowXX
2006-09-18, 14:03:21
http://uk.theinquirer.net/?article=34446


We can now confirm that the new ATI card will consume around 250W.

Könnte die neue ATI sowas wie die GX2 Karte von NV sein also zwei GPUs auf einer Karte ansonsten währe der Energieverbrauch Weltrekord und gleichzeitig im Bereich des Lächerlichen.

*LoL*
Tja...ATI tut eben was für die Erderwärmung. Ausserdem spart man Heizkosten.

Und wer wollte nicht schon immer mal nen Kompressorkühler haben....zumindest ne WaKü sollte dann Standardmäßig dabei sein. (Wobei ich diese INQ-Meldung noch nicht für wirklich bahre Münze nehme...ich schätze die 250Watt beziehen sich auf ein Crossfire-System....das käme dann auch durchaus hin).

seahawk
2006-09-18, 14:03:42
250 ist nochmal 2x was ?

Was FUAD da hat sind Systemangaben und für was für System wird man 250-300W brauchen ....

deekey777
2006-09-18, 14:14:57
This means that the R600 will consume twice as much power, and probably will end up close to twice as warm but we also hear it will get much faster then the current cards with sixty four pipelines. It could easily end up twice as fast than the current ATI offerings

Wenn man will, kommt man auch auf die "64" Dings beim R580, aber sonst... :hammer:

robbitop@work
2006-09-18, 14:56:01
Vll. ist die Shaderleistung der aktuellen NVidiakarten einfach zu gering, um Spiele zu bauen, die den R580 ausreizen können. Was für Potential da schlummert, zeigen Phsyikberechnungen, bei denen ATi jetzt schon bis 19x (!!!) schneller ist.
So viel höher ist die Shaderleistung des R580 nicht als die des G71. Bei gleichem Takt liegt theoretisch Faktor 1,5 dazwischen. Aber auch nur dann, wenn immer das zusätzliche ADD gebraucht wird.
Der Effekt mit der "Kopplung" der TMUs an die ALUs ist sicher da aber der wird stark übertrieben. Die Shadermarkergebnisse kann man IMO immer als recht brauchbaren Indikator nutzen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/11/#abschnitt_theoretische_benchmarks

Bis zu 19x schneller ist die ATI Karte in einer von ATI entwickelten Demo, die soweit ich weiß nie von unabhängiger Seite getestet worden ist. Und schon dieser riesige Faktor 19!! sollte doch etwas skeptisch machen, nicht? ;-)


Noch dazu werden die meisten Spiele immernoch auf NV Karten entwickelt. Wenn man ATi-nah proggt, tat sich in der Vergangenheit eine 6800GT schon gegen eine 9700pro schwer (bei Ruby oder The Project z.B.) Selbst Crytek war ja damals so nett, und hat den NV Karten einen eigenen Schattenpfad spendiert, damit die bei Farcry nicht vollkommen abkacken.
Die R3xx Architektur, welche prinzipiell sogar im R5xx drin ist, ist (auch aufgrund ihres relativ einfachen Aufbaus) sehr robust gegen unsortierten Shadercode. Da ist ein Vorteil. Zusätzlich kann man die Konkurrenz, wie in HL2 gezeigt, durch Architekturspezifische Shader sogar noch sabbotieren und aus der eigenen HW viel herausholen. Das sagt gar nichts aus.
Der SM3 Pfad für NV Karten brachte laut meinen Messungen (und auch im Netz finden sich viele) nicht wirklich viel. Ab und an mal ein wenig (5-10%) dank geometric instancing. Das funktioniert aber auch mit ATT auf ATI Karten.
Mit meiner damaligen 6800GT konnte ich übrigens FC @1280 4x/8x auf maximalen Details spielen. Durchgehend smooth. Ich weiß nicht, was daran "abkacken" soll...


Was AAA betrifft, hat Ati imo hier auch die besseren Karten, da einerseits der Leistungsverlust im Durchschnitt geringer ist und andererseits man den äußerst praktischen Performancemodus nutzen kann, während bei NV nur der Fallback auf das mässig brauchbare MSTSAA möglich ist...
Der Einbruch ist auf beiden Seiten sehr ähnlich hoch bei vollem TSAA/QAAA. Da der G71 24TMUs hat, sollte es in worst case scenarios sogar noch besser aussehen. http://www.3dcenter.org/artikel/geforce_7900/index10.php#2
Auch ist die Kompatibilität von AAA (das sage ich auch aus eigener Erfahrung mit meinem R580) nicht das gelbe vom Ei.
Oftmals ist auch der Performance Mode von AAA nicht mehr Spielbar in neueren Spielen. Da hätte ich gern TMSAA.





Welche unspielbaren Extremszenen? Ich kenn deine Settings nicht, aber ich spiel seit geraumer Zeit Oblivion mit 1280x1024, HDR + 4xPAAA/HQ-AF und diversen Weitsicht Tweaks/Mods...

Wenn das deine R520 auch packt ists schön, wenn nicht...





...hast du wenigstens ein Beispiel für den reellen Mehrwert einer R580. ;)[/QUOTE]

blackbox
2006-09-18, 15:26:32
Keine Ahnung, ob es schon erwähnt wurde, aber der R600 verzögert sich bis ins Jahr 2007 und verbrät bis zu 250 Watt.
http://www.tweakpc.de/news/10261/atis-r600-kommt-erst-2007-und-verbraucht-bis-zu-250-watt-update/

AnarchX
2006-09-18, 15:28:48
Keine Ahnung, ob es schon erwähnt wurde, aber der R600 verzögert sich bis ins Jahr 2007 und verbrät bis zu 250 Watt.
http://www.tweakpc.de/news/10261/atis-r600-kommt-erst-2007-und-verbraucht-bis-zu-250-watt-update/
Wie wäre es mal damit ein paar Postings zu lesen, bevor du uns eine abgeschriebene News von INQ präsentierst, die schon lange diskutiert wird....;)

Die 250W basieren wohl immernoch aus der alten Aussage das D3D10-GraKa bis zu 300W verbrauchen werden, womit auch SLI und Dual-Karten gemeint waren.

deekey777
2006-09-18, 15:28:58
So viel höher ist die Shaderleistung des R580 nicht als die des G71. Bei gleichem Takt liegt theoretisch Faktor 1,5 dazwischen. Aber auch nur dann, wenn immer das zusätzliche ADD gebraucht wird.
Der Effekt mit der "Kopplung" der TMUs an die ALUs ist sicher da aber der wird stark übertrieben. Die Shadermarkergebnisse kann man IMO immer als recht brauchbaren Indikator nutzen.
Die Shaderleistung des R580 ist zT deutlich höher als beim G71. Aber warum diese nicht in Spielen ausgegereizt wird bzw. werden kann, hat folgende mögliche Gründe:

1. Der G71 ist bei einfachen Shadern schneller als der R580.
2. Je komplizierter der Shader ist, umso mehr kann sich der R580 vom G71 absetzen.
3. Welche Spiele haben schon so komplizierte Shader?
4. Selbst die neuesten Super-Spiele setzen weiterhin auf Texturing-Power.

blackbox
2006-09-18, 15:30:58
Wie wäre es mal damit ein paar Postings zu lesen, bevor du uns eine abgeschriebene News von INQ präsentierst, die schon lange diskutiert wird....;)

Stimmt, das hätte ich tun können, aber dann musst du besser lesen, denn abgeschrieben habe ich gar nichts.;)

AnarchX
2006-09-18, 15:32:11
Stimmt, das hätte ich tun können, aber dann musst du besser lesen, denn abgeschrieben habe ich gar nichts.;)

Du nicht, aber tweakpc....;)

robbitop@work
2006-09-18, 15:40:42
Die Shaderleistung des R580 ist zT deutlich höher als beim G71.
Quelle? Shadermark spricht hier eine andere Sprache.
Theoretisch bis 50% mehr aritmetischer Output pro Takt. Aber auch nur, wenn das zusätzliche ADD immer gebraucht wird (was ich bezweifle) und wenn es überhaupt immer nutzbar ist.

deekey777
2006-09-18, 15:52:06
Quelle? Shadermark spricht hier eine andere Sprache.
Theoretisch bis 50% mehr aritmetischer Output pro Takt. Aber auch nur, wenn das zusätzliche ADD immer gebraucht wird (was ich bezweifle) und wenn es überhaupt immer nutzbar ist.
Es gibt auch andere synthetischen Tests als Shadermark. :)
http://www.digit-life.com/articles2/video/r580plus-part2.html#p5
Ab Pixel Shaders Test bis zum Ende (New PS 3.0).

Anhand anderer Tests sieht man, wie schwach die VS-Performance des R580 ist, wenn dynamisches Branching ins Spiel kommt.

Few texture units in the chip may also play against the R580, while many modern applications depend much on texturing performance. We'll analyze the situation in real applications and see how modern games act on different architectures. Our complex synthetic tests reveal that the advantage of R580+ is irrefutable in case of a certain approach to programming pixel shaders.

robbitop@work
2006-09-18, 15:58:51
Es gibt auch andere synthetischen Tests als Shadermark. :)
http://www.digit-life.com/articles2/video/r580plus-part2.html#p5
Ab Pixel Shaders Test bis zum Ende (New PS 3.0).

Anhand anderer Tests sieht man, wie schwach die VS-Performance des R580 ist, wenn dynamisches Branching ins Spiel kommt.
In dem von dir benannten Benchmark wird vermutlich dynamisches branching hineinrutschen, was G7x erheblich bremst. Das ist jedoch praxisirrelevant.

robbitop@work
2006-09-18, 16:03:28
Nachtrag:
Was mir noch auffiel: der Autor tituliert anhand eines sehr einfachen Synthies, die ATI HSR Methode als deutlich überlegen. Das macht mich bezüglich der Hintergrundkenntnisse des Autors ein wenig stutzig. Denn jeder weiß, dass diese HSR Synthies riesen große Bereiche haben, die verworfen werden sollen/können. In diesem Fall kann ein hirarischer Tiefenpuffer natürlich pro Takt deutlich mehr Pixel verwerfen als das Early Z Verfahren. An dieser Stelle würde sogar ein S3 DeltaChrome eine gleichgetakte G73 mit 2x Quads versägen...Nur kommt das in der Praxis nicht vor. Ein hirZ Buffer hat aber andere Nachteile (z.B. wenn die erste Instanz mit einem 8*8 Tile versagt, kostet das IIRC einen Takt bis man das nächst kleinere Tile nutzen kann).

M_B
2006-09-18, 16:22:53
In dem von dir benannten Benchmark wird vermutlich dynamisches branching hineinrutschen, was G7x erheblich bremst. Das ist jedoch praxisirrelevant.
Warum soll es praxisfremd sein?
Für die Programmierer (und nicht nur) sollte es doch deutlichen Fortschritt bedeuten.
:confused:

Gruß M_B

AnarchX
2006-09-18, 16:25:34
Warum soll es praxisfremd sein?
Für die Programmierer (und nicht nur) sollte es doch deutlichen Fortschritt bedeuten.

Nur kann man aber kein Geld verdienen mit einem Game, dass auf ATI-Karten 2.5 so schnell läuft wie auf Nvidia-Karten, was im Endeffekt bedeuten würde, es wäre unspielbar auf einer Nvidia-Karte.;)

Gast
2006-09-18, 16:26:32
Das ist eh übertrieben. Die Arithmetik-Leistung von G71 ist nicht so schlecht.

Ein realer Shader wird niemals Faktor 2 schneller sein auf R580, außer er verwendet dyn. branching.

Gast
2006-09-18, 16:28:22
Nachtrag:
Was mir noch auffiel: der Autor tituliert anhand eines sehr einfachen Synthies, die ATI HSR Methode als deutlich überlegen. Das macht mich bezüglich der Hintergrundkenntnisse des Autors ein wenig stutzig. Denn jeder weiß, dass diese HSR Synthies riesen große Bereiche haben, die verworfen werden sollen/können. In diesem Fall kann ein hirarischer Tiefenpuffer natürlich pro Takt deutlich mehr Pixel verwerfen als das Early Z Verfahren. An dieser Stelle würde sogar ein S3 DeltaChrome eine gleichgetakte G73 mit 2x Quads versägen...Nur kommt das in der Praxis nicht vor. Ein hirZ Buffer hat aber andere Nachteile (z.B. wenn die erste Instanz mit einem 8*8 Tile versagt, kostet das IIRC einen Takt bis man das nächst kleinere Tile nutzen kann).

Selbstverständlich kommt das vor wenn man die Szene nur grob von Vorne nach Hinten sortiert und auf jegliches sonstiges HSR in der Engine verzichtet. Und Wireframe-Shots von Oblivion deuten genau darauf hin.

deekey777
2006-09-18, 16:31:49
In dem von dir benannten Benchmark wird vermutlich dynamisches branching hineinrutschen, was G7x erheblich bremst. Das ist jedoch praxisirrelevant.

Du hast zu weit nach unten gescrollt, schon im General PS Test sieht man eine recht deutliche Tendenz, ab welcher Komplexität der R580 seine Stärken ausspielen kann. Aber ja, im New PS 3.0 Test wird intensiv dynamisches Branching genutzt, inwieweit das praxisrelevant oder -irrelevant ist, sei dahin gestellt, ist ja ein synthetischer Test.

So oder so: Je nach PS-Test liegt entweder der G71 vorn oder der R580, je nach Test ist der Abstand zw. den beiden nicht zu übersehen.

Praxisrelevanz? Ich kenne persönlich kein einziges Beispiel, wo man einzelne Ergebnisse der synthetischen Benchmarks 1:1 auf ein Spiel übertragen kann.
Das ist eh übertrieben. Die Arithmetik-Leistung von G71 ist nicht so schlecht.

Ein realer Shader wird niemals Faktor 2 schneller sein auf R580, außer er verwendet dyn. branching.
Wer sagt, dass die Arith-Leistung der G71 schlecht ist? Sie ist optimal bis zum Geht-nicht-mehr.
Nur kann man aber kein Geld verdienen mit einem Game, dass auf ATI-Karten 2.5 so schnell läuft wie auf Nvidia-Karten, was im Endeffekt bedeuten würde, es wäre unspielbar auf einer Nvidia-Karte.;)
Das ist aber der falsche Weg, ein Spiel auf den Markt zu bringen, das nur iVm der einen oder anderen Grafikkarte läuft.
Entweder kleinster gemeinsamer Nenner oder jeder kriegt, was er am besten kann.

M_B
2006-09-18, 16:32:32
Nur kann man aber kein Geld verdienen mit einem Game, dass auf ATI-Karten 2.5 so schnell läuft wie auf Nvidia-Karten, was im Endeffekt bedeuten würde, es wäre unspielbar auf einer Nvidia-Karte.;)
Obwohl die FX-Serie eine Shaderkrücke (PS2.x) war, haben wir trotzdem Spiele mit Shader 2.x. ;)

Dann muss man eben vorher überlegen, was man kauft.
Wenn man sieht, dass eine bestimmte GPU bei neuen Features einbricht, dann kauft man eben das Konkurrenzprodukt.

That´s life. :)

Gruß M_B

Gast
2006-09-18, 16:38:02
Wenn man sieht, dass eine bestimmte GPU bei neuen Features einbricht, dann kauft man eben das Konkurrenzprodukt.Jede GPU hat ihre Schwächen. Bei NV ist dies langsam, bei ATI das. Was soll man dann kaufen?

Hvoralek
2006-09-18, 17:52:26
[...] (Wobei ich diese INQ-Meldung noch nicht für wirklich bahre Münze nehme...ich schätze die 250Watt beziehen sich auf ein Crossfire-System....das käme dann auch durchaus hin). Afair verbraucht eine einzelne X1900XTX rund 150W, ein CF- System also grob 300. Wenn die 250W sich auf CF beziehen würden, dürften R600er- Karten weniger Energie benötigen als High-End- R580er; das scheint mir weniger wahrscheinlich. Andererseits wären 250W wirklich für ein einzige Karte :crazy2:

Naja, Fuad eben, wir werden es ja sehen.

paul.muad.dib
2006-09-18, 18:41:09
Finde ich auch komisch. Aber ist es denn ausgeschlossen, dass der R600 weniger verbraucht als der R580? Immerhin hat letzter ein recht schlechtes Transistor/Leistung Verhältnis. Wenn sich das verbessert, könnte die Transistor-Zahl doch weniger stark steigen. Und zusammen mit 80 nm und geringerer Spannung dürfte doch etwas Einsparpotential vorhanden sein.

Wobei, ich denke auch eher, dass der R600 etwas mehr verbraucht. Aber 250 Watt wollen auch erstmal gekühlt werden.

crux2005
2006-09-18, 19:45:17
was wäre eigentlich komplexer - das 384 Bit SI oder der jetzige Ringbus bei ATI ?

AnarchX
2006-09-18, 19:46:22
was wäre eigentlich komplexer - das 384 Bit SI oder der jetzige Ringbus bei ATI ?

Natürlich das 384bit SI, da man ja hier auch noch ein komplexeres PCB brauch.

Telema
2006-09-18, 22:40:26
gibts scho...sry

boxleitnerb
2006-09-18, 22:44:03
Warum postest du News, die es schon vom Inquirer gab? Bitte erst lesen, dann posten. Danke.

Ailuros
2006-09-19, 07:03:24
Ich glaube das eineVerdoppelung (wie bei r3x0 -> r4x0) ebenfalls möglich gewesen wäre.....das ganze aber viel viel zu teuer gewesen wäre und es auch ein großes Bandbreitenproblem gegeben hätte.

Aber so ein r580 mit 32 Pipes á 1ner TMU und 1ner r520 ALU wäre bestimmt auch ganz interessant gewesen.

Was fuer eine Verdoppelung genau aber? Eine weitere SM2.0_b GPU oder 8 quads + SM3.0 + erweiterter AF Algorithmus? Im zweiten hypothetischen Fall sieht es schwer aus mit weniger als 420-450M Transistoren wegzukommen.

Natuerlich ist Bandbreite auch eine Gedanke, aber selbst NV lies die 8 quad Experimente fuer G7x links liegen (wobei hier die Architektur viel besser zu skalieren scheint was die quads betrifft) und man sah schnell dass ein 8 quad G7x mit ~550MHz nicht nennenswert schneller als ein 6 quad G71 mit 650MHz. Noch schlimmer das erste Dingsda verbrauchte auch X Prozent mehr Strom. Deshalb schaffte das Ding auch nie ein tapeout.

IHVs werfen so manche "Idee" in ihre Simulatoren und man kann sehr genau einschaetzen was genau was werden wuerde.

Es wuerde mich kein bisschen wundern wenn ein 6 quad R520 (24 ALUs, 24 TMUs, 16 ROPs, ~625MHz) keinen besonderen Unterschied in Echtzeit bringen wuerde als R580. Dabei denke ich ist dieser Fall umstaendlicher zu realisieren auf dieser Architektur und man kann auch nicht mit 384 GFLOPs floating point power protzen oder? In synthetischen Applikationen lassen sich die Unterschiede sehr wohl ausmessen.

Im guten Ganzen hab ich nicht das geringste einzuwenden was ATI's high end Designs betrifft; eher im Gegenteil applaudiere ich sie fuer die hoehere Bildqualitaet im R5x0. Da wo ich (und auch Sunrise) denke dass ATI sich etwas mehr Muehe geben muss ist das mainstream Segment des Markts. Und ich will natuerlich auch hoffen dass die R6x0 Generation insgesamt flexibler sein wird, was die Skalierung nach unten betrifft.

robbitop@work
2006-09-19, 08:18:18
Selbstverständlich kommt das vor wenn man die Szene nur grob von Vorne nach Hinten sortiert und auf jegliches sonstiges HSR in der Engine verzichtet. Und Wireframe-Shots von Oblivion deuten genau darauf hin.
Eine Szene normalerweise random gerendert. Ein sortiertes Front-to-back kostet zuviel um sinnvoll zu sein (First-Z Pass kram, der auch nur selten über den break-even kommt mal herausgelassen).
Und was hat das mit der Renderreihenfolge zu tun? Um in der ersten hirarischen Instanz alle Pixel verwerfen zu können, braucht man eine Fläche von 8x8, welche komplett wegfällt. Sowas kommt nicht häufig genug vor, um hirarchial Z zum deutlich besseren Verfahren in der Praxis zu machen. Wäre es das, hätte NV es längst implementiert (S3 macht es ja auch, es kann also nicht so schwer sein). HirZ hat ggü EarlyZ Granularitätsnachteile. In der Praxis löschen sich Vor- und Nachteile in etwa aus.

Gast
2006-09-19, 08:19:39
Du hast zu weit nach unten gescrollt, schon im General PS Test sieht man eine recht deutliche Tendenz, ab welcher Komplexität der R580 seine Stärken ausspielen kann. Aber ja, im New PS 3.0 Test wird intensiv dynamisches Branching genutzt, inwieweit das praxisrelevant oder -irrelevant ist, sei dahin gestellt, ist ja ein synthetischer Test.

So oder so: Je nach PS-Test liegt entweder der G71 vorn oder der R580, je nach Test ist der Abstand zw. den beiden nicht zu übersehen.
Faktor 1,5 habe ich ja maximal zugestanden, so what? ;-) Aber bei dem von dir genanten General PS kommt es lange nicht dazu. Deutlich ist's jedoch schon.

M_B
2006-09-19, 11:30:12
Jede GPU hat ihre Schwächen. Bei NV ist dies langsam, bei ATI das. Was soll man dann kaufen?
Das ist klar.
Solange es nicht um den Faktor 3 oder 4 schneller/langsamer ist, ist es auch kein Problem.
Da dynamisches Branching Vorteile bei der Programmierung bringen kann, ist die Gefahr ziemlich gross, da es schnell Verbreitung findet.
Ich persönlich könnte so einen G7x nicht mehr empfehlen.

Aber als ich mir damals die Shadermarkwerte der FX angesehen habe, habe ich die Leute auch vor der FX gewarnt. Einige haben dies beherzigt und zu einer entsprechenden ATI-Karte gegriffen. Die anderen haben sich dann über die miese Leitung bei shaderintensiven Spielen beklagt.

Wie auch immer, mir soll es egal sein.
Nur bitte später nicht heulen. :)

Gruß M_B

Gast
2006-09-19, 11:53:06
Das ist klar.
Solange es nicht um den Faktor 3 oder 4 schneller/langsamer ist, ist es auch kein Problem.
Da dynamisches Branching Vorteile bei der Programmierung bringen kann, ist die Gefahr ziemlich gross, da es schnell Verbreitung findet.
Ich persönlich könnte so einen G7x nicht mehr empfehlen.



Welches dynamische Branching meinst du denn jetzt? Vertex-Shader? Da kann ich aber keine ATI Karte empfehlen....

Gast
2006-09-19, 12:49:43
was wäre eigentlich komplexer - das 384 Bit SI oder der jetzige Ringbus bei ATI ?

Was ist komplizierter, Äpfel oder Birnen?

Gast
2006-09-19, 12:50:51
Da dynamisches Branching Vorteile bei der Programmierung bringen kann

Tut es aber nicht. Du kannst alles auch mit Predication lösen.

robbitop@work
2006-09-19, 12:53:57
was wäre eigentlich komplexer - das 384 Bit SI oder der jetzige Ringbus bei ATI ?
Der Ringbus von ATI ist per se eigentlich gar kein echter Ringbus. Dieser ist auch nicht besser als ein "herkömmlicher" Crossbar. War aber billiger zu realisieren als ein 8 fach unterteilter Crossbar.
Es kommt stark auf die Granularität des fiktiven 384 Bit SIs an, wie kompliziert das wird. Ein 6 fach unterteilter Crossbar oder ein 12 fach unterteilter, oder lieber den "Ringbus"? ;-) So oder so, würde es jedenfalls relativ teuer werden.

Die 384 Bit hören sich IMO verdächtig nach Ente an.

Gast
2006-09-19, 13:06:02
Ich denke auch ein 256-Bit-SI mit 32-Bit-Granularität wäre oft schneller als ein 384-Bit mit 64-Bit-Granulartiät.

Eine Crossbar ist bei 32-Bit-Granularität und 384-Bit-SI wohl kaum machbar.

ShadowXX
2006-09-19, 13:09:49
@Ailuros
Der 2xr520 sollte ein rein hypotetischer Gedanke sein. Mich würde von so einem Gerät aber tatsächlich mal die theoretische Leistung interessieren, wenn denn da auch entsprechen Bandbreite hintersteht.

Das ATI sich was bei dem Design der r580 gedacht hat ist klar.

Welches dynamische Branching meinst du denn jetzt? Vertex-Shader? Da kann ich aber keine ATI Karte empfehlen....
Im Pixel-Shader.......da sind die ATIs den nVs "meilenweit" überlegen.

Tut es aber nicht. Du kannst alles auch mit Predication lösen.
Aber warum sollte ich es tun, wenn das dyn. Branching schnell genug ist?

dildo4u
2006-09-19, 13:11:36
Im Pixel-Shader.......da sind die ATIs den nVs "meilenweit" überlegen.

.
Und da wir jetzt fast am Ende der Zeitzyklus sind wo eine 1900XT High-End war hat sich das bei aktuellen Games wirklich nennenswert ausgewirkt eher nicht würde ich behaupten.

ShadowXX
2006-09-19, 13:18:57
Und da wir jetzt fast am Ende der Zeitzyklus sind wo eine 1900XT High-End war hat sich das bei aktuellen Games wirklich nennenswert ausgewirkt eher nicht würde ich behaupten.
Darum gings nicht....wenn es keine Spiele gibt die das ausnutzen ist es Pech (und ja, IMHO ist es ATIs schuld durch das "zwischenschieben" der r4x0-Reihe).

Es ging um die rein theoretische Betrachtung......davon abgesehen gibt es ja auch Bereiche der GPU-Programmierung ausserhalb von Games. Ich kann mir durchaus vorstellen, das der eine oder andere der an wissenschaftlichen Projekten gearbeitet hat sich sehr darüber gefreut hat, das das dyn. Branching im PS bei den R5x0-GPUs so schnell ist.

robbitop@work
2006-09-19, 13:30:37
Ich denke auch ein 256-Bit-SI mit 32-Bit-Granularität wäre oft schneller als ein 384-Bit mit 64-Bit-Granulartiät.

Bei gleichem Takt? oO

robbitop@work
2006-09-19, 13:32:17
Darum gings nicht....wenn es keine Spiele gibt die das ausnutzen ist es Pech (und ja, IMHO ist es ATIs schuld durch das "zwischenschieben" der r4x0-Reihe).

Es ging um die rein theoretische Betrachtung......davon abgesehen gibt es ja auch Bereiche der GPU-Programmierung ausserhalb von Games. Ich kann mir durchaus vorstellen, das der eine oder andere der an wissenschaftlichen Projekten gearbeitet hat sich sehr darüber gefreut hat, das das dyn. Branching im PS bei den R5x0-GPUs so schnell ist.
Dafür dürfte die Lebenszeit der R580 deutlich länger sein als die der R520 dank dreifacher aritmetischer Pixelleistung. D3D9 Pfade wird's lang genug geben.

Gast
2006-09-19, 13:48:47
Bei gleichem Takt? oO

Ja natürlich. Das erhöht die Effizienz schon sehr deutlich vor allem mit Anti-Aliasing.

Gast
2006-09-19, 13:51:08
Aber warum sollte ich es tun, wenn das dyn. Branching schnell genug ist?

Ehm. Das macht der Compiler. Das jemand dyn. branching wirklich vorraussetzt ist in der derzeitigen Marktsituation für DirectX 9 sehr unwahrscheinlich.

robbitop@work
2006-09-19, 14:10:37
Ja natürlich. Das erhöht die Effizienz schon sehr deutlich vor allem mit Anti-Aliasing.
Aber das gleicht nie und nimmer ein 50% breiteres Interface aus.

Mit Anti-Aliasing wird mehr Bandbreite gebraucht, so macht sich ein gutes Interface zwar bemerkbar. Jedoch nimmt die Bedeutung der Granularität ab. Denn pro Quad werden mehr Daten in den Speicher geschrieben und es gibt weniger Verschnitt.

paul.muad.dib
2006-09-19, 14:38:13
Hey, langsam kommt hier ja Bewegung herein.

PCGH meldet heute, das ATI den Launch für das 1. Quartal 07 plant, damit wäre sogar erst März möglich.

Und der Thread Titel kann wieder geändert werden:

"R600 - schon Anfang 2007"

dildo4u
2006-09-19, 14:43:19
Tja ohne Vista können sie halt auch nicht mal ihre berühmten Techdemos liefern also macht die Verschiebung schon sinn.

Gast
2006-09-19, 14:49:31
Also die Spekulationen um den Stromverbrauch find ich ja lustig!

Ihr müsst ja sehr naiv sein, wenn ihr den Meldungen glauben schenkt.
250W? LOL!

Das wäre überhaupt nicht mehr kühlbar mit normaler Kühlung, deswegen fällt das schon kategorisch in die Kategorie "Unsinn".

Die aktuellen Grafikkarten sind schon hart an der (Temperatur) Grenze, wie will man da mal eben den Verbrauch verdoppeln mit Luft oder gar Wasserkühlung (selbst die wäre übrigens sehr sehr knapp bemessen)?
Da brauchts fast schon einen Kompressor und das Ati sowas vorhat, ich glaube darüber braucht man gar nicht erst reden - die wollen schließlich ihr Produkt auch mal verkaufen. ;D

ShadowXX
2006-09-19, 14:53:44
Ehm. Das macht der Compiler. Das jemand dyn. branching wirklich vorraussetzt ist in der derzeitigen Marktsituation für DirectX 9 sehr unwahrscheinlich.
Das ist mir durch bewusst, aber Shaderprogramme dürfen unter DX9 nur eine gewisse länge haben und ich schätze mal, das wenn man ein paar "fiese" dyn. Branches einsetzt, die Shaderprogramme zu lang werden wenn man es per prediction macht.

Ich habe ja auch ein Beispiel darunter angegeben, wo das dyn. Branching eher als in Games gebraucht wird / werden kann (Forschung etc.).


ja ohne Vista können sie halt auch nicht mal ihre berühmten Techdemos liefern also macht die Verschiebung schon sinn.

OpenGL sagt dir etwas?

Nerothos
2006-09-19, 14:54:43
Das Thema Stromverbrauch seh' ich wie der Gast. Wer weiß, wo Fuad diese Zahl wieder aufgeschnappt haben mag, realistisch sind 250W nicht.

Ich denke, der Stromverbrauch wird sich im Bereich der X1900XTX befinden. Vielleicht das eine oder andere Watt mehr aber nicht in diesen Größen, wie der Inquirer es beschreibt.

AnarchX
2006-09-19, 14:54:50
OpenGL sagt dir etwas?

ATI und OpenGL? :|
Gibt es da mehr als humus?

ShadowXX
2006-09-19, 14:56:53
ATI und OpenGL? :|
Ist doch egal....unter OGL kann ATI (und natürlich auch nV) per Extension schon die Features bereitstellen, die DX9 noch nicht unterstützt.

Und da Sie diesen OGL-Treiber sowieso schreiben müssen.......nV wird es sicher so Handhaben mit Ihren Techdemos um die neuen Fähigkeiten der Karte zu Demonstrieren und ATI wäre blöd wenn Sie es nicht genauso machen.

deekey777
2006-09-19, 14:58:52
Tja ohne Vista können sie halt auch nicht mal ihre berühmten Techdemos liefern also macht die Verschiebung schon sinn.

Was hat jetzt Vista damit zu tun?

Mein Lieblingsbeispiel wäre der G80: Was ist, wenn dieser vor Vista kommt, aber mit AF einer GF3, "HDDR-MSAA" und einer D3D9-Performance, die man bisher nicht kannte, - wirst du dann auf Vista warten, insbesondere wenn nur Crysis und vielleicht zwei-drei weitere Titel einen Extra-D3D10-Pfad kommen? Klar, es ist erst mit Vista&D3D10 möglich, die volle Leistung auszureizen, dennoch kann diese Generation auf WinXP laufen.



Wegen Wiedererkennungswertes bleibt der Threadtitel. :biggrin:

ATI und OpenGL? :|
Gibt es da mehr als humus?
Die Sushi-Demos sind für D3D9 sowie OpenGL gemacht, besser gesagt, sie sind API-unabhängig.

Sk_Antilles
2006-09-19, 15:19:12
Und wenn wo ist das Problem mit Vista? Die grossen Firmen bekommen Vista schon zum Ende des Jahres, da wird ATi bestimmt doch eine DVD von MS bekommen.

Das mit den 250W halte ich auch für sehr abenteuerlich. Abwarten und Tee rauchen.

AnarchX
2006-09-19, 15:26:58
Und wenn wo ist das Problem mit Vista? Die grossen Firmen bekommen Vista schon zum Ende des Jahres, da wird ATi bestimmt doch eine DVD von MS bekommen.


Nur kann man eben keine D3D10-Techdemos anbieten, die der Kunde bei sich daheim auf der Hardware ausprobieren kann, da dieser eben noch kein Vista hat.;)

Sk_Antilles
2006-09-19, 15:29:21
Nur kann man eben keine D3D10-Techdemos anbieten, die der Kunde bei sich daheim auf der Hardware ausprobieren kann, da dieser eben noch kein Vista hat.;)

Dann sollen die ein netten Film machen zum downloaden. :biggrin:
Naja mir ist das eh Wurst, habe mir noch nie ne Techdemo reingezogen. :wink:

ShadowXX
2006-09-19, 15:33:00
Nur kann man eben keine D3D10-Techdemos anbieten, die der Kunde bei sich daheim auf der Hardware ausprobieren kann, da dieser eben noch kein Vista hat.;)
Aber über OGL-Extensions und damit auch unter WinXP/2000 und wenn ATI/nV wollten sogar Win95/98......ich sehe wirklich das Problem nicht.

Moralelastix
2006-09-19, 15:58:06
Außerdem ist doch der Vista RC1 da.
Mit der passenden Hardware hat man damit natürlich auch sein DX10.

Auf wieviele RCs kann man sich denn noch einstellen?
Mindestens einer, wie?

Sk_Antilles
2006-09-19, 16:08:08
Außerdem ist doch der Vista RC1 da.
Mit der passenden Hardware hat man damit natürlich auch sein DX10.

Auf wieviele RCs kann man sich denn noch einstellen?
Mindestens einer, wie?

Meistens gibt es noch ein RC2 und dann ist wahrscheinlich Feierabend.

AnarchX
2006-09-19, 19:22:49
X1950XTX PCB mit einer stärkeren Stromversorgung als nötig? - R600 Vorbereitungen?
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f155%2f155879.shtml
(Babelfish)
(ab X1950XTX spatially welds does the power supply module prepare for who?)

Moralelastix
2006-09-19, 20:53:51
Halten wir mal fest: Es gibt wohl ein handfestets Problem mit dem Energieverbrauch.

Die Bauernfängrei läuft wahrscheinlich so ab:

Zuerst schreien alle "zu Hilfe" nach dem ein möglicher Energieverbrauch von ca.250W gemunkelt wird und beim Release atmen alle auf wenn sich dann herausstellt das "nur" lächerliche 180W verbraten werden.....:biggrin:

dildo4u
2006-09-19, 20:58:17
Was hat jetzt Vista damit zu tun?

Mein Lieblingsbeispiel wäre der G80: Was ist, wenn dieser vor Vista kommt, aber mit AF einer GF3, "HDDR-MSAA" und einer D3D9-Performance, die man bisher nicht kannte, - wirst du dann auf Vista warten, insbesondere wenn nur Crysis und vielleicht zwei-drei weitere Titel einen Extra-D3D10-Pfad kommen? Klar, es ist erst mit Vista&D3D10 möglich, die volle Leistung auszureizen, dennoch kann diese Generation auf WinXP laufen.



Wegen Wiedererkennungswertes bleibt der Threadtitel. :biggrin:


Die Sushi-Demos sind für D3D9 sowie OpenGL gemacht, besser gesagt, sie sind API-unabhängig.
Aha naja wo für dann der ganze Vista/Crysis DX10 Hype wenn alles per OpenGl geht?Kann man mit OpenGL 1.5 überhaupt alle Feautures ansprechen braucht man dazu nicht openGl 2.0 was noch nicht abgesegnet ist?

Gouvernator
2006-09-19, 21:12:11
Also die Spekulationen um den Stromverbrauch find ich ja lustig!

Ihr müsst ja sehr naiv sein, wenn ihr den Meldungen glauben schenkt.
250W? LOL!

Das wäre überhaupt nicht mehr kühlbar mit normaler Kühlung, deswegen fällt das schon kategorisch in die Kategorie "Unsinn".

Die aktuellen Grafikkarten sind schon hart an der (Temperatur) Grenze, wie will man da mal eben den Verbrauch verdoppeln mit Luft oder gar Wasserkühlung (selbst die wäre übrigens sehr sehr knapp bemessen)?
Da brauchts fast schon einen Kompressor und das Ati sowas vorhat, ich glaube darüber braucht man gar nicht erst reden - die wollen schließlich ihr Produkt auch mal verkaufen. ;D

Die Kühlung ist gar nicht mal das schlimmste, falls nötig pappt man einfach eine Wakü druf und fertig... Was weiss ich... auf jeden Fall ist es leichter eine Karte ganz ohne Kühler auszuliefern... mit einem Hinweis... als passende Bauelemente zu finden die diese wahnsinnig hohe Belastung standhalten. Die würden entweder SEHR gross ausfallen oder so heiss werden das sämtliche PCB und Stecker schmilzen - das ist das Problem Nr1 und nicht die Kühlung =) Ich war beeindruckt über 1900XTX und wie die das ausgehalten hat. Kurz davor war ich mit meiner X800XT beschäftigt und mir flogen die Drossel um die Ohren schon bei 670mhz :) so wars ...

ShadowXX
2006-09-19, 21:13:25
Aha naja wo für dann der ganze Vista/Crysis DX10 Hype wenn alles per OpenGl geht?Kann man mit OpenGL 1.5 überhaupt alle Feautures ansprechen braucht man dazu nicht openGl 2.0 was noch nicht abgesegnet ist?
In den nV und ATI Treiber ist inzwischen seit einer halben Ewigkeit OGL2.0 drinne. Kannst du relativ einfach mit dem Rivatuner überprüfen wenn du möchtest.

Aber da kommt es gar nicht drauf an, sondern auf die herstellerspezifischen Extensions. Jeder IHV kann in seine OGL-Treiber seine eigenen Extensions einbauen, mit deren Hilfe man dann jegwelche Funktionalität der Karte ansprechen kann.....eben auch die "D3D10" Features.

Das ist ja gerade der große Vorteil (und gleichzeitig Nachteil, da eben jeder IHV "seine" Extensions einbaut, was es den Devs nicht gerade einfacher macht) von OGL.

dildo4u
2006-09-19, 21:33:35
Nur wird das M$ Marketing Technsich nicht gefallen wenn alle Next-Gen "DX10" Demos auch auf XP laufen.Bei Crysis und FSX versuchen sie ja schon jetzt mit Schaubildern und Videos zu verdeutlichen das geht nur mit Vista.

Merlin31
2006-09-20, 00:08:41
http://www.gamestar.de/news/pc/hardware/ati/1464811/ati.html

Damit dürften die News noch mal überarbeitet werden :-D

tEd
2006-09-20, 00:52:04
http://www.gamestar.de/news/pc/hardware/ati/1464811/ati.html

Damit dürften die News noch mal überarbeitet werden :-D

Solche meldungen ändern doch jeden tag. Morgen 300watt übermorgen doch nur 120 ......

Mastermind
2006-09-20, 01:25:23
http://www.gamestar.de/news/pc/hardware/ati/1464811/ati.html

Damit dürften die News noch mal überarbeitet werden :-D
Und Moralelastix hatte recht! ;D

Gasthäusle
2006-09-20, 08:25:18
Mal ne Frage zu OGL und D3D10.

Ich habe mal irgendwo aufgeschanppt, daß XP Treiber sehr "CPU lastig" seien. Dies sollte sich wohl mit D3D10 ändern. Wie stehts denn da mit den OGL Treibern unter XP ? Unterliegen diese auch dieser "CPU Lastigkeit" (wenns denn überhaupt stimmt) ?

svenw
2006-09-20, 11:16:21
250Watt sind durchaus plausibel. Ich bezweifele einfach mal, das es noch gigantische Verbesserungspotentiale in den Chips gibt. Somit wird man große Leistungssprünge nur über ein Aufstocken der Pipielines erreichen und
mehr Transistoren = mehr Strom.

Kleinere Herstellungsprozesse werden das ganze etwas eingrenzen, aber die Stromsparmöglichkeiten bei Grakas sind wesentlich begrenzter als bei CPUs. Bei CPUs gibt es kurzfristige Spitzenbelastungen, eine GPU rennt in Spielen immer mit 100%.

Iwan
2006-09-20, 11:21:24
250W sind einfach nicht mehr vernünftig mit luft zu kühlen. mit dem stromverbrauch vom r580 dürfte so ziemlich das ende der fahnenstange erreicht sein.

svenw
2006-09-20, 11:33:43
250W sind einfach nicht mehr vernünftig mit luft zu kühlen. mit dem stromverbrauch vom r580 dürfte so ziemlich das ende der fahnenstange erreicht sein.BTW: Waren 150W nicht eh das Maximum was eine Graka an Strom ziehen darf über PCIe und Zusatzstecker?

ShadowXX
2006-09-20, 11:45:34
Mal ne Frage zu OGL und D3D10.

Ich habe mal irgendwo aufgeschanppt, daß XP Treiber sehr "CPU lastig" seien. Dies sollte sich wohl mit D3D10 ändern. Wie stehts denn da mit den OGL Treibern unter XP ? Unterliegen diese auch dieser "CPU Lastigkeit" (wenns denn überhaupt stimmt) ?
AFAIK gehts da um die DrawCall-Aufrufen. Das ist eigentlich mehr ein Flaschenhals von DirectX (der im Endeffekt aber auch dazu führt, das das ganze CPU-Lastiger wird).
Ebenfalls AFAIK hat OGL diesen Flaschenhals nicht, auch nicht unter WinXP.

Gasthäusle
2006-09-20, 13:07:48
AFAIK gehts da um die DrawCall-Aufrufen. Das ist eigentlich mehr ein Flaschenhals von DirectX (der im Endeffekt aber auch dazu führt, das das ganze CPU-Lastiger wird).
Ebenfalls AFAIK hat OGL diesen Flaschenhals nicht, auch nicht unter WinXP.

Da frage ich mich, warum nur id auf OGL setzt. Da wäre doch mehr rauszuholen ... gut man müßte zwar mehr Renderpfade anbieten ... aber um sich von der Konkurenz abzuheben wäre es doch ideal oder nicht ?

Gast_
2006-09-20, 13:28:18
Da frage ich mich, warum nur id auf OGL setzt.

Weil der Support für D3D von Seiten der IHVs und vor allem Microsoft unglaublich viel besser ist.

Mit entsprechendem Drawcall-Batching und Instancing ist es auch nicht so schlimm und mit Vista ist das Problem sowieso gegegessen.

up¦²
2006-09-20, 22:18:31
Ati Agitprop :wink:
http://img71.imageshack.us/img71/4963/4918qo51x81tal4.jpg

http://img71.imageshack.us/img71/2056/u3t9pvpwxd10fa9.jpg

http://img71.imageshack.us/img71/4740/zplaa92921teqi4.jpg

tEd
2006-09-20, 22:35:40
how is that possible? ;D

Flamehaze
2006-09-20, 22:47:03
Der R600 wird bestimmt ein 384-bittiges SI haben, weil der Ram Takt mit GDDR4 bei einem 256-bit SI nicht ausreichen würde, um damit auf die mehr als 80Gb/s Speicherbandbreite zu kommen. Außerdem müsste der Ram Takt um mind. die 80Gb/s zu erreichen höher als 1250 Mhz liegen.

Gast
2006-09-20, 22:48:29
Außerdem müsste der Ram Takt um mind. die 80Gb/s zu erreichen höher als 1250 Mhz liegen.
Wo ist da für GDDR4 das Problem?

AnarchX
2006-09-20, 22:48:31
Der R600 wird bestimmt ein 384-bittiges SI haben, weil der Ram Takt mit GDDR4 bei einem 256-bit SI nicht ausreichen würde, um damit auf die mehr als 80Gb/s Speicherbandbreite zu kommen. Außerdem müsste der Ram Takt um mind. die 80Gb/s zu erreichen höher als 1250 Mhz liegen.

Mit GDDR4 locker machbar...

edit: time-owned^^

deekey777
2006-09-20, 23:01:43
how is that possible? ;D
Alles ist möglich, wenn du es nicht glaubst, ich schreib für dich auch eine Präsentation, denn das, was oben steht, ist eigentlich nicht als unexpected zu werten, bis auf einige Sachen:
- Ohne Verschreiber sind Präsentationen unglaubwürdig. :biggrin:
- 4xMSAA ohne "performance Degredation" (degradation)? Woher kennen wir das bloß *grübbel* Xenos/C1.
- HD-Audio? Das ist wirklich interessant. Was gemeint ist, ist meiner Meinung nach, dass die kommende R600-Generation den "HD-Ton" direkt von der CPU an den Receiver/Fernseher über HDMI weiterleiten kann - ohne einen Umweg über die Soundkarte.

Gast
2006-09-20, 23:04:24
- 4xMSAA ohne "performance Degredation" (degradation)? Woher kennen wir das bloß *grübbel* Xenos/C1..

Unwahrscheinlich. Soviel eDRAM können sie nicht verbauen.

deekey777
2006-09-20, 23:10:40
Unwahrscheinlich. Soviel eDRAM können sie nicht verbauen.
Dass das eDRAM nicht auf den Desktop-Grafikkarten zu finden sein wird, hat Herr Orton schon angedeutet, eDRAM fällt schonmal weg.
Entweder hat sich jemand einen üblen Scherz erlaubt, oder oder?
Auch interessant: letztes Bild, auf dem ein Screenshot aus Humus' HDR-Demo (http://www.humus.ca/index.php?page=3D&ID=62) zu sehen ist. Ausgerechnet aus dieser Demo?

dildo4u
2006-09-20, 23:11:28
Werden sie auch nicht deshalb ergibts ja noch weniger Sinn bei der 360 haben sie es ja damit begründet das das wegen der schnellen Anbindung an das E-Dram geht.

up¦²
2006-09-20, 23:21:57
Hier die Überquetschung des chin. Originals:
(vermutlich kommt das aus Cebit Asia, die gerade läuft ...)
http://translate.google.com/translate?u=http%3A%2F%2Fdiy.yesky.com%2Fvga%2F217%2F2586217.shtml&langpair=zh-CN%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Gouvernator
2006-09-20, 23:24:39
Wenn man diesen HyperZ buffer dingsbums vergrössert dann gibts auch bei 1600x1200 AA for Free. Die aktuelle Generation hat jetzt kaum Einbusen bei 1024x768 12000->10000 Punkte in 3dmark05.

deekey777
2006-09-20, 23:43:07
Wenn man diesen HyperZ buffer dingsbums vergrössert dann gibts auch bei 1600x1200 AA for Free. Die aktuelle Generation hat jetzt kaum Einbusen bei 1024x768 12000->10000 Punkte in 3dmark05.

HyperZ ist HyperZ, das ist eine Bandbreite schonnende Maßnahme, dann gibt HierZ, hier geht es ums Verwerfen unsichtbarer Kacheln. Z/Stencil ist wiederum eine ganz andere Sache, hier geht es ums Nicht-Berechnen als unsichtbar markierter Pixel. Korrekturen erwünscht.

Wenn die durchgesickerten Infos des RV570 stimmen, dann schafft dieser die 1,5-fache Z/Stencil-Leistung des R580.

Gast
2006-09-20, 23:51:58
Dass das eDRAM nicht auf den Desktop-Grafikkarten zu finden sein wird, hat Herr Orton schon angedeutet, eDRAM fällt schonmal weg.

Dann kanns per-se nicht "umsonst" sein ;)

up¦²
2006-09-21, 00:17:35
can provide 10 times higher than R580 geometric performance

Was haltet ihr davon?

Gast
2006-09-21, 00:21:19
Ziemlich schlüssig, weil ja alle ALUs für Vertexarbeit benützt werden können.

Ailuros
2006-09-21, 13:49:11
Wenn man diesen HyperZ buffer dingsbums vergrössert dann gibts auch bei 1600x1200 AA for Free. Die aktuelle Generation hat jetzt kaum Einbusen bei 1024x768 12000->10000 Punkte in 3dmark05.

Die aktuelle Generation ist auch verdammt CPU-limitiert in 1024*768, daher ist es auch vollkommen selbstverstaendlich dass der Einbruch hier bei ~16% liegt.

MSAA mit dem kleinst moeglichen Speicher- und Bandbreitenverbrauch bekommst Du auf TBDRs; das HyperZ Dingsbums reicht hier nicht.

Ailuros
2006-09-21, 13:50:34
Ziemlich schlüssig, weil ja alle ALUs für Vertexarbeit benützt werden können.

Wobei es aber einen gesunden Abstand hier zwischen Theorie und Praxis gibt; koennen IHVs nicht mit etwas besserem werben als mit dem Quark?

deekey777
2006-09-21, 14:17:04
Wobei es aber einen gesunden Abstand hier zwischen Theorie und Praxis gibt; koennen IHVs nicht mit etwas besserem werben als mit dem Quark?
Ist doch egal, dass die gesteigerte Geometrie-Leistung nie in einem Spiel zu sehen sein wird: Papier ist geduldig.
10fache Leistung bedeutet was? 8xVS auf 650 MHz sind 1.3 GVertrizen/s. Das 10fache wären dann 13 GV/s und das mal 4 und durch 64... 800 MHz?

800 MHz? Achthundertmegahertz? :|
Kann nicht stimmen.
Egal. Fudo hat was geschrieben, und es wäre interessant, wenn das stimmen würde:
http://www.theinquirer.net/default.aspx?article=34510
R600 is hot and late. But at least it will have high frequency and a 64 unified Shader units. This means that in the best case scenario you will be able to count on roughly 60 Shaders and some vertex information per clock.
Vierer Granularität? Natürlich könnte es sein, dass Fudo nur beschreiben wollte, wie so eine USA funktioniert und die Zahlen aus der Luft gegriffen. Aber wenn er das von dem Schwagers des Bruders des Onkels von Orton weiß, ist das wirklich interessant.

Ailuros
2006-09-21, 14:37:16
Bullshit hat viele Farben:

http://www.beyond3d.com/forum/showpost.php?p=834978&postcount=450

deekey777
2006-09-21, 14:47:27
Bullshit hat viele Farben:

http://www.beyond3d.com/forum/showpost.php?p=834978&postcount=450

Die Frage ist, ob 10fache Geometrie-Leistung beim R600 oder 12fache beim G80 überhaupt was mit dem tatsächlichen Vorhandensein der VS zu tun haben.

10fache Leistung = 10x mehr Einheiten bzw. weniger als 10x, aber der höhere Takt gleicht das aus.
10fache Leistung = mit weniger Einheiten erreichen wir die gleiche Leistung wie R580 mit 10x8 R580-VS.

Für das zweite spricht: Das dynamische Branching im VS schmeckt dem R580 nicht so gut, beim R600 wurde die DB-Performance gesteigert und das so, als ob er 80 VS des R580 hätte oder der R580 80 VS haben müsste, um die gleiche Leistung zu erreichen.
Ähnliches kann man auf den G80 übertragen.

Gast
2006-09-21, 14:49:56
Wer braucht den so eine Leistung?!
Niemand, niemadn benötigt eine so hohe Vertexleistung in einem Spiel...okay bestimmte Programme können ihren Nutzen daraus ziehen.

Ansonsten....heilige Scheiße!

Quasar
2006-09-24, 09:32:22
HyperZ ist HyperZ, das ist eine Bandbreite schonnende Maßnahme, dann gibt HierZ, hier geht es ums Verwerfen unsichtbarer Kacheln.
HyperZ ist der Marketing-Oberbegriff für sowohl bandbreitenschonende Maßnahmen als auch EarlyZ. Hierarchical-Z ist als dreistufige* Verwerfungsinstanz Teil von HyperZ.


*in manchen Chips beschnitten.

Ailuros
2006-09-24, 10:31:27
HyperZ ist der Marketing-Oberbegriff für sowohl bandbreitenschonende Maßnahmen als auch EarlyZ. Hierarchical-Z ist als dreistufige* Verwerfungsinstanz Teil von HyperZ.


*in manchen Chips beschnitten.

Wenn mich mein Gedaechtnis nicht betruegt, kam early Z zu HyperZ III bzw. R3xx erst dazu (genug zur Haarspalterei ;) )

Gast
2006-09-24, 10:43:42
Wer braucht den so eine Leistung?!
Niemand, niemadn benötigt eine so hohe Vertexleistung in einem Spiel...okay bestimmte Programme können ihren Nutzen daraus ziehen.

Ansonsten....heilige Scheiße!

Das ist ja auch nur ein Nebeneffekt der USA. So schlimm ist das ja nicht ;)

aths
2006-09-24, 11:11:32
HyperZ ist HyperZ, das ist eine Bandbreite schonnende Maßnahme, dann gibt HierZ, hier geht es ums Verwerfen unsichtbarer Kacheln.HierarchicalZ ist Teil von HyperZ.

Egal. Fudo hat was geschrieben, und es wäre interessant, wenn das stimmen würde:Was Fudo schreibt, sollte man grundsätzlich nicht (edit!) lesen und wenn man es aus Versehen doch liest, ignorieren. Nur weil der mal Glückstreffer hat, ist er noch lange keine Diskussiongrundlage, imo nicht mal im Spekulations-Forum. Fudo beachtet gewisse Grundregeln journalistischer Arbeit nicht.


Wenn mich mein Gedaechtnis nicht betruegt, kam early Z zu HyperZ III bzw. R3xx erst dazu (genug zur Haarspalterei ;) )EarlyZ ist quasi in HierZ schon drin, was wiederum Bestandteil von HyperZ ist.


can provide 10 times higher than R580 geometric performanceWas haltet ihr davon?Nix. Für Spiele irrelevant.

deekey777
2006-09-24, 12:23:39
Was Fudo schreibt, sollte man grundsätzlich nicht lesen und wenn man es aus Versehen doch liest, ignorieren. Nur weil der mal Glückstreffer hat, ist er noch lange keine Diskussiongrundlage, imo nicht mal im Spekulations-Forum. Fudo beachtet gewisse Grundregeln journalistischer Arbeit nicht.
Grundsätzlich nicht lesen?

Es ging mir nur um die Frage nach der Granularität des R600: Können einzelne Units VS-, GS- oder PS-Programme ausführen oder nur in vierer Gruppen oder achter, zwölfer...
Der Xenos/C1 soll in einem "non-unified" Fall (1/3 VS, 2/3 PS) bis zu 20-25 % der Leistung verlieren, wenn das Spiel PS-limitiert ist. (Quelle (http://www.xbitlabs.com/news/video/display/20060525104243.html))
Welche Auswirkungen hat eine zu hohe Granularität? Resourcenverschwendung?

StefanV
2006-09-24, 12:59:20
Dass das eDRAM nicht auf den Desktop-Grafikkarten zu finden sein wird, hat Herr Orton schon angedeutet, eDRAM fällt schonmal weg.
Entweder hat sich jemand einen üblen Scherz erlaubt, oder oder?
Auch interessant: letztes Bild, auf dem ein Screenshot aus Humus' HDR-Demo (http://www.humus.ca/index.php?page=3D&ID=62) zu sehen ist. Ausgerechnet aus dieser Demo?
Hm, Z-RAM? ;)

Das es eDRAM nicht in hoch integrierten Logischen Schaltungen geben kann, ist auch logisch, denn damit hatte eDRAM so ein paar Probleme, aufgrund der Eigenheit, die eine Fertigung für DRAM Fertigung aufweisen muss...

Ailuros
2006-09-24, 13:27:32
EarlyZ ist quasi in HierZ schon drin, was wiederum Bestandteil von HyperZ ist.

:confused:

If you remember back to our Radeon 8500 review, we explained that HYPER-Z II's Hierarchical Z Buffer consisted of two layers which, if a positive occlusion was met on all parts of the lower resolution Z buffer, could reject up to 64 pixels worth of data and save passing that to the frame buffer, thereby minimising bandwidth usage. However, apparently it would seem that HYPER-Z II did not feature an early Z detection routine on the display resolution Z buffer, meaning that if the pixels being tested failed the hierarchical test all the pixels would be rendered regardless of whether some of them would have actually failed. Without early Z detection at the display resolution buffer this means that all the texturing and even possibly lengthy pixel shading operations would be carried on pixels regardless of whether it's occluded or not.

http://www.beyond3d.com/reviews/ati/radeon9700pro/index.php?page=page4.inc#hyper

aths
2006-09-24, 13:33:39
Grundsätzlich nicht lesen?

Es ging mir nur um die Frage nach der Granularität des R600: Können einzelne Units VS-, GS- oder PS-Programme ausführen oder nur in vierer Gruppen oder achter, zwölfer...
Der Xenos/C1 soll in einem "non-unified" Fall (1/3 VS, 2/3 PS) bis zu 20-25 % der Leistung verlieren, wenn das Spiel PS-limitiert ist. (Quelle (http://www.xbitlabs.com/news/video/display/20060525104243.html))
Welche Auswirkungen hat eine zu hohe Granularität? Resourcenverschwendung?Zu feine Granularität dürften wir nicht erleben, eben weil das zu viel kostet. Ob die Shader-Units einzeln betrieben werden können oder nicht, werden wir sehen. Die Endleistung muss stimmen. Wenn man nun gleich vier Shader zum Vertexshading abstellen muss, obwohl einer reichen würde, und man 64 Shader (also 16 Quadshader) hätte, würden statt 63 dann 60 Shader verbleiben. Das macht doch kaum einen Unterschied.


:confused:

http://www.beyond3d.com/reviews/ati/radeon9700pro/index.php?page=page4.inc#hyperWieso bist du confused? Early Z ist Bestandteil von HyperZ seit R100. Die Frage ist, mit welcher Granularität Early-Z dort arbeitete. Noch nicht auf Quad-Ebene, aber es konnten größere Kacheln verworfen werden, wenn sie komplett unsichtbar waren.

Wishnu
2006-09-24, 13:36:50
can provide 10 times higher than R580 geometric performanceWas haltet ihr davon?

Sicherlich ganz toll für Techdemos. :)

Ailuros
2006-09-24, 13:38:27
Hm, Z-RAM? ;)

Das es eDRAM nicht in hoch integrierten Logischen Schaltungen geben kann, ist auch logisch, denn damit hatte eDRAM so ein paar Probleme, aufgrund der Eigenheit, die eine Fertigung für DRAM Fertigung aufweisen muss...

Fuer fette caches koennte ich jegliche Form von "eingebettetem" Speicher fuer den PC verstehen, aber fuer etwas wie einen "MSAA-framebuffer" a la Xenos wozu denn genau?

Das Dilemma ist stets ob jegliche Unkosten das Resultat auch wirklich wert sind. Ich sehe ehrlich gesagt bis jetzt mit der Steigerung der Bandbreite und den Speichermengen kein besonderes Problem wenn es zu MSAA kommt. In der absehbaren Zukunft reicht 1.5GHz GDDR4 schon etwa an die ~100GB/s Grenze und ich bezweifle dass es bei 512MB Speicher fuer die naechste Generation bleiben wird.

Wenn dann solche Uebermengen an Bandbreite und Speicher nicht mehr ausreichen sollte fuer sehr hohe Aufloesungen + MSAA, liegen die Flaschenhaelse einer jeglichen GPU wohl zuerst wo anders als bei der Bandbreite.

Ailuros
2006-09-24, 13:51:11
Wieso bist du confused? Early Z ist Bestandteil von HyperZ seit R100. Die Frage ist, mit welcher Granularität Early-Z dort arbeitete. Noch nicht auf Quad-Ebene, aber es konnten größere Kacheln verworfen werden, wenn sie komplett unsichtbar waren.

Der Gewinn ist mir zu gering dass ich es erstmal early-Z nennen wuerde. In meiner laienhaften Vorstellung war early-Z stets (stark vereinfacht) "an unshaded pass followed immediately by a shaded pass" und zu dem ist das obrige wohl doch nicht gut genug oder ich hab das Ganze von vorne und hinten falsch verstanden.

Gast
2006-09-24, 13:55:52
Early-Z bedeutet lediglich, dass der Pixelshader nicht durchläuft wenn das Pixel sowieso verworfen wird, weil schon ein Polygon davor ist.

Hier-Z kann auch gleich ganze Dreiecke verwerfen wenn es für die Kachel auf jedenfall weiter hinten als jeder der Zixel in diesem Quad liegt.

Hvoralek
2006-09-24, 15:14:15
Sicherlich ganz toll für Techdemos. :)Mit wahnwitzig vielen Polygonen, aber kaum Shading?

Wishnu
2006-09-24, 15:23:01
Mit wahnwitzig vielen Polygonen, aber kaum Shading?

Wobei - könnte man das nicht bspw. beim Displacement Mapping einsetzen (Stichwort Tesselation)? Oder geschieht das wo anders (bin ja nur ein armer Laie)? ;)

aths
2006-09-24, 16:19:45
Der Gewinn ist mir zu gering dass ich es erstmal early-Z nennen wuerde. In meiner laienhaften Vorstellung war early-Z stets (stark vereinfacht) "an unshaded pass followed immediately by a shaded pass" und zu dem ist das obrige wohl doch nicht gut genug oder ich hab das Ganze von vorne und hinten falsch verstanden.HyperZ kann mit HierarchicalZ große Kacheln rauswerfen, die dann gar nicht mehr in die Pipe kommen. Sofern nur ein Subpixel sichtbar ist, darf die gesamte Kachel durch den Z-Test. Hier hat R200 noch kein Early-Z auf Quad-Basis. Mit "richtigem" Early-Z ist es effizenter. HierZ kann aber bereits Kacheln wegwerfen.

Mit wahnwitzig vielen Polygonen, aber kaum Shading?Bei wahnwitzig vielen Polygonen reicht flat shading – und man könnte sogar die Texturen weglassen. Nur dürfte das im Rendering ziemlich langsam sein.

Gast
2006-09-24, 17:18:07
Bei wahnwitzig vielen Polygonen reicht flat shading

Nö. Man kann ja immer noch nah ran. Da bräuchte man wirklich sehr sehr sehr sehr viele Polygone.

aths
2006-09-24, 17:35:23
Nö. Man kann ja immer noch nah ran. Da bräuchte man wirklich sehr sehr sehr sehr viele Polygone.Bei "wahnwitzig" vielen Polygonen könnte man auch nah ran. Die Detail-Auflösung wäre dann bei 4 Pixel großen Dreiecken wohl noch besser als bei HL2.

Gast
2006-09-24, 19:26:57
Was unterscheidet jetzt eigentlich einen USC von einem normallen Shadercore, wie er in Vertex- und Pixelshadern zu finden ist?

Nimmt der USC Zustände eines Pixel-, Geo- oder Vertexshaders an oder berechnet er alles gleich?

Gast
2006-09-24, 20:17:36
Bei "wahnwitzig" vielen Polygonen könnte man auch nah ran. Die Detail-Auflösung wäre dann bei 4 Pixel großen Dreiecken wohl noch besser als bei HL2.

Weißt du eigentlich was für ein perverses Aliasing du damit erzeugen würdest ohne LOD? Das wäre wie Texturen ohne Mipmaps.

Moralelastix
2006-09-25, 14:40:54
http://uk.theinquirer.net/?article=34594

ShadowXX
2006-09-25, 15:07:43
http://uk.theinquirer.net/?article=34594

Das sagt zwar noch nicht über die Granularität, aber immerhin wirds wohl keine "waits" für das switchen zwischen PS/VS/(GS?) geben:

For its part, ATI claims that it managed to totally eliminate vertex to pixel switching overhead, a problem that the developers have been struggling with for a while.

Gast
2006-09-25, 15:38:13
Das sagt zwar noch nicht über die Granularität, aber immerhin wirds wohl keine "waits" für das switchen zwischen PS/VS/(GS?) geben:

Keine Waits...das ist nett und sehr effektiv. Somit kann die Limitierung eines bestimmten Faktors erfolgreich eliminiert werden.

AnarchX
2006-09-27, 16:29:35
Die R600 Mainstream-Ableger und ihre Codenamen:

RV610 "Bum", RV630 "Shaka" und RV660 "Laka"
;D

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/september/ati_codenamen_chips/

Ferengie
2006-09-27, 16:33:57
Synonymous with the one word form (boomshakalaka). This is like a slap in the face when you beat somebody one on one, or when something amazing happens.

Wenn das stimmt, lehnt sich ATI dabei aber weit aus dem Fenster.

Gaestle
2006-09-27, 16:34:57
Die R600 Mainstream-Ableger und ihre Codenamen:

RV610 "Bum", RV630 "Shaka" und RV660 "Laka"
;D

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/september/ati_codenamen_chips/

Mist, zu spät.

Aber hier der Link zum Orschenooool ....

http://uk.theinquirer.net/?article=34627


Man beachte bitte "Bum" (der Faulenzer bzw. das popöchen)

Boom Shaka Laka Boom Shak oder so.

Ist dass nicht so'n Will Smith - Hit?

Grüße


.

Wenn das stimmt, lehnt sich ATI dabei aber weit aus dem Fenster.

Ich denke, FUAD wurde vergageiert.


.

Gast
2006-09-27, 19:07:30
Boom shake shake shake the room!Jo war damals der durchbruch für Will smith zu Prince of Bel air Zeiten.

paul.muad.dib
2006-09-27, 20:24:58
Boom shake shake shake the room!Jo war damals der durchbruch für Will smith zu Prince of Bel air Zeiten.

jetzt wissen wir also, wie es bei Ati zugeht. Ich stelle mir gerade ein paar Ingenieure in weißen Kitteln mit Gettoblaster vor:ass2: :naughty: :ucatch: :uhippie:

Moralelastix
2006-10-02, 12:47:56
http://uk.theinquirer.net/?article=34799

500+ Mio!

Botcruscher
2006-10-02, 13:01:19
Bei einem Blick auf den R580 nicht wirklich überaschend.

Ailuros
2006-10-02, 13:07:17
Irgendwie hab ich das Gefuehl dass es um einiges mehr als 500M sein koennten und die Geruechte dass es yield Probleme gibt klingeln mal wieder im Hintergrund. Wieviel man den zweiten Geruechten genau glauben kann weiss ich natuerlich noch nicht.

Winter[Raven]
2006-10-02, 13:15:17
Irgendwie hab ich das Gefuehl dass es um einiges mehr als 500M sein koennten und die Geruechte dass es yield Probleme gibt klingeln mal wieder im Hintergrund. Wieviel man den zweiten Geruechten genau glauben kann weiss ich natuerlich noch nicht.

Hmm... wie sieht es bei NV aus mit den Yields?

Ailuros
2006-10-02, 14:00:58
']Hmm... wie sieht es bei NV aus mit den Yields?

Wer behauptet dass es genug samples fuer einen hard launch a la G70 geben wird, wuerde zumindest momentan luegen. Man kann natuerlich auch vieles mit "hard launch" meinen...:rolleyes:

Winter[Raven]
2006-10-02, 14:16:20
Wer behauptet dass es genug samples fuer einen hard launch a la G70 geben wird, wuerde zumindest momentan luegen. Man kann natuerlich auch vieles mit "hard launch" meinen...:rolleyes:

Mit andere Worten, wohl genauso "bescheiden" wie bei ATi mit dem R600... Hmmm ... bei dem Transitorcount auch nicht wirklich verwunderlich.

Der Türke
2006-10-02, 14:18:56
kann man davon ausgehen, dass die mainstream produkte gleichzeitig mit den high-end modellen veröffentlicht werden?

hab in der erinnerung, dass dies bei gf4 so war...

Hvoralek
2006-10-02, 14:18:59
Man kann natuerlich auch vieles mit "hard launch" meinen...:rolleyes:Du denkst an R520/ RV530?

Ailuros
2006-10-02, 14:21:09
Du denkst an R520/ RV530?

Ich meinte eigentlich NV; es kann sein dass sie es "hard launch" nennen, aber ich bezweifle dass die Verfuegbarkeit so gut sein wird wie bei G70.

Was jetzt ATI betrifft, falls sie wieder auf sehr hohe Taktraten gesetzt haben, will ich nicht so frueh schon ueber falsche Strategien meckern.

[](-__-)[]
2006-10-02, 17:04:36
Ist das die R600?

http://tech.sina.com.cn/h/2006-09-26/2029111583.shtml

paul.muad.dib
2006-10-02, 17:22:10
Glaube eher nicht, dass sie diesen Lüfter haben wird. Tippe eher auf ein X1950 XTX ähnliches Konzept.

PCGH_Carsten
2006-10-02, 17:34:12
Das ist noch der Kühler einer X850. Wenn, dann werden die kleinen Modelle der RV-Reihe darüber verfügen - was ich aber nicht glaube.

r3ptil3
2006-10-02, 17:38:24
(-__-)[]']Ist das die R600?

http://tech.sina.com.cn/h/2006-09-26/2029111583.shtml

Das ist nicht nur der Lüfter einer X850, sondern auch ein R480 Grafikchip.

Hvoralek
2006-10-02, 17:41:21
Das ist nicht nur der Lüfter einer X850, sondern auch ein R480 Grafikchip.Woran erkennst Du das denn?

r3ptil3
2006-10-02, 17:42:29
X850 XT:
http://img436.imageshack.us/img436/5456/1ty7.jpg

Botcruscher
2006-10-03, 00:25:11
Ack. Hier sind wieder lustige Faker am werk.

Gast
2006-10-03, 09:23:58
Das ist nicht nur der Lüfter einer X850, sondern auch ein R480 Grafikchip.
Den Chip kann ich zwar durch den Kühler hindurch nicht erkennen, aber das PCB sieht aus wie das einer X850. Nur: Wer sagt, dass die neueren kleinen Chips nicht pinkompatibel sind, sodass man die evtl. noch vorhandenen Boards weiterbenutzen kann.


Q

Gast
2006-10-03, 09:31:14
Genau der Nachfolger vom R5xx ist pinkompatibel zu R4xx... ääh?

Gast
2006-10-03, 13:46:35
WEr doch gut ! Die X850 Serie war leise!

StefanV
2006-10-03, 14:16:24
...aber nur in deinen Gedanken...
Gab arge Probleme mit der PWM Steuerung...

Gast
2006-10-03, 14:28:35
WEr doch gut ! Die X850 Serie war leise!Ansichtssache. Wenn man sie mit einer 7900GTX oder 7800GTX vergleicht, war sie alles andere als leise.

Gast
2006-10-03, 15:51:37
Genau der Nachfolger vom R5xx ist pinkompatibel zu R4xx... ääh?

RV, nicht R.
Außerdem: Was spräche dagegen? GF6600 und 7600 sind IIRC ebenfalls pinkompatibel, im NB-Bereich ist das seit langem ein großes Plus für Design-Wins bei den OEMs. Und wenn man nun noch eine Menge Boards und Kühler auf Halde liegen hätte - was spräche dagegen, dass man im Rahmen der Kostenoptimierung mal auf pinkompatibilität geachtet hätte?

Gast
2006-10-03, 15:53:24
Ansichtssache. Wenn man sie mit einer 7900GTX oder 7800GTX vergleicht, war sie alles andere als leise.

Vielleicht hat Ati es ja geschafft, mit dem RV560/570 unter die Abwärme des R480/1 zu kommen - dann könnte derselbe Kühler durchaus auch leise ausfallen.

Gast
2006-10-03, 21:33:35
kann man davon ausgehen, dass die mainstream produkte gleichzeitig mit den high-end modellen veröffentlicht werden?

hab in der erinnerung, dass dies bei gf4 so war...


hallo,

kann evtl einer bitte die frage versuchen zu beantworten

thx

themk
2006-10-03, 22:58:58
Wenn ich mich nicht irre, wurden TI4200/4400/4600 gleichzeitig released.

GF4MX (aka GF2) sowie GF4ti4800se und wie sie alle hießen kamen später.

Gast
2006-10-04, 09:23:35
Wenn ich mich nicht irre, wurden TI4200/4400/4600 gleichzeitig released.

GF4MX (aka GF2) sowie GF4ti4800se und wie sie alle hießen kamen später.

Wenn ich mich nicht irre kamen zuerst die 4400 und 4600, die 4200 gab es erst später zu kaufen.

StefanV
2006-10-04, 12:39:13
Wenn ich mich nicht irre kamen zuerst die 4400 und 4600, die 4200 gab es erst später zu kaufen.
Du irrst dich nicht, war wirklich so (ists ja meistens, das etwas von oben herab releast wird)...

Gast
2006-10-04, 14:09:27
Du irrst dich nicht, war wirklich so (ists ja meistens, das etwas von oben herab releast wird)...


heißt das dann, dass die mainstreamprodukte wieder in ca. 1/2 jahr kommen werden? schade...

Anarchy-HWLUXX
2006-10-04, 14:13:24
Wenn ich mich nicht irre, wurden TI4200/4400/4600 gleichzeitig released.

GF4MX (aka GF2) sowie GF4ti4800se und wie sie alle hießen kamen später.

Die GF4MX kam zusammen mit der Ti Serie.

Die 4800SE war die AGP 8* version der 4400er, dann gab es noch die 4200-8x und die 4800 - der übliche Refresh.

deekey777
2006-10-04, 15:47:31
Zurück zum Thema (das ist der R600).

deekey777
2006-10-06, 13:58:10
http://www.chilehardware.com/modules.php?op=modload&name=News&file=article&sid=1631&mode=thread&order=0&thold=0

http://img167.imageshack.us/img167/4748/8pu5.jpg (http://imageshack.us)
R600 in Q1 2007, Next-Gen-R600 in Q3 2007?:|

Hier aber ist ein Fehler:
http://img301.imageshack.us/img301/4117/41ma3.th.jpg (http://img301.imageshack.us/my.php?image=41ma3.jpg)
Es gibt kein "Ghost Recon: Jungle Storm" für PC, sondern nur für Konsolen...

Ailuros
2006-10-06, 14:40:24
65nm R6x0 oder D3D10+1? Da klingt das erste wohl wahlscheinlicher.

StefanV
2006-10-06, 15:02:35
4 Graphics?!
Wie soll das denn gehen??

AnarchX
2006-10-06, 15:07:41
4 Graphics?!
Wie soll das denn gehen??

Mit vier PEGs, zudem ist ja 4Way-AFR mit D3D10 WHQL-konform.;)
Zudem werden wohl nicht alle Graphics für Grafik eingesetzt werden - Crossfire Physics.

Gast
2006-10-06, 15:13:17
Gibt's doch schon 'ne Weile:
http://www.asus.com/products4.aspx?l1=3&l2=82&l3=249&model=1341&modelmenu=1


Q

Zauberer
2006-10-06, 15:14:01
http://www.chilehardware.com/modules.php?op=modload&name=News&file=article&sid=1631&mode=thread&order=0&thold=0

http://img167.imageshack.us/img167/4748/8pu5.jpg (http://imageshack.us)
R600 in Q1 2007, Next-Gen-R600 in Q3 2007?:|

Hier aber ist ein Fehler:
http://img301.imageshack.us/img301/4117/41ma3.th.jpg (http://img301.imageshack.us/my.php?image=41ma3.jpg)
Es gibt kein "Ghost Recon: Jungle Storm" für PC, sondern nur für Konsolen...

Marketing ist immer Blöd, ich finde ein neuer P965 Chipsatz mit einem Intel C2D und einer ATI 1950XTX immer noch die schnellste Single-GPU-Combo.
Ich hoffe das es dann auch so noch 1 Jahr min. bleibt, sonst werde ich mir bald keine ATI bzw. AMD Grafikkarten kaufen, falls Intel CPUs oder Chipsätze extra ausgebremst werden.
Das wäre was wenn der R600 auf Intel-Systemen eine lahme Krücke wäre.

Merkor
2006-10-06, 15:28:22
Mit dem "Failed" spielen sie nur auf die im G965 (nicht P965) integrierte Intel-Grafiklösung an.

aths
2006-10-07, 08:10:19
Wenn ich mich nicht irre, wurden TI4200/4400/4600 gleichzeitig released.

GF4MX (aka GF2) sowie GF4ti4800se und wie sie alle hießen kamen später.Es kamen GeForce 4 Ti 4400 und Ti 4600, sowie GeForce 4 MX 420, 440 und 460. Die GeForce 4 Ti 4200 kam später.


Mit vier PEGs, zudem ist ja 4Way-AFR mit D3D10 WHQL-konform.;)
Zudem werden wohl nicht alle Graphics für Grafik eingesetzt werden - Crossfire Physics.2 GPUs für Grafik, 2 GPUs für Physik? Ich glaube kaum, dass sich das durchsetzen wird. Haben nicht schon alle (ATI wie auch Nvidia) gerufen dass Physik-Beschleunigung via GPU schon heute mit ihren Produkten möglich wäre? Wo bleiben die Produkte im Handel, wo bleibt der Support der Software? Da wurde erst mal groß Wind gemacht. Jetzt werden wir auf D3D10 vertröstet. Es ist immer das gleiche Spiel.

Ich frage mich: Wozu eine Extra-GPU für Effekt-Physik, wenn man z. B. mit aufwändigen Vertexshader-Programmen und erst recht dem Geometry-Dings der D3D10-GPUs gleich Effektphysik ins Rendering integrieren kann.

StefanV
2006-10-07, 16:35:57
Mit vier PEGs, zudem ist ja 4Way-AFR mit D3D10 WHQL-konform.;)
Zudem werden wohl nicht alle Graphics für Grafik eingesetzt werden - Crossfire Physics.

Und jetzt sag mir mal, wie ich 4 Karten mit Dual Slot Kühlern in den Rechner bekommen soll...

Bei BAT Gehäusen, kein Problem, aber 'leider' haben wir kein BAT mehr!

Ailuros
2006-10-08, 00:57:18
Und jetzt sag mir mal, wie ich 4 Karten mit Dual Slot Kühlern in den Rechner bekommen soll...

Bei BAT Gehäusen, kein Problem, aber 'leider' haben wir kein BAT mehr!

Wer genau sagt denn dass man unbedingt dual slot GPUs einsetzen muss? Es wuerde mich kein bisschen wundern wenn man in der Zukunft eine (oder zwei) high end GPUs fuer Grafik und eine (oder zwei) mainstream GPUs fuer physics als Beispiel kombinieren koennte.

Ich kann mir schwer vorstellen dass man bei D3D10 GPUs ein high end Monster braucht um nur physics zu berechnen.

StefanV
2006-10-08, 23:32:19
@Ail

Am Ende bleibt unterm Strich nur zu sagen, das 4 x8 slots bzw mit 8 Lanes belegte x16 Slots völliger bullshit sind, doch was, wenn der Chipsatz bzw dieses Feature garnicht für uns gedacht ist?!

Denn 'woanders' machen 4 x8 Slots weitaus mehr Sinn...

Ailuros
2006-10-09, 07:02:09
@Ail

Am Ende bleibt unterm Strich nur zu sagen, das 4 x8 slots bzw mit 8 Lanes belegte x16 Slots völliger bullshit sind, doch was, wenn der Chipsatz bzw dieses Feature garnicht für uns gedacht ist?!

Denn 'woanders' machen 4 x8 Slots weitaus mehr Sinn...

Uhhm fuer den ersten R600 Schub werden 3 PCI-e slots angegeben und fuer den R6x0 Refresh dann erst 4. Wieso hab ich den Eindruck dass die letztere auf einem kleineren Herstellungsprozess kommen wird?

Fuer was soll denn genau eine roadmap gedacht sein die mit dem Titel "high end Crossfire" bestueckt wird? Oder glaubst Du in allem Ernst dass NV vorhat das quad-SLi Konzept aufzugeben und dass ATI darauf langfristig NICHT reagieren wird?

Die andere Alternative ist dann auch natuerlich die schon erwaehnten Physics-Moeglichkeiten; gegen eine mainstream RV6x0 oder G8x0 muss sich AGEIA schon wirklich was gutes einfallen lassen IMHLO.

nagus
2006-10-11, 08:09:14
R600 mit echtem 512Bit-Bus?

http://www.beyond3d.com/forum/showpost.php?p=850136&postcount=685

;D ;D ;D

AnarchX
2006-10-11, 09:41:19
R600 mit echtem 512Bit-Bus?

http://www.beyond3d.com/forum/showpost.php?p=850136&postcount=685

;D ;D ;D

Wenn sie wirklich ein 512bit SI hätten, wäre wohl eine etwas größere Angabe in der Marketingfolie zum R600 zur Speicherbandbreite gemacht wurden, als "more than 80GB/s".

ATI wird wohl eher auf GDDR4 setzen, im Q1 2007 sollte ja dann schon ausreichend schneller verfügbar sein.

Gast
2006-10-11, 09:59:08
Sie sage nicht wieviel mehr. Und es ist schon zu erwarten dass der R600 den G80 in jeder erdenklich Hinsicht vernichten wird. Daher warum sollten sie keine 512 Bit bringen ?

AnarchX
2006-10-11, 10:02:28
Sie sage nicht wieviel mehr.
Wenn man schon ein 512bit SI hat, würde man schon mit dessen gigantischer Bandbreite werben.
More than 80GB/s lässt nämlich nur auf 256bit+GDDR4 vermuten, anders wäre "more than 128GB/s"(512bit+GDDR4 1000MHz+).;)


Und es ist schon zu erwarten dass der R600 den G80 in jeder erdenklich Hinsicht vernichten wird. Daher warum sollten sie keine 512 Bit bringen ?
Wer hier vernichtet wird, wird sich noch zeigen...;)

Mancko
2006-10-11, 10:08:55
Sie sage nicht wieviel mehr. Und es ist schon zu erwarten dass der R600 den G80 in jeder erdenklich Hinsicht vernichten wird. Daher warum sollten sie keine 512 Bit bringen ?

Na hauptsache das vernichten wird nicht so wie mit dem R420 oder R520 , denn dann kanns Nvidia nämlich locker angehen lassen. Sie ownen ATI in cleverer Produktpolitik geradezu seit dem die R300 Ära vorbei ist.
Immerhin war ATI dann auch für AMD noch "relativ günstig" zu haben. Nvidia mit da schon mit einem deutlich größeren Preisaufschlag versehen :)

Gast
2006-10-11, 10:09:37
Der Thread kann geschlossen werden, das 3. Quartal ist rum.

Mancko
2006-10-11, 10:12:11
Der Thread kann geschlossen werden, das 3. Quartal ist rum.
und später als der G80 wird er auch kommen. Da haben einige bisserl zu euphorisch geträumt.

Botcruscher
2006-10-11, 10:41:35
Der Thread kann geschlossen werden, das 3. Quartal ist rum.

Das mit dem Titel hat hier Tradition.

Hvoralek
2006-10-11, 12:09:40
Der Thread kann geschlossen werden, das 3. Quartal ist rum.Dass das im dritten Quartal nichts mehr werden würde, war ja schon länger absehbar. Üblicherweise wird der Titel zwecks Wiedererkennbarkeit beibehalten (So stand auch im R520- Thread bis zuletzt etwas vom 1.Q. 2005 :biggrin: ).

Gast
2006-10-11, 13:52:35
Und es ist schon zu erwarten dass der R600 den G80 in jeder erdenklich Hinsicht vernichten wird.Soso, dann erzähl doch mal warum dies deiner Meinung nach so ist. Ich erwarte viel eher, dass es (wie immer) verdammt knapp wird. Je nach Anwendung ist mal R600 schneller, mal G80. Was man bevorzugt, hängt dann von den eigenen Prioritäten ab.

Hast du auch zu den Leuten gehört, die immer von einem 8-Quad-R520 geträumt und die große "Vernichtung" der 7800GTX angekündigt haben? Letztenendes war die x1800xt dann auf einem Niveau mit den G70-Karten.

Das gleiche Spiel dann mit dem G71. 32 Pipelines @ 750 MHz, der R580 wird böse geownt. Jaja, am Ende konnte die 7900GTX dann gerade mal mit der x1900xtx gleichziehen.

Wetten, dass es dieses Mal ähnlich laufen wird?

Gast
2006-10-11, 16:10:40
Soso, dann erzähl doch mal warum dies deiner Meinung nach so ist. Ich erwarte viel eher, dass es (wie immer) verdammt knapp wird. Je nach Anwendung ist mal R600 schneller, mal G80. Was man bevorzugt, hängt dann von den eigenen Prioritäten ab.

Hast du auch zu den Leuten gehört, die immer von einem 8-Quad-R520 geträumt und die große "Vernichtung" der 7800GTX angekündigt haben? Letztenendes war die x1800xt dann auf einem Niveau mit den G70-Karten.

Das gleiche Spiel dann mit dem G71. 32 Pipelines @ 750 MHz, der R580 wird böse geownt. Jaja, am Ende konnte die 7900GTX dann gerade mal mit der x1900xtx gleichziehen.

Wetten, dass es dieses Mal ähnlich laufen wird?

Schon klar, aber warum sollte ATI einen zu starken Chip rausbringen?
Man macht Chips meistens immer nur ein bisschen schneller als das Konkurrenzprodukt.

Gast
2006-10-12, 07:11:14
Die Chance, dass der R600 den G80 vernichtet ist deswegen wahscheinlich, weil ATI und nV mit völlig neuen Architekturen antreten und wenn man sieht wie es bei R300 gegen NV30 ausging, so kann es eben passieren, dass eine Seite die anderee wirklich vernichtet.

Der R600 wird in einem kleineren Prozess vorgestellt und wird imho ein absolutes Monster werden. G80 ist ne Übergangslösung mit Pseudo-DX10-Fahigkeiten. R600 ist DX10 - done right.

AnarchX
2006-10-12, 07:38:32
Die Chance, dass der R600 den G80 vernichtet ist deswegen wahscheinlich, weil ATI und nV mit völlig neuen Architekturen antreten und wenn man sieht wie es bei R300 gegen NV30 ausging, so kann es eben passieren, dass eine Seite die anderee wirklich vernichtet.

Der R600 wird in einem kleineren Prozess vorgestellt und wird imho ein absolutes Monster werden. G80 ist ne Übergangslösung mit Pseudo-DX10-Fahigkeiten. R600 ist DX10 - done right.
;D
Im Q1 2007 werden wie es sehen...

Gast
2006-10-12, 08:22:25
Und es ist schon zu erwarten dass der R600 den G80 in jeder erdenklich Hinsicht vernichten wird.

Da dies nichtmal zu Geforce-FX-Ausrutscher-Zeiten der Fall war, kann ich dank deiner netten Formulierung schon jetzt sagen: Das wird garantiert nicht der Fall sein. :D

Gast
2006-10-12, 08:24:17
Der R600 wird in einem kleineren Prozess vorgestellt und wird imho ein absolutes Monster werden. G80 ist ne Übergangslösung mit Pseudo-DX10-Fahigkeiten. R600 ist DX10 - done right.

Ati-Marketing? Aktuell würde ich eher darauf spekulieren, dass R600 sowas wie "D3D10 - done late" ist. Gut möglich, dass er dann auch schneller sein wird, als ein G80.

Wobei: Dieser soll ja auch einige Überraschungen in petto haben....


Q

(das drüber war auch ich - Q vergessen)

Zocker_28
2006-10-12, 08:42:10
Ich denk auch das der R600 den G80 ungespitzt in den Boden rammen tut.

Gast
2006-10-12, 08:46:23
Ati-Marketing? Aktuell würde ich eher darauf spekulieren, dass R600 sowas wie "D3D10 - done late" ist. Gut möglich, dass er dann auch schneller sein wird, als ein G80.

Wobei: Dieser soll ja auch einige Überraschungen in petto haben....


Q

(das drüber war auch ich - Q vergessen)

Der R600 bringt "fullpower for Windows Vista" , "ultimate DX10 Experience", "strong were the the opposition lacks", "the balanced way of DX10"...

"don´t buy DX10 cards to early, they are not fully DX10 ready"

Ailuros
2006-10-12, 10:16:35
Der R600 bringt "fullpower for Windows Vista" , "ultimate DX10 Experience", "strong were the the opposition lacks", "the balanced way of DX10"...

"don´t buy DX10 cards to early, they are not fully DX10 ready"

...and now more commercials please :biggrin:

Ailuros
2006-10-12, 10:20:06
Der R600 wird in einem kleineren Prozess vorgestellt und wird imho ein absolutes Monster werden. G80 ist ne Übergangslösung mit Pseudo-DX10-Fahigkeiten. R600 ist DX10 - done right.

Nun schiess mal los und erklaere dem verbluefftem Leser hier was genau "DX10- done right" sein soll und was genau "pseudo-DX10".

Godmode
2006-10-12, 10:24:17
Ati-Marketing? Aktuell würde ich eher darauf spekulieren, dass R600 sowas wie "D3D10 - done late" ist. Gut möglich, dass er dann auch schneller sein wird, als ein G80.

Wobei: Dieser soll ja auch einige Überraschungen in petto haben....


Q

(das drüber war auch ich - Q vergessen)

Und gibts schon was Konkretes zu der Überraschung, ich hoffe doch nicht das 200+ Watt Verbrauch die Überaschung ist :wink:

Gast
2006-10-12, 10:34:01
Nun schiess mal los und erklaere dem verbluefftem Leser hier was genau "DX10- done right" sein soll und was genau "pseudo-DX10".

Bin zwar nicht der Gast aber werde trotzdem mal antworten.

Ich gehe davon aus dass der G80 in Sachen DX9 stark sein wird, aber sobald die ersten DX10 Games kommen wird er nur noch die Rücklichter vom R600 sehen. Bis dahin werden es das Nvidia Marketing und die hier ansäßigen Meinungsmacher schon hinbiegen.

Die "Enthusiasten" kaufen sich eh immer die Hardware, die aktuell vorne mit dabei ist von ihrer Lieblingsfirma, sobald die nächste Generation draußen ist schlagen sie wieder zu. Wie die Chips in einem Jahr relativ zueinander performen ist ihnen meist egal (außer es paßt in ihre Argumentation). Mit einer objektiven Abwägung der Vor- und Nachteile hat das meist wenig zu tun, mal abgesehen davon, daß der Mensch dazu gar nicht in der Lage sein soll.

Gast
2006-10-12, 11:39:48
Nun schiess mal los und erklaere dem verbluefftem Leser hier was genau "DX10- done right" sein soll und was genau "pseudo-DX10".

Dafür fehlt mir das Wissen um den G80, aber einige der Begriffe könntne evtl. wieder azftauchen im Laufe der Zeit. ;)

robbitop@work
2006-10-12, 11:43:24
Ich gehe davon aus dass der G80 in Sachen DX9 stark sein wird, aber sobald die ersten DX10 Games kommen wird er nur noch die Rücklichter vom R600 sehen. Bis dahin werden es das Nvidia Marketing und die hier ansäßigen Meinungsmacher schon hinbiegen.


Wie kommst du denn darauf? Die bisherigen Daten sprechen eine ganz andere Sprache.

ezzemm
2006-10-12, 11:58:48
Wie damals vor dem Release von 6800 und X800 von mir vorausgesagt, wird die Shader-3-Fähigkeit der 6800 nie eine echte Rolle spielen, da es lange dauert bis entsprechende Spiele rauskommen und dann die Rohleistung nicht mehr ausreicht.
Und, wer zockt Oblivion mit einer 6800 mit HDR oder TRL mit Next-Gen-Effects in nativer TFT-Auflösung?

Dasselbe wird mit G80 und R600 sein; bis Games kommen die nicht nur paar DX10-Effekte haben, sondern wirklich durch und durch DX10 sind, werden die Karten längst zu langsam sein. Was wirklich zählt ist die DX9-Power, und zwar "jetzt".

Godmode
2006-10-12, 12:45:04
Du bringst es ziemlich genau auf den Punkt, DX9 Power ist gefragt

Gast
2006-10-12, 13:17:45
Wie damals vor dem Release von 6800 und X800 von mir vorausgesagt, wird die Shader-3-Fähigkeit der 6800 nie eine echte Rolle spielen..

Das halte ich für eine glatte Lüge, den vor dem Release war nicht bekannt welcher der Chips welche Shader-Fähigkeiten hat, so wurde zum Beispiel bis zuletzt angenommen, das auch die X800 über 3.0 Shader verfügt.

Fall ich mich irre, kannst du ja bestimmt einen Link zu deiner Vorhersage angeben...

Gast
2006-10-12, 13:44:46
Hört doch auf mit dem Käse.
Die Spezifikationen der Chips sind noch gar nicht draußen und die "Profis" hier prophezeien ihrer favorisierten Marke schon den besseren chip.
In diesem thread geht es nicht darum vorauszusehen welcher chip nun schneller wird.
R600 und dessen mögliche Spez. ist das Thema! (oder etwa nicht?!)

derMeister
2006-10-12, 14:05:34
Das halte ich für eine glatte Lüge, den vor dem Release war nicht bekannt welcher der Chips welche Shader-Fähigkeiten hat, so wurde zum Beispiel bis zuletzt angenommen, das auch die X800 über 3.0 Shader verfügt.

Fall ich mich irre, kannst du ja bestimmt einen Link zu deiner Vorhersage angeben...
Unsinn,
war von Anfang an so von ATI angekündigt als PS2 Graka und auch so in der Roadmap drinn. Informier Dich mal etwas besser.
Und die damlas gehypte 6800 war bei den ersten erschienen Spielen arg am kämpfen mit dem neuen PS3, während die x8x0 Karten nur mit dem optimierten PS2b ordentlich an Geschwindigkeit zulegten.

Ailuros
2006-10-12, 14:16:00
Bin zwar nicht der Gast aber werde trotzdem mal antworten.

Macht sowieso keinen Unterschied.

Ich gehe davon aus dass der G80 in Sachen DX9 stark sein wird, aber sobald die ersten DX10 Games kommen wird er nur noch die Rücklichter vom R600 sehen. Bis dahin werden es das Nvidia Marketing und die hier ansäßigen Meinungsmacher schon hinbiegen.

Und auf welche genauen Daten, Messungen, Analysen von jeweils unabhaengigen Quellen basiert dieses Gefuehl genau? Beide IHVs haben eine Marketing-Abteilung falls es Dir entgehen sollte.

Die "Enthusiasten" kaufen sich eh immer die Hardware, die aktuell vorne mit dabei ist von ihrer Lieblingsfirma, sobald die nächste Generation draußen ist schlagen sie wieder zu. Wie die Chips in einem Jahr relativ zueinander performen ist ihnen meist egal (außer es paßt in ihre Argumentation). Mit einer objektiven Abwägung der Vor- und Nachteile hat das meist wenig zu tun, mal abgesehen davon, daß der Mensch dazu gar nicht in der Lage sein soll.

Och es gibt Anhaenger auf beiden Seiten; bist Du Herr anonymer Gast zu 100% objektiv? Wenn ja kannst Du gerne den ersten Stein werfen.

Und um zum wirklichen Thema zu kommen, wir haben momentan mehr Einzelheiten zu G80 als zu R600 und der erste steht auch kurz vor seiner Vorstellung. Wenn die Zeit dann fuer die Veroeffentlichung von R600 naeher ruecken wird, wird sich auch die Mehrzahl auf diese GPU dann konzentrieren.

Ein wahrer Enthusiast wuerde sich ueber beide Architekturen mit gleichem Interesse beugen, stets aber zunehmend mit der Anzahl an Infos fuer jeden einzelnen Fall.

Gast
2006-10-12, 15:33:10
Unsinn,
war von Anfang an so von ATI angekündigt als PS2 Graka und auch so in der Roadmap drinn.

Da hast du sicher einen Beleg dafür, also her damit.

Gast
2006-10-12, 15:35:16
Macht sowieso keinen Unterschied.



Und auf welche genauen Daten, Messungen, Analysen von jeweils unabhaengigen Quellen basiert dieses Gefuehl genau? Beide IHVs haben eine Marketing-Abteilung falls es Dir entgehen sollte.



Das basiert auf den bisher gemachten Erfahrungen und der bisherigen Produktpolitik von Nvidia und ATi. Zu 2. Nein, das entgeht mir nicht (danke für den Hinweis), bin mit Marketing als Lehre bestens vertraut.



Och es gibt Anhaenger auf beiden Seiten; bist Du Herr anonymer Gast zu 100% objektiv? Wenn ja kannst Du gerne den ersten Stein werfen.



Sicher bin nicht vollständig objektiv, wie ich auch oben schon schrieb ist mir durchaus bewußt dass man das gar nicht sein kann. Warum diese das Gegenteil unterstellende Frage? Kein guter Stil.

Ailuros
2006-10-12, 16:03:51
Das basiert auf den bisher gemachten Erfahrungen und der bisherigen Produktpolitik von Nvidia und ATi.

Wobei beide durch die Jahre sowohl ihre Hoehen als ihre Tiefen hatten. Das groesste Tief der gesamten DX9.0 Generation hatte (gerechtfertigt) NVIDIA mit NV3x.

Nein, das entgeht mir nicht (danke für den Hinweis), bin mit Marketing als Lehre bestens vertraut.

Schoen. Denn es handelt sich ebenso um Marketing-Geblubber wenn der eine IHV mit SM3.0 protzt, waehrend die Konkurrenz auf SM2.0/SM2.0_extended schlummert in der Zwischenzeit und dann erst kam "SM3.0 done right" was eigentlich nur "SM3.0 done better" war und auch nichts besonders imposantes wenn man 1.5 Jahre spaeter mit SM3.0 als die Konkurrenz ankommt.

So und heutzutage (ohne dass wir irgend welche zuverlaessige Daten ueber die eine oder andere Architektur haben) heisst es schon jetzt SM4 "done right" und SM4 auf Papier. Der Grund warum ich so reagiere ist eben nur weil der Quark von der ATI Marketing-Abteilung sehr schoen abgeschrieben wurde. Wahr koennte es durchaus sein und ich will ernsthaft bezweifeln dass NVIDIA von Kritik verschont wird wenn es auch tatsaechlich so sein sollte, aber bis zu diesem Zeitpunkt waere es wohl doch vielleicht weiser abzuwarten und Tee zu trinken.

Der idealste Fall fuer mich waere wenn beide IHVs mit zwei sehr nahe konkurrierenden Produkten ankommen und nicht dass das eine aus X Gruenden im Nachteil steht. Denn wenn ATI den kuerzeren bei dieser Runde zieht bin ich mir nicht absolut sicher dass es langfristig keine verheerende Folgen fuer die feiste Konkurrenz im high end GPU Markt haben koennte.

OBrian
2006-10-12, 16:42:51
Ich denke, man darf das auch nicht mit der damaligen Situation R300 gegen GeForce FX vergleichen. Dort war die Radeon in DX9 besser, was Jahre später bedeutet hat, daß man eine 9800pro noch besser nutzen konnte als eine FX5900. Der Unterschied zu heute ist aber, daß man die damaligen Karten auch in späteren Billigrechner noch verwenden konnte, weil der Stromverbrauch noch annehmbar war.

Wenn die jetzt bald erscheinenden R600 und G80 aber schon das Netzteil eines normalen Rechners alleine leersaugen, dann kann man auch vergessen, die Dinger in 2-3 Jahren in kleineren Rechnern weiterzuverwenden. Damit verschwindet dann auch der Vorteil besserer DX10-Fähigkeit, die ja erst in einigen Jahren tatsächlich greifbar würde (wenn entsprechende Spiele in großer Zahl erscheinen).

deekey777
2006-10-12, 16:53:40
Ati-Marketing? Aktuell würde ich eher darauf spekulieren, dass R600 sowas wie "D3D10 - done late" ist. Gut möglich, dass er dann auch schneller sein wird, als ein G80.

Ich kann mir schon die eine oder andere Technologie-Demo vorstellern, deren eingebauter Benchmark die überlegende Geometrie-Leistung des R600 zeigt und den G80 in den Schatten stellt.
Ich kann mir auch vorstellen, dass der R600 in den ersten Monaten nach der Vorstellung an den gleichen Spielen leiden wird wiei der R580, die seine arithmetische Leistung nicht zu schätzen wissen und mit ihren einfachen Shadern den R600 nur langweilen.

Gast
2006-10-12, 17:08:43
Wobei beide durch die Jahre sowohl ihre Hoehen als ihre Tiefen hatten. Das groesste Tief der gesamten DX9.0 Generation hatte (gerechtfertigt) NVIDIA mit NV3x.



Schoen. Denn es handelt sich ebenso um Marketing-Geblubber wenn der eine IHV mit SM3.0 protzt, waehrend die Konkurrenz auf SM2.0/SM2.0_extended schlummert in der Zwischenzeit und dann erst kam "SM3.0 done right" was eigentlich nur "SM3.0 done better" war und auch nichts besonders imposantes wenn man 1.5 Jahre spaeter mit SM3.0 als die Konkurrenz ankommt.

So und heutzutage (ohne dass wir irgend welche zuverlaessige Daten ueber die eine oder andere Architektur haben) heisst es schon jetzt SM4 "done right" und SM4 auf Papier. Der Grund warum ich so reagiere ist eben nur weil der Quark von der ATI Marketing-Abteilung sehr schoen abgeschrieben wurde. Wahr koennte es durchaus sein und ich will ernsthaft bezweifeln dass NVIDIA von Kritik verschont wird wenn es auch tatsaechlich so sein sollte, aber bis zu diesem Zeitpunkt waere es wohl doch vielleicht weiser abzuwarten und Tee zu trinken.

Der idealste Fall fuer mich waere wenn beide IHVs mit zwei sehr nahe konkurrierenden Produkten ankommen und nicht dass das eine aus X Gruenden im Nachteil steht. Denn wenn ATI den kuerzeren bei dieser Runde zieht bin ich mir nicht absolut sicher dass es langfristig keine verheerende Folgen fuer die feiste Konkurrenz im high end GPU Markt haben koennte.

Ich sehe nichts Falsches darin das Nvidia ihre SM3 Implemetation herausgestellt hat. AUf der anderen Seite ist es wohl nicht verwerflich wenn später ATI seine bessere SM3 Implemetation herausstellt und bewirbt, unabhängig vom Zeitpunkt.

Man sollte also nicht mit zweierlei Maß messen und dann sagen: "das wird auch Zeit", oder kreidest du im gleichen Zusammenhang es Nvidia an dass sie beim Refresh (bzw. 2. Refresh) ihre Implementation nicht deutlich verbessert bzw. auf das gleiche Niveau gehoben haben, immerhin hatten sie ja über 1 1/2 Jahre Zeit, wie du selber erwähnt hast. Ich denke auch daß sie es einfach nicht als notwendig angesehen haben, aber damit zu werben sollte doch der Konkurrenz gestattet sein, ohne die Häme wegen der späteren Vorstellung.

Gast
2006-10-12, 17:24:14
Wenn man den vermutlichen Bandbreitenvorteil der R600 sieht, dann sit es logisch, dass sie diesen nicht für umsonst eingebaut haben. 512BIt 2500Mhz sind fast 100% mehr Bandbreite als NV, es ist anzunehmen dass min. 60-80% mehr Rechenleistung dazu kommen um ein halbwegs ausgeglichenes Design zu haben.

Gast
2006-10-12, 18:45:23
Wenn dieses Zitat "don´t buy DX10 cards to early, they are not fully DX10 ready" wirklick von Ati ist, dann sieht das eher aus als ob die schon in Panik verfallen wegen dem G80

Gast
2006-10-12, 19:39:05
ATI muss ja irgendwas sagen damit man auf ihre DX10 Karte wartet.
ATI kann doch gar nicht wissen wie der G80 im detail aussieht...

Gast
2006-10-12, 19:41:18
Wenn dieses Zitat "don´t buy DX10 cards to early, they are not fully DX10 ready" wirklick von Ati ist, dann sieht das eher aus als ob die schon in Panik verfallen wegen dem G80

Viellecht heisst das auch dass ATi mehr über den G80 weiß as jeder andere hier ;)

paul.muad.dib
2006-10-12, 22:16:02
ATI muss ja irgendwas sagen damit man auf ihre DX10 Karte wartet.
ATI kann doch gar nicht wissen wie der G80 im detail aussieht...

Ich denke, die wissen meistens schon eine Weile vorher, was die Konkurrenz in etwa bieten wird. Sonst würde die Leistung nicht so oft so dicht zusammenliegen.

Viellecht heisst das auch dass ATi mehr über den G80 weiß as jeder andere hier ;)

Zumindestens deren Marketing :whisper:

Ailuros
2006-10-12, 22:27:52
Ich sehe nichts Falsches darin das Nvidia ihre SM3 Implemetation herausgestellt hat. AUf der anderen Seite ist es wohl nicht verwerflich wenn später ATI seine bessere SM3 Implemetation herausstellt und bewirbt, unabhängig vom Zeitpunkt.

Auf keinen Fall.

Man sollte also nicht mit zweierlei Maß messen und dann sagen: "das wird auch Zeit", oder kreidest du im gleichen Zusammenhang es Nvidia an dass sie beim Refresh (bzw. 2. Refresh) ihre Implementation nicht deutlich verbessert bzw. auf das gleiche Niveau gehoben haben, immerhin hatten sie ja über 1 1/2 Jahre Zeit, wie du selber erwähnt hast. Ich denke auch daß sie es einfach nicht als notwendig angesehen haben, aber damit zu werben sollte doch der Konkurrenz gestattet sein, ohne die Häme wegen der späteren Vorstellung.

Gehoert alles zum Kapitel Design-Entscheidungen. NVIDIA's Vorstellung war eben NV3x-SM2.0_extended, NV4x-SM3.0, G7x-SM3.0 und ATI's R3xx-SM2.0, R4xx-SM2.0_extended, R5xx-SM3.0.

Im Fall von ATI war R4xx dann eben ein schneller Zwischenschieber, weil der original geplante R400/USC/SM3.0 wohl nicht so konkurrenzfaehig gewesen waere. ATI hat es trotzdem nicht geschadet, denn es hies ja auch "downplay SM3.0 until our own sollution arrives".

Ausserhalb dem unendlichen Marketing-Geblubber beider Seiten, applaudiere ich eher ATI fuer die Steigerung der Filterungs-qualitaet und sehe es eher mit schlechtem Auge dass NVIDIA seit NV4x ihre eigene Filterungsqualitaet reduziert hat.

NV hat den NV3x Flop ziemlich teuer bezahlt, aber am Ende der D3D9 Aera sehe ich trotz allem keinen klaren Gewinner heute, nur Vor- und Nachteile. Die R520 Verspaetung kam fuer ATI auch nicht gerade billig, aber es war trotz allem diametrisch besser als bei NV3x.

Was jetzt D3D10 betrifft wird das Prozentual an der Vereinigung von Einheiten (denn um das wird es auch eigentlich gehen) nicht unbedingt eine besonders grosse Rolle spielen. Erstens weil es der Software voellig gleichgueltig ist wie die HW ausgelegt ist, zweitens weil beide Seiten Vor- und Nachteile haben werden und drittens gibt es noch zahllose andere Faktoren wie Skalierbarkeit, Stromverbrauch, der mainstream und laptop Markt etc etc. die alle eine Rolle mitspielen werden und die mit oder ohne entsprechender Marketing-Paukerei eben doch ihre Anhaenger finden.

Ich will noch nichts sagen denn bis jetzt sind keine der Quellen zuverlaessig, aber die bisherigen Geruechte fuer R600 klingen verdammt verdaechtig nach R520. Aber da dieses tatsaechlich nur FUD sein koennte, lass ich es momentan links liegen. Der 8-quad R520 Quark kam in der Vergangenheit auch von NV selber.

Fazit: ich persoenlich warte lieber ab bis beide von unabhaengigen Quellen analysiert werden und es gibt Gott sei Dank Leute dort draussen (wie Tridam z.B.) die wissen wo es langgeht bis ich meine Finger auf beide legen kann.

Ailuros
2006-10-12, 22:38:06
Viellecht heisst das auch dass ATi mehr über den G80 weiß as jeder andere hier ;)

Na klar weiss der eine was der andere mehr oder weniger hat, nur leider finden sie es auch viel zu spaet raus. Sie koennen einiges verdaechtigen bei der Festlegung von APIs z.B., aber das sind dann aber auch nur Indizien.

Beide IHVs streben normalerweise etwa 2x mal so hohe Leistung als bei ihren eigenen Vorgaengern an. Mit Treiber-verbesserungen klappt dass dann auch meistens; wie jetzt jeder IHV dieses Ziel erreicht (siehe Unterschiede zwischen R5x0 und G7x z.B.) ist ein anderes Kapitel.

Anarchy-HWLUXX
2006-10-13, 12:29:20
http://uk.theinquirer.net/?article=35062

Der R600 ist auf dem besten wege zur Teuersten GraKa Ever ...



PS : Hoops - war im falschen Thread

robbitop@work
2006-10-13, 12:37:20
http://uk.theinquirer.net/?article=35062

Der R600 ist auf dem besten wege zur Teuersten GraKa Ever ...
Ist nur die Frage, ob das auch wahr sein soll. Dann bräuchte man keinen raren GDDR4 mehr und könnte massiv verfügbaren kleineren GDDR3 nehmen. Schon anhand der kosten für das Interface, die Pins und die Leitungen sollten Zweifel aufkommen (was nicht heißen soll, dass es unmöglich ist).

Gast
2006-10-13, 12:49:58
http://uk.theinquirer.net/?article=35062

Der R600 ist auf dem besten wege zur Teuersten GraKa Ever ...

Und zur schnellsten DX10 Karte der ersten Generation. Ich safe euch, wer G80 kauft kann sein Geld auch gleich verbrennen.

BlackBirdSR
2006-10-13, 12:53:32
Und zur schnellsten DX10 Karte der ersten Generation. Ich safe euch, wer G80 kauft kann sein Geld auch gleich verbrennen.

Der Meinung bin ich nicht.
Bisher sieht es für mich so aus, als wäre der Aufwand von ATI überproportional groß. Und wenn sich daraus keine sehr guten Meinstream und Budget-Modelle ableiten lassen, winkt ATI ein großes Problem: AMD.

Nvidia scheint schneller und flexibler zu sein momentan. Und das könnte sich auszahlen.

Gast
2006-10-13, 12:53:40
Und zur schnellsten DX10 Karte der ersten Generation. Ich safe euch, wer G80 kauft kann sein Geld auch gleich verbrennen.Begründung? Letztenendes wird es sowieso so sein, dass beide Karten ungefähr auf einem Niveau liegen, wie immer eigentlich. Mal ist der eine schneller, mal der andere.

Anarchy-HWLUXX
2006-10-13, 12:59:09
Und zur schnellsten DX10 Karte der ersten Generation. Ich safe euch, wer G80 kauft kann sein Geld auch gleich verbrennen.

Ehem ... die G80 hat man 3 monate früher, der R600 muss so oder so schneller werden, alles andere wäre eine balmage.

Nur muss man bei den (bisherigen)specs den Speed auch warscheinlich SEHR teuer bezahlen ...


Das mit Geld verbrennen ist allerdings kompletter schwachfug - bekommt man vom Geld verbrennen etwa Performance die alles bisherige am Markt übertrifft ?

NEIN. So sprüche sind mal das grottenletzte :rolleyes:

Ailuros
2006-10-13, 13:05:52
Und wenn sich daraus keine sehr guten Meinstream und Budget-Modelle ableiten lassen, winkt ATI ein großes Problem: AMD.


Eigentlich hat das folgende nichts direkt damit zu tun:

http://uk.theinquirer.net/?article=35046

...aber langfristig duerfte das obrige schon wahr sein.

deekey777
2006-10-13, 13:06:54
Ich habe es schonmal angedeutet. Man kann sich Fälle zusammenbasteln, wo der R600 aufgrund seiner USA den G80 auseinandernimmt (zB professionelle Anwendungen, wo es auf Geometrieleistung ankommt).
Was aber zählt, sind Spiele, und die kommende D3D10-Generation sind in erster Linie die besseren D3D9-Grafikkarten. Und es würde mich nicht wundern, wenn der G80 das macht, was der R420 schon vorgeführt hat: Hier und da ein paar nette Spielereien, die vielleicht irgendwann zum Einsatz kommen, dafür aber geballte Power in D3D9-Spielen.
So oder so:
Und zur schnellsten DX10 Karte der ersten Generation. Ich safe euch, wer G80 kauft kann sein Geld auch gleich verbrennen.
Sollen noch weitere inhaltslose PR-Sprüche kommen, werden sie als Spam gewertet.

robbitop@work
2006-10-13, 13:26:40
Ich habe es schonmal angedeutet. Man kann sich Fälle zusammenbasteln, wo der R600 aufgrund seiner USA den G80 auseinandernimmt
Bist du dir soo sicher, dass G80 kein USC ist? ;)

Ailuros
2006-10-13, 13:29:45
Ich habe es schonmal angedeutet. Man kann sich Fälle zusammenbasteln, wo der R600 aufgrund seiner USA den G80 auseinandernimmt (zB professionelle Anwendungen, wo es auf Geometrieleistung ankommt).

Ein USC wird Dir genau so viel theoretische maximale Geometrie-Leistung geben, wie der chip insgesamt ausgelegt ist. Xenos haette z.B. 48*500MHz/4= 6000MVertices/s, aber wo genau wurde der oberste threshold fuer das triangle-setup angelegt?

Was aber zählt, sind Spiele, und die kommende D3D10-Generation sind in erster Linie die besseren D3D9-Grafikkarten. Und es würde mich nicht wundern, wenn der G80 das macht, was der R420 schon vorgeführt hat: Hier und da ein paar nette Spielereien, die vielleicht irgendwann zum Einsatz kommen, dafür aber geballte Power in D3D9-Spielen.
So oder so:

Sollen noch weitere inhaltslose PR-Sprüche kommen, werden sie als Spam gewertet.

Ich will zuerst sehen was bei jedem Fall vereinigt wurde und was nicht und wo auf beiden Seiten die Vor -und Nachteile liegen. Die bisher durchgesickerten Daten fuer G80 sagen mir momentan viel zu wenig, dass ich erstmal definieren kann um was genau es sich handelt.

derMeister
2006-10-13, 19:14:00
Da hast du sicher einen Beleg dafür, also her damit.
Google Dich doch mal selber durch ;)

http://uk.theinquirer.net/?article=35062
Der R600 ist auf dem besten wege zur Teuersten GraKa Ever ...
PS : Hoops - war im falschen Thread
Wieso denn das, passt doch?! ;)

Ach Mist, wollte eigentlich reineditieren...mpf

Sunrise
2006-10-13, 19:58:52
Ist nur die Frage, ob das auch wahr sein soll. Dann bräuchte man keinen raren GDDR4 mehr und könnte massiv verfügbaren kleineren GDDR3 nehmen. Schon anhand der kosten für das Interface, die Pins und die Leitungen sollten Zweifel aufkommen (was nicht heißen soll, dass es unmöglich ist).

Das sehe ich etwas anders und hat natürlich auch mehrere Gründe (alle Pro-GDDR4):


ATi gibt derzeit intern nichts anderes an, als "GDDR4 is the future", Joe Macri spricht seit >6 Monaten von nichts Anderem mehr.
~30% stromsparender (nominal 1.5V - maximal 1.9V)
Geringerer VDD noise, reduziert den PCB-Aufwand, ermöglicht höhere Geschwindigkeit
Eine Reduktion der Addresspins um 50% pro Modul, in Relation zu GDDR3. Die restlichen Pins sind für Power und Ground zuständig. Dies wirkt sich (bei entsprechender Anzahl an Chips) wiederum positiv auf die Stromaufnahme aus, zudem vereinfacht es das PCB, welches bei diesen Dimensionen schon teuer genug wäre. Einen zukünftigen Die-Shrink sollte man im Auge behalten.


Auch sollte man nicht vergessen, dass die jetzige Situation keinesfalls über die Verfügbarkeit in Q1/Q2/07 entscheiden wird. Laut Samsung befinden sich alle Varianten, die sie aktuell anbieten, auch im "Mass-Production"-Status.

James Ryan
2006-10-13, 20:45:08
Nur muss man bei den (bisherigen)specs den Speed auch warscheinlich SEHR teuer bezahlen ...

Wurde das gleiche mit dem Speicherinterface und den zu hohen Kosten nicht auch über die Radeon 9700 gesagt?
Wenn NVIDIA in ein paar Wochen fertige Karten mit 384 Bit Speicherinterface verkaufen kann (sprich, mit Gewinn dabei ;) ) warum sollte es dann ATi nicht gelingen, in 4-5 Monaten(!) fertige Karten mit 512 Bit Speicherinterface zu bauen und zu verkaufen?

MfG :cool:

AnarchX
2006-10-13, 21:01:51
Wurde das gleiche mit dem Speicherinterface und den zu hohen Kosten nicht auch über die Radeon 9700 gesagt?

Aber da gab es auch schon eine Matrox Parhelia mit 256bit SI...;)

Ein "sinnvolles" 512bit SI sollte auch im Q1 2007 noch zu teuer sein, ausserdem gibt es ja aktuell durch GDDR4 einen enormen Boost zu weit geringeren Preisen.

Wenn es wirklich ein 512bit SI wird kann man es auch kritisch sehen, auf der einen Seite wäre da eine sehr überlegene Performance, aber es könnte auch bedeuten das man dieses SI für die Zielperformance brauch, was wiederrum sich sehr übel auf die Skalierung im Mainstream auswirkt.

Sunrise
2006-10-13, 21:59:08
Wurde das gleiche mit dem Speicherinterface und den zu hohen Kosten nicht auch über die Radeon 9700 gesagt?

Das Rad war damals auch schwieriger herzustellen, als es heute ist. Auch ist das eher eine Designfrage, die sich damals mit Hinblick auf den Fortschritt des Umfelds (Bandbreite wurde zunehmend wichtiger) gestellt hatte.

Der Aufwand hinsichtlich der nötigen Addresspins, PCB-Schichten usw. steigt aber dennoch überproportional an, daran änderte sich nichts. Man benötigt genügend Fläche (und der Die muss entsprechend groß sein) um überhaupt für alle Pins / respektive Balls, die dafür nötig wären, Platz zu haben, der Controller sollte entsprechend unterteilt sein (wie stark, das überlasse ich mal ATi), und zusätzlich muss man natürlich alles auch noch mit Strom versorgen. Dies greift alles ineinander und ist nicht so einfach mit "wenn dieses geht, dann geht auch jenes" zu beantworten.

Kleiner Auszug von mir bei B3D (http://www.beyond3d.com/forum/showpost.php?p=835155&postcount=461)

Wenn man die Bandbreite nicht sinnvoll nutzen kann, verschenkt man im Endeffekt wertvolle Margen und man macht sich unnötig das Leben schwer. Um jedoch die Bandbreite sinnvoll zu nutzen, sollte R600 etwas ambitionierter sein, als es ihm viele zugestehen. Bis vor kurzem waren es noch >80GB Bandbreite, jetzt sind es plötzlich fast das Doppelte. <- das sollte man jederzeit kritisch hinterfragen.

GDDR4 bei etwa 1.1GHz - 1.25GHz klingt in meinen Ohren deutlich vernünftiger und auch das wäre schon extrem, wenn gepaart mit einem entsprechend breiten Interface, alles natürlich unter der Berücksichtigung, dass man auch eine entsprechende Anzahl von diesen Modulen benötigt, da sie derzeit nur in einer 512MBit-Konfiguration vorhanden sind.

Die Frage ist eher, ob ATi überhaupt die Wahl hat, denn sie liegen immernoch in ihrem Zeitplan zurück, jedenfalls was die aktuelle Generation betrifft. Wenn sie also wieder zeigen wollen, dass sie bereit sind, mindestens mit NV Schritt zu halten, dann sollten sie Anfang 2007 auch schon etwas weiter sein, als NV es derzeit mit G80 ist, um hier wieder mindestens einen quasi Gleichstand (sehr konservativ) im High-End herauszuholen.

Gast
2006-10-13, 23:43:11
Der Meinung bin ich nicht.
Bisher sieht es für mich so aus, als wäre der Aufwand von ATI überproportional groß. Und wenn sich daraus keine sehr guten Meinstream und Budget-Modelle ableiten lassen, winkt ATI ein großes Problem: AMD.

Nvidia scheint schneller und flexibler zu sein momentan. Und das könnte sich auszahlen.

ati hat immernoch die bessere bildquali ,nicht immer verschweigen

Gast
2006-10-13, 23:43:52
Ehem ... die G80 hat man 3 monate früher, der R600 muss so oder so schneller werden, alles andere wäre eine balmage.

:rolleyes:

quark,die zeit spielt keine rolle

tawolgany666
2006-10-14, 00:08:19
Lohnt es sich denn prinzipiell auf den R600 zu warten, wenn man nicht auf Vista umsteigen möchte, oder kann man jetzt bedenkenlos auch zur X1950XT greifen und erstmal abwarten, wie sich der Markt so entwickelt?

StefanV
2006-10-14, 00:32:07
Musst du entscheiden, kommt auch drauf an, was du momentan im Rechner hast...

Zum Thema:
512bit klingen nicht ganz wahrscheinlich, sind aber auch nicht vollkommen unwahrscheinlich!

Denken wir nur mal an HDR Rendering, was eigentlich jedes aktuelle Spiel in irgendeiner Form bietet, was ja auch nicht gerad wenig Bandbreite verschlingt oder aber FSAA...

Ailuros
2006-10-14, 07:04:45
Float HDR/MSAA Kombinationen brauchen tatsaechlich eine grosse Menge an Speicher und Bandbreite, aber ich wuerde eher erwarten dass beide IHVs versucht haben die externen Speicherzugriffe weiterhin zu vermindern.

Ich versuche das Ganze momentan auf rein spekulativer Basis zu verstehen. Eric sagte mal dass ihn mehr Fuellrate nicht stoeren wuerde, wenn mehr Bandbreite zur Verfuegung stehen wuerde. Wie hoch wird denn theoretisch die Fuellrate steigen in R600 wenn schon angedeutet wird dass das ALU:TEX Verhaeltnis von Xenos (3:1) gesteigert wurde?

Worueber ich mir momentan sicher bin ist dass man intern bei ATI sich krumm lacht ueber die angeblichen 128 stream Prozessoren auf G80; denn es klingt mir hier tatsaechlich nach Marketing-Geblubber seitens NV bis das ganze Schlammasel endlich entziffert wird.

Gleiches gilt auch fuer die 38.4GPixels/s fuer G80; es handelt sich wohl eher auch um irgend eine merkwuerdige Marketing-rechnung (keine eigentlichen TMUs mehr, sondern texture mapping wird u.a. von anderen Einheiten uebernommen, wobei zwar Anzahl der Einheiten * Taktrate ein solches theoretisches Resultat geben koennte, ich aber befuerchte dass es bei weitem nicht realistisch sein wird). Hier wird aber nirgends (mit Absicht) angegeben wie viele Pixel pro Takt bearbeitet werden koennen, was aber auch die Loesung zu diesem Puzzle geben koennte.

Und bevor jetzt jemand meckert dass ich G80 Mist in den falschen Thread kehre, es ist hier irgend etwas faul. Wenn der 512bit bus fuer R600 stimmen sollte, koennte es heissen dass entweder G80 an Bandbreite sehr stark verhungern wird oder dass R600 viel mehr Bandbreite hat als sie eigentlich braucht.

Ich kann mir ehrlich gesagt nicht vorstellen dass ATI etwas entwickelt hat der tatsaechlich solche Unmengen an Bandbreite braucht. Das wuerde die ATI engineers viel zu viel unterschaetzen.

tawolgany666
2006-10-14, 08:33:57
@SefanV

Ich habe eine 7800GT drin, die trotz Übertaktung sehr bald an ihr grenzen stoßen wird.

Die 512bit wären ja eine konsequente Verdopplung der Speicheranbindung und bei den vergangenen Karten hat es ja auch einen riesigen Performancesprung durch die höhere Bandbreite gegeben. Also warum nicht?

The_Invisible
2006-10-14, 09:03:42
ati hat immernoch die bessere bildquali ,nicht immer verschweigen

aha, wir haben einen hellseher im forum, gut, gut...

mfg

tawolgany666
2006-10-14, 09:24:54
Richtig...nur weil das bisher der Fall war heißt das ja nicht, dass dies auch bei der neuen Generation so sein wird.

Gast
2006-10-14, 09:38:34
ati hat immernoch die bessere bildquali ,nicht immer verschweigen

Und die schlechteren Treiber, nicht immer verschweigen


Wer es nicht merkt, das ist Sarkasmus

Gast
2006-10-14, 09:41:23
Wenn der 512bit bus fuer R600 stimmen sollte, koennte es heissen dass entweder G80 an Bandbreite sehr stark verhungern wird oder dass R600 viel mehr Bandbreite hat als sie eigentlich braucht.

Oder, und das hast du vergessen, der R600 ist soviel stärker als der G80, dass er mit dieser Bandbreite was anfangen kann.

tawolgany666
2006-10-14, 09:53:46
Das ist reine Spekulation...man wird erst sehen, welcher Hersteller die stärkere Karte rausbringt, wenn die ersten Vergleichstest erscheinen. Zumindest arbeiten beide ja diesmal mit ziemlich unterschiedlichen Strukturen...warten wir es ab. Und immerhin arbeitet das Topmodell des G80 ja auch mit einer Bandbreite von 384bit.

Undertaker
2006-10-14, 10:18:04
Das ist reine Spekulation...man wird erst sehen, welcher Hersteller die stärkere Karte rausbringt, wenn die ersten Vergleichstest erscheinen. Zumindest arbeiten beide ja diesmal mit ziemlich unterschiedlichen Strukturen...warten wir es ab. Und immerhin arbeitet das Topmodell des G80 ja auch mit einer Bandbreite von 384bit.

durch bandbreitenschonende technologien ist eigentlich keine einzige der aktuellen high-end karten sonderlich durch die speicherbandbreite limitiert... mit 384bit und einem recht hohen takt sollte der g80 eigentlich keine relevanten nachteile gegenüber dem r600 haben

Ailuros
2006-10-14, 12:00:02
Oder, und das hast du vergessen, der R600 ist soviel stärker als der G80, dass er mit dieser Bandbreite was anfangen kann.

Wo genau staerker und zu welchem Grad dass es rein hypothetisch mehr als 100GB/s Bandbreite braucht?

Ich will eine halbwegs logische These lesen und nicht eines jenigen Wunschdenken.

LovesuckZ
2006-10-14, 12:07:25
Unsinn,
Und die damlas gehypte 6800 war bei den ersten erschienen Spielen arg am kämpfen mit dem neuen PS3, während die x8x0 Karten nur mit dem optimierten PS2b ordentlich an Geschwindigkeit zulegten.

Um dich zu zitieren: Unsinn.
Wenn eine 6800 mit PS3 zu kämpfen gehabt hätte, wäre es bei der X8x0 nicht anders gelaufen.
Welche Spiele sollten den betroffen gewesen sein? Farcry? Splinter Cell 3?
Alles Spiele, die nur dank der "gehypten 6800" einen PS2b Pfad spendiert bekamen...

Bauer
2006-10-14, 12:31:33
Zu dem hypothetischen 512 bit SI:
Warum geht ihr (z.B. ailluros) davon aus, dass das teurere Speicherinterface zwingend mit dem schnellsten und teuersten Speicher den der Markt dann zu bieten hat kombiniert werden wird?

Es ist doch denkbar dass die Mehrkosten des SI mit billigerem Speicher kompensiert werden, und ja trotzdem eine spitzen-Bandbreite bei rauskommt.

Ich kann nicht nachvollziehen warum Ati mit 512bit mehr Bandbreite als nötig haben müsste.

Marketingtechnisch machen 512bit doch bestimmt auch mehr aus als der allerschnellste DDR4. Mich beindrucken 1000MHz Realtakt z.B. mehr als genug.

robbitop
2006-10-14, 12:32:12
Wurde das gleiche mit dem Speicherinterface und den zu hohen Kosten nicht auch über die Radeon 9700 gesagt?


Ich kann diesen Mist langsam nicht mehr hören. Nochmal: Monate vor dem R300 hatte bereits der 3DLabs P10 als auch die P512 ein 256 Bit Interface. Wen R300 dann noch überrascht hat möchte ich mal wissen.
Außerdem war die Situation damals ein wenig anders. Der Wechseln von TSOP Modulen zu BGA Modulen erlaubte diesen Wechsel, ohne zu große Kostendifferenzen zu erzeugen.

Ein 512 Bit DDR Interface ist natürlich möglich aber unwahrscheinlich. Aber das PCB und die Verdrahtung wird unheimlich teuer. 384 Bit ist dort ja bereits grenzwertig. Dann muss man wieder am anderen Ende, nämlich am Speicher sparen.
1 GiB GDDR4 VRAM mit 512 Bit...tja und das soll bezahlbar sein (500-600EUR) und dennoch eine Marge abwerfen?

Gast
2006-10-14, 12:39:17
Wo genau staerker und zu welchem Grad dass es rein hypothetisch mehr als 100GB/s Bandbreite braucht?

Ich will eine halbwegs logische These lesen und nicht eines jenigen Wunschdenken.

Viele und/oder "fette" ROPs, die bsw. 4 MSAA Samples pro Takt wegschreiben können. Double-Z-ROPs gelten AFAIK für R600 als gesetzt, dazu die erhöhten Anforderungen an Bandbreite allgemein im SM4, da hier mehr Einheiten auf den Speicher zugreifen können als bei SM3. Bei USCs kommt noch dazu, dass vermutlich alle Einheiten VTF beherrschen (müssen?).

Was auch noch gern vergessen wird: FP32-Blending ist in D3D10 Pflicht, das wird auch etwas mehr kosten, als noch INT8-Blending in D3D9.


Q

deekey777
2006-10-14, 12:39:24
Unsinn,
war von Anfang an so von ATI angekündigt als PS2 Graka und auch so in der Roadmap drinn. Informier Dich mal etwas besser.
Und die damlas gehypte 6800 war bei den ersten erschienen Spielen arg am kämpfen mit dem neuen PS3, während die x8x0 Karten nur mit dem optimierten PS2b ordentlich an Geschwindigkeit zulegten.
Wie LS schon sagte: Unsinn.
Oder gib mal ein Beispiel, wo die 6800 unter Nutzung des PS 3.0 "arg am Kämpfen war".
http://www.firingsquad.com/hardware/splinter_cell_chaos_theory_1/page4.asp
http://www.digit-life.com/articles2/gffx/fc12.html
Die 6800er bricht ja zusammen, wenn man das SM 3.0 genutzt wird.
die X800er hat in erster Linie aufgrund ihres hohen GPU-Taktes einen Fühlratenvorteil gegenüber der NV40.
Weiterhin empfehle ich dir diesen Thread zu verinnerlichen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013

Alles Spiele, die nur dank der "gehypten 6800" einen PS2b Pfad spendiert bekamen...
Condemned nutzt PS 2.b (ja, ich weiß, der Vergleich hinkt).

Ailuros
2006-10-14, 12:41:08
Zu dem hypothetischen 512 bit SI:
Warum geht ihr (z.B. ailluros) davon aus, dass das teurere Speicherinterface zwingend mit dem schnellsten und teuersten Speicher den der Markt dann zu bieten hat kombiniert werden wird?

Die Stelle wo ich etwas relevantes behauptet oder angedeutet habe muss Du mir erstmal zeigen.

Es ist doch denkbar dass die Mehrkosten des SI mit billigerem Speicher kompensiert werden, und ja trotzdem eine spitzen-Bandbreite bei rauskommt.

Die Chip-Komplexitaet mit einem 512bit Bus steigt so ueberproportional, dass ich es mir schwer vorstellen kann. Was denn fuer eine Speicherfrequenz ueberhaupt? Auf G80 sind es 900MHz GDDR3@384bit. Noch tiefer vielleicht? Wi e waere es mit 500MHz@512bit?

Ich kann nicht nachvollziehen warum Ati mit 512bit mehr Bandbreite als nötig haben müsste.

Das Gegenteil aber auch nicht, denn Du hast genauso wenig Ahnung ueber R600 wie jeder andere hier auch.

Marketingtechnisch machen 512bit doch bestimmt auch mehr aus als der allerschnellste DDR4. Mich beindrucken 1000MHz Realtakt z.B. mehr als genug.

LOL :D

Gast
2006-10-14, 12:41:55
Nochmal: Monate vor dem R300 hatte bereits der 3DLabs P10 als auch die P512 ein 256 Bit Interface.

IMO absolut nicht vergleichbar, da für komplett andere, nämlich professionelle Märkte entwickelt, wo der Kostendruck weit weniger stark ist als im Consumer-Bereich. Und dann schau dir mal die heutigen Parhelia-Preise an - von so einer Preisstabilität können Ati und Nvidia nur träumen (jaja, ich weiß: Das ist natürlich auch nicht vergleichbar).


Q