Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

Coda
2005-05-24, 15:39:45
Aha, und wie soll das aussehen als Singleslotkühler? Das ist doch an den Haaren herbeigezogen.

r3ptil3
2005-05-24, 15:43:31
Was soll das heißen "mit Metall kühlen"? Also ich hab keine Kühler im PC die nicht aus Metall sind :rolleyes:

Die von der GPU erzeugte Wärme wird von flüssigem Metall aufgenommen und über eine elektromagnetische Pumpe zu einem Wärmetauscher wegtransportiert. Die Karten benötigen für den ganzen Mechannismus 2-Slots.

Gast
2005-05-24, 15:44:20
Was soll das heißen "mit Metall kühlen"? Also ich hab keine Kühler im PC die nicht aus Metall sind :rolleyes:
Quecksilber z.b. ;) Für die leute die Haare Haare und Zähne nicht mögen. ;(

Konsolenfreund

Black-Scorpion
2005-05-24, 15:47:02
Aha, und wie soll das aussehen als Singleslotkühler? Das ist doch an den Haaren herbeigezogen.
Ließt du auch worauf du antwortest?

Anscheinend nicht deinen letzen beiden Antworten zufolge.

Coda
2005-05-24, 15:51:06
Ups, ich dachte dass der ORF Link nicht mehr aktuell ist. Naja mal sehen...

ShadowXX@Berlin
2005-05-24, 17:21:20
']Also, hat R520 24 oder doch nur 16 Pipes?

Mir scheint an den 24 etwas faul zusein...

Rechne mal 16+8...dann hast du deine 24 "extrem" Pipelines (PS+VS).


high-end (R520)
-neue architektur
-90nm bei TSMC
-Chiptakt?
-24 Extreme Pixel Pipelines
-1.25 ns Speicher
-1400 - 1600 MHz Speichertakt
-256Bit Speicherinterface
-DX 9.0c, ShadelModel 3.0
-PCI-Express und AGP 8x
-über 300 Millionen Transistoren


Wenn man das liesst, fällt auf das die VS nicht mehr extra erwähnt werden...

Gast
2005-05-24, 17:59:20
Quecksilber z.b. ;) Für die leute die Haare Haare und Zähne nicht mögen. ;(

Konsolenfreund

sich informieren, bevor man mault:
http://www.tweakers4u.de/news/liquid_metal,,20,05,2005,,11,59,54,,841.htm

auf der originalseite:
http://www.nanocoolers.com/technology_liquid.php
"The liquid metal is non-flammable, non-toxic and environmentally friendly."

Coda
2005-05-24, 18:33:20
Das Ding gibt's ja wirklich :eek: Ich nehm alles zurück ;)

seahawk
2005-05-24, 19:41:05
Die von der GPU erzeugte Wärme wird von flüssigem Metall aufgenommen und über eine elektromagnetische Pumpe zu einem Wärmetauscher wegtransportiert. Die Karten benötigen für den ganzen Mechannismus 2-Slots.

Also praktisch ne Wakü bei der das Transportmittel eine noch höhere Wärmekapzität hat. :eek:

Das riecht aber nach einer menge and abzuführender Verlustleistung.

Gast
2005-05-24, 20:12:08
sich informieren, bevor man mault:
http://www.tweakers4u.de/news/liquid_metal,,20,05,2005,,11,59,54,,841.htm

auf der originalseite:
http://www.nanocoolers.com/technology_liquid.php
"The liquid metal is non-flammable, non-toxic and environmentally friendly."
Ich habe doch garnicht gemault und wollte die Kühlung auch nicht in Frage stellen. War nur ein Späßchen, weil einem da als erstes mal Quecksilber einfällt. ;)

Aber danke für die Links. Sehr interessant. :)

Kf

Ailuros
2005-05-25, 02:00:49
Das Problem bei deiner Rechnung ist erstens, dass Leistung nie linear mit dem Takt steigt, d.h. 50% mehr Takt bedeuten noch lange nicht 50% mehr fps, und zweitens, dass man wohl kaum die Speicherbandbreite im gleichen Maß wird steigern können.

Ich sagte erstens dass die Rechnung verkorkst ist und zweitens rechnete ich mit Fuellraten und nicht mit Taktraten.

1600*1200/ noAAnoAF

5600 (6800GT) / 3900 (6800) * 71.9 = 50.0 fps (wahre Leistung fuer die 6800 = 55.3 fps)

Bandbreite:
6800GT = 32.0 GB/sec
6800 = 22.4 GB/sec (-30%)

Das Research demo ist genug "shader-lastig" dass es mehr oder weniger mit der Fuellrate skaliert.

Eine NV43 erreicht 48.0 fps mit 4000MPixels/s Fuellrate und 16.0 GB/sec Bandbreite.

***edit: ich sehe hier die Bandbreite in diesem Fall die kleinstmoegliche Rolle zu spielen; eine 6800 oder NV43 kann ich ja nicht fuer den 16*12/4xAA Fall benutzen, da bei beiden zuerst die Framebuffer-Groesse limitiert.

wuzetti
2005-05-25, 17:28:20
da http://www.tweaktown.com/document.php?dType=article&dId=766 gehts zwar grundsätzlich um MVPU, allerdings ist auch von R520 die rede, der an dieser stelle wieder mal 24 pipelines haben soll....

pF3NG
2005-05-25, 20:49:31
Das Ding gibt's ja wirklich :eek: Ich nehm alles zurück ;)
Natürlich gibts das wirklich, berichtete doch jetzt fast jede Seite von... lol :tongue:

Gast
2005-05-25, 21:34:53
da http://www.tweaktown.com/document.php?dType=article&dId=766 gehts zwar grundsätzlich um MVPU, allerdings ist auch von R520 die rede, der an dieser stelle wieder mal 24 pipelines haben soll....

Geil ATI Crossfire!!!!

Coda
2005-05-25, 21:58:33
Natürlich gibts das wirklich, berichtete doch jetzt fast jede Seite von... lol :tongue:Das es die Flüssigmetalkühlung gibt wusste ich. Ich hatte aber nicht damit gerechnet, dass das jemand wirklich verbaut ;)

Geil ATI Crossfire!!!!Ich wäre mehr als erstaunt, wenn das die Effizienz von SLi erreicht. Aber ich lasse mich gerne positiv überraschen ;)

robbitop
2005-05-25, 22:25:49
Ich wäre mehr als erstaunt, wenn das die Effizienz von SLi erreicht. Aber ich lasse mich gerne positiv überraschen ;)
Warum das? Angeblich soll es über AFR/SFR und Supertiling verfügen, also einen Mode mehr als SLI.

Demirug
2005-05-25, 22:32:09
Warum das? Angeblich soll es über AFR/SFR und Supertiling verfügen, also einen Mode mehr als SLI.

Und warum sollte es deswegen effizienter sein?

robbitop
2005-05-25, 22:37:05
Und warum sollte es deswegen effizienter sein?
Was legst du mir da in den Mund? Ich stellte Codas Zweifel über die adäquate Effizienz von MVP in Frage. Jedoch behauptete ich nie, MVP > SLI. Ich frage nur, warum MVP < SLI. ;)

Benedikt
2005-05-25, 23:07:20
Dieses ATI-Crossfire (oder wie auch immer) sollte demnach mit allen Boards funktionieren, die zwei PCIe-x16-Slots aufweisen, wenn man davon ausgeht, dass nVidias SLI aus rein marketingtechnischen Gründen auf Fremdboards deaktiviert wird, oder? Also zukünftige VIA-, NVidia- oder Intel-Chipsets?

Gibt ja doch keinen technischen Hintergrund dafür, dass es nicht so sein sollte, oder (bin mir sicher, ATI wird genau das als Verkaufsargument anführen, die uneingeschränkte Kompatibilität)?

Dass die Masterkarte ein R5xx-Derivat sein muss, ist ja wohl neu, oder?

reunion
2005-05-26, 01:24:08
Und warum sollte es deswegen effizienter sein?


Weil es zusätzlich noch Supertiling unterstützt und dadurch ev. in bestimmten Situationen einen Vorteil gegenüber der nV-Lösung bietet?

Demirug
2005-05-26, 01:58:26
Was legst du mir da in den Mund? Ich stellte Codas Zweifel über die adäquate Effizienz von MVP in Frage. Jedoch behauptete ich nie, MVP > SLI. Ich frage nur, warum MVP < SLI. ;)

Ok, wenn es so gemeint war.

Demirug
2005-05-26, 02:01:50
Weil es zusätzlich noch Supertiling unterstützt und dadurch ev. in bestimmten Situationen einen Vorteil gegenüber der nV-Lösung bietet?

Supertiling hat Vorteile aber auch Nachteile. Es wird also wirklich auch die Situation ankommen. Allerdings ist das Splitverfahren bei Multichiplösungen ja nur ein Teil des Ganzen. Man wird also die Gesamtlösung betrachten müssen.

Ailuros
2005-05-26, 03:19:48
Supertiling hat Vorteile aber auch Nachteile. Es wird also wirklich auch die Situation ankommen. Allerdings ist das Splitverfahren bei Multichiplösungen ja nur ein Teil des Ganzen. Man wird also die Gesamtlösung betrachten müssen.

Ganz so nebenbei ist es schon genug umstaendlich bei SLi dass wenn der Treiber kein Profil fuer Spiel X hat, der User dann mit SFR/AFR experimentieren muss um den modus zu finden der auch wirklich die Leistung steigert. Ein zusaetzlicher modus macht wohl solch eine Affaere nicht gerade weniger umstaendlicher.

Wiederrum kann es dann auch natuerlich sein, dass ATI mit dem Zusatz von ST dann eben auch vielleicht eine breitere Facette von Spielen zu Leistungssteigerungen bringen kann.

Mal abgesehen von den Unterschieden der zeitigen Implementierungen, multi-board configs werden sich wohl doch besser durchsetzen wenn die Entwickler auch dafuer optimieren werden (hoffentlich) in der Zukunft. Die bisherigen Verkaufszahlen sind aber nichtdestominder ziemlich imposant; so einen guten Durchbruch haette ich nicht erwartet, ueberhaupt wenn man die Unkosten fuer so ein System berechnet.

Gast
2005-05-26, 03:22:56
Warum eignen sich eigentlich einige Spiele eher für AFR, andere für SFR? Was muss ein Spiel an Voraussetzungen mitbringen?

Ailuros
2005-05-26, 03:38:01
Warum eignen sich eigentlich einige Spiele eher für AFR, andere für SFR? Was muss ein Spiel an Voraussetzungen mitbringen?

Fuer AFR z.B. nicht CPU-limitiert sein AFAIK; mit der Anzahl der CPU-limitierten Spiele die es immer noch heute gibt klingt das nicht gerade optimal. Ausserdem Spiele die full-screen-Effekte haben (wie z.B. render2texture) bringen keine einzige Leistungssteigerung mit SLi, ausser man kann gewisse Effekte die full-screen-Effekte mit sich bringen abschalten; ein Beispiel waere NFS Underground2; ausser es hat sich was geaendert bringt SLi gar nichts, ausser man schaltet Effekte wie "motion/depth of field-blur", light trails usw. (sowieso eigentlich nutzlos IMO) erstmal ab.

TheGood
2005-05-26, 09:14:24
Ganz so nebenbei ist es schon genug umstaendlich bei SLi dass wenn der Treiber kein Profil fuer Spiel X hat, der User dann mit SFR/AFR experimentieren muss um den modus zu finden der auch wirklich die Leistung steigert. Ein zusaetzlicher modus macht wohl solch eine Affaere nicht gerade weniger umstaendlicher.

Wiederrum kann es dann auch natuerlich sein, dass ATI mit dem Zusatz von ST dann eben auch vielleicht eine breitere Facette von Spielen zu Leistungssteigerungen bringen kann.

Mal abgesehen von den Unterschieden der zeitigen Implementierungen, multi-board configs werden sich wohl doch besser durchsetzen wenn die Entwickler auch dafuer optimieren werden (hoffentlich) in der Zukunft. Die bisherigen Verkaufszahlen sind aber nichtdestominder ziemlich imposant; so einen guten Durchbruch haette ich nicht erwartet, ueberhaupt wenn man die Unkosten fuer so ein System berechnet.
wo gibts denn die verkaufszahlen?

Demirug
2005-05-26, 09:17:51
MIt CPU limitierung hat das wenig zu tun. AFR ist dabei aber sogar besser als SFR. Die Problematik ist das bestimmte Rendertechnicken Multi GPU unverträglich sind. Manche harmonieren nicht mit AFR andere haben Probleme mit SFR. Bei SFR wird es immer zum Problem wenn auf einmal gerenderte Daten wieder lesend zugegrifen werden muss. Darunter fallen alle Render bzw. Copy To Texture Effekte. Da immer mehr Spiele Postfilter die darunter fallen einsetzten wird das Verfahren zunehmend unbrauchbarer. Das würde sich erst dann lösen wenn die beiden GPUs über einen sehr schnellen Kanal verbuden sind und Speicher sharen können. AFR kennt dieses Problem nicht solange man nur auf Daten zurückgreift die im gleichen Frame gerendert wurden. Will man Daten aus dem vorangegangen Frame nutzen funktioniert AFR nicht mehr richtig. AFR kann aber auch dadurch ausgehebelt werden wenn sich ein Spiel mit der GPU syncronisiert und deswegen immer nur einen Frame zur GPU schickt.

Ailuros
2005-05-26, 09:47:13
wo gibts denn die verkaufszahlen?

Ich glaube NVIDIA behauptet ~700.000 Einheiten (ergo wohl ~350.000 Systeme).

AFR kennt dieses Problem nicht solange man nur auf Daten zurückgreift die im gleichen Frame gerendert wurden. Will man Daten aus dem vorangegangen Frame nutzen funktioniert AFR nicht mehr richtig. AFR kann aber auch dadurch ausgehebelt werden wenn sich ein Spiel mit der GPU syncronisiert und deswegen immer nur einen Frame zur GPU schickt.

Ich wusste schon ich haette die Finger von einem Versuch SFR/AFR zu erklaeren lassen sollen.... :D

Zum obrigen:

a) stell ich jetzt wieder ne bloede Frage oder koennte WGF2.0 vielleicht doch multi-GPU rendering weiterhin verhindern? Irre ich mich oder sollen da GPUs nicht auch faehig sein jederzeit Daten zuruecklesen zu koennen (siehe I/O Modell)?

b) bringt das koppeln einer Applikation zur GPU (ie immer nur einen Frame schicken) nicht andere Komplikationen mit sich?

Demirug
2005-05-26, 10:38:33
a) stell ich jetzt wieder ne bloede Frage oder koennte WGF2.0 vielleicht doch multi-GPU rendering weiterhin verhindern? Irre ich mich oder sollen da GPUs nicht auch faehig sein jederzeit Daten zuruecklesen zu koennen (siehe I/O Modell)?

b) bringt das koppeln einer Applikation zur GPU (ie immer nur einen Frame schicken) nicht andere Komplikationen mit sich?

a) WGF 2.0 verschärft das Problem lediglich weil man damit nicht nur Texturedaten sondern auch noch andere daten zurücklesen kann. Wenn man aber weiterhin nur Daten zurück liesst welche im gleichen Frame geschrieben wurde wird AFR weiterhin funktionieren.

Allerdings ist mir heute morgen aufgefallen das es möglicherweise ein Problem mit den neuen Longhorn Treiber Model geben könnte. Da dort der Treiber nicht mehr die volle Kontrolle über den Grafikkartenspeicher hat könnte das duplizieren der daten in beide Karten etwas komplizierter werden. Muss mir das aber nochmal genauer anschauen sobald ich mehr aktuelle Informationen dazu habe.

b) Ja es bremst. Gemacht wird das ganze primär um den Mauslag zu reduzieren.

Coda
2005-05-26, 11:20:18
Was legst du mir da in den Mund? Ich stellte Codas Zweifel über die adäquate Effizienz von MVP in Frage. Jedoch behauptete ich nie, MVP > SLI. Ich frage nur, warum MVP < SLI. ;)Sobald kein SFR/Supertiling verwendet werden kann müssen sie alle RTT Operationen (Shadowmaps etc.) entweder auf einer Karte laufen lassen oder das ganze per PCIe zwischen den Karten hin und herschieben.

nVidia wird schon gewusst haben warum sie einen Interlink einbauen für solche Gegebenheiten. Ich wüsste auch nicht was der Vorteil von Supertiling gegenüber SFR sein soll.

AFR ist eigentlich immer die optimale Lösung und der Dev Support von ATi und nVidia wird den Entwicklern auch in dieser Richtung "behilflich" sein, nehm ich mal an ;)

robbitop
2005-05-26, 11:24:30
Sobald kein SFR/Supertiling verwendet werden kann müssen sie alle RTT Operationen (Shadowmaps etc.) entweder auf einer Karte laufen lassen oder das ganze per PCIe zwischen den Karten hin und herschieben.

nVidia wird schon gewusst haben warum sie einen Interlink einbauen für solche Gegebenheiten.

Ich wüsste auch nicht was der Vorteil von Supertiling gegenüber SFR sein soll.
1. Ah natürlich, das habe ich bei meinen Überlegungen nicht in Betracht gezogen. Danke! :up:
2. ein zusätzlicher Modus ;)

@Demirug

Denkst du, NV wird SLI weiterentwickeln? Und wenn ja, in welche Richtung könnte dies deiner Meinung nach gehen?

Coda
2005-05-26, 11:25:19
2. ein zusätzlicher Modus Ob ich das Bild jetzt in Kacheln aufteile oder in 2 (dynamische angepasste) Hälften dürfte doch relativ egal sein.

EDIT: Ich sollte mir das editieren abgewöhnen :D

robbitop
2005-05-26, 11:36:05
Ob ich das Bild jetzt in Kacheln aufteile oder in 2 (dynamische angepasste) Hälften dürfte doch relativ egal sein.

EDIT: Ich sollte mir das editieren abgewöhnen :D
Da bin ich mir nicht so sicher, da die Quads eh jeweils in eigenen Kacheln agieren. Teilt man das Bild nun dynamisch, kann es sein, dass gewisse Kacheln geteilt werden und es zu Verschnitt kommt. Oder unterliegt diese Überlegung einem Denkfehler?

Coda
2005-05-26, 11:38:06
Ich komm grad nicht mit, was für "Kacheln" meinst du? Vom Hierarchical Z?

Demirug
2005-05-26, 11:39:18
@Demirug

Denkst du, NV wird SLI weiterentwickeln? Und wenn ja, in welche Richtung könnte dies deiner Meinung nach gehen?

Weiterentwickelt wird das sicherlich. Primär müsste man wohl den gegenseitigen Zugriff auf den Speicher verbessern. Das ist aber auch gleichzeitig das komplizierteste. Denkbar wäre es auch die anfallenden Arbeiten zwischen den Karten hin und her zu schicken. Ich müsste allerdings erst mal ausrechnen wie viel Bandbreite da im einzelnen anfallen würde.

Demirug
2005-05-26, 11:40:38
Da bin ich mir nicht so sicher, da die Quads eh jeweils in eigenen Kacheln agieren. Teilt man das Bild nun dynamisch, kann es sein, dass gewisse Kacheln geteilt werden und es zu Verschnitt kommt. Oder unterliegt diese Überlegung einem Denkfehler?

Man sorgt eben einfach dafür das die Splitline genau auf einer Tilegrenze liegt.

Energizer
2005-05-26, 20:45:14
Sorry, falls das schon hier war, aber bei Hardtecs4u war ein netter kurzer Bericht darüber....http://www.hardtecs4u.com/?id=1116951871,61615,ht4u.php

mapel110
2005-05-26, 20:51:52
Sorry, falls das schon hier war, aber bei Hardtecs4u war ein netter kurzer Bericht darüber....http://www.hardtecs4u.com/?id=1116951871,61615,ht4u.php
Hier gehts um AMR und ATI und R520, aber nicht um AMD und X2 und Dual Core. ;)

r3ptil3
2005-05-26, 20:55:22
Hier gehts um AMR und ATI und R520, aber nicht um AMD und X2 und Dual Core. ;)

l und o und l ! ;D

deekey777
2005-05-27, 00:26:34
Mal was anderes:
ATI’s R520 to Feature Hardware Accelerated HD Content Playback (http://www.xbitlabs.com/news/video/display/20050526100319.html)

The ATI demonstration at Computex features H.264 playback with “ATI’s next-generation” RADEON technology and a CyberLink video player application. In addition to hardware acceleration of H.264, the RADEON “R520” processor is set to perform next generation video processing and show off advanced display capabilities, ATI said.

€: Doch frage ich, ob es auch mit der früheren Generation nicht möglich ist.

Und die Fressemeldung... (http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=713852)

Ailuros
2005-05-27, 00:33:52
Mal was anderes:
ATI’s R520 to Feature Hardware Accelerated HD Content Playback (http://www.xbitlabs.com/news/video/display/20050526100319.html)

The ATI demonstration at Computex features H.264 playback with “ATI’s next-generation” RADEON technology and a CyberLink video player application. In addition to hardware acceleration of H.264, the RADEON “R520” processor is set to perform next generation video processing and show off advanced display capabilities, ATI said.

€: Doch frage ich, ob es auch mit der früheren Generation nicht möglich ist.

Und die Fressemeldung... (http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=713852)

Falls das Zeug durch SM3.0 geschleusst wird eben nicht; SM3.0 erlaubt eben so manchen zusaetzlichen Schnickschnack.

Gast
2005-05-27, 00:57:19
Falls das Zeug durch SM3.0 geschleusst wird eben nicht; SM3.0 erlaubt eben so manchen zusaetzlichen Schnickschnack.
Ich gehe nicht davon aus, dass ein Lösung über die Shader realisiert wird.

Coda
2005-05-27, 01:01:03
Wahrscheinlich auch ein Videoprozessor. Das Ding ist ja im NV40 auch recht mächtig (wenn er denn funktioniert :biggrin:)

deekey777
2005-05-27, 01:06:41
In der ATi Pressemeldung sowie auch bei Xbit steht nur Videobeschleunigung, aber wie das genau realisiert wird, steht nicht.
Aber:
Earlier the Markham, Ontario-based graphics company said that the only way to efficiently playback HD content nowadays is to have dedicated hardware that is tailored for the purpose. By contrast, currently MPEG 4 acceleration is performed by ALUs of pixel processors within a graphics chip.
Hm... :confused:

Und: Xaveon? What the fuck is Xaveon?

"The ATI H.264 video demonstration with ATI's next generation Radeon® technology will occur during Computex Taipei 2005 at the Grand Hyatt Hotel."
:biggrin:

Gast
2005-05-27, 01:19:00
In der ATi Pressemeldung sowie auch bei Xbit steht nur Videobeschleunigung, aber wie das genau realisiert wird, steht nicht.
Aber:
Earlier the Markham, Ontario-based graphics company said that the only way to efficiently playback HD content nowadays is to have dedicated hardware that is tailored for the purpose. By contrast, currently MPEG 4 acceleration is performed by ALUs of pixel processors within a graphics chip.
Hm... :confused:

Und: Xaveon? What the fuck is Xaveon?

"The ATI H.264 video demonstration with ATI's next generation Radeon® technology will occur during Computex Taipei 2005 at the Grand Hyatt Hotel."
:biggrin:
Bestätigt ja meine Aussage von oben. Die werden das richitg in Hardware machen. :)

Konsolenfreund

Ailuros
2005-05-27, 01:21:10
Ich gehe nicht davon aus, dass ein Lösung über die Shader realisiert wird.

Bin mir gar nicht so sicher ob der zusaetzliche HW-Aufwand von dedizierten Einheiten das Resultat auch wirklich wert ist.

Und wenn man jetzt noch zusaetzlich fuer extra SW wie bei NVIDIA fuer so was als Endverbraucher bezahlen sollte, dann verdienen beide IHVs einen gleichgrossen Tritt in den Hintern. Fuer mainstream/budget GPUs koennte ich es noch verstehen, aber fuer high end ist es eine Frechheit.

***edit: dekkey's Frage war ob das Zeug auch bei vorigen Generationen moeglich waere; ob nun dedizierte extra HW oder nur SM3.0 ist die Antwort gleich.

Gast
2005-05-27, 01:26:08
Bin mir gar nicht so sicher ob der zusaetzliche HW-Aufwand von dedizierten Einheiten das Resultat auch wirklich wert ist.

Und wenn man jetzt noch zusaetzlich fuer extra SW wie bei NVIDIA fuer so was als Endverbraucher bezahlen sollte, dann verdienen beide IHVs einen gleichgrossen Tritt in den Hintern. Fuer mainstream/budget GPUs koennte ich es noch verstehen, aber fuer high end ist es eine Frechheit.
Das kann man aber nur so stehen lassen, wenn Du mit deiner These richtig liegst. Ich würde annehmen, dass ein paar spezialsierte Schaltkreise nicht die Welt kosten und und das ganze von der Leistung und der Leistungsaufnahme von Vorteil wäre. Wer will schon, dass der lüfter hochdreht, wenn man einen Film gucken will? ;)

Konsolenfreund

Ailuros
2005-05-27, 02:15:42
Das kann man aber nur so stehen lassen, wenn Du mit deiner These richtig liegst. Ich würde annehmen, dass ein paar spezialsierte Schaltkreise nicht die Welt kosten und und das ganze von der Leistung und der Leistungsaufnahme von Vorteil wäre. Wer will schon, dass der lüfter hochdreht, wenn man einen Film gucken will? ;)

Konsolenfreund

Der Luefter dreht mit dem decoder auf NV4x nicht hoch, ergo sehe ich auch keinen Grund dass dieses auch bei R520 vorkommen sollte.

Wieso auch? Das Zeug duerfte sowieso nur auf den 2D Taktraten laufen. Falls R520 tatsaechlich bei oder ueber 650MHz getaktet sein wird, besteht kein besonderer Grund eine hoehere Frequenz als sagen wir mal 400MHz fuer 2D.

mapel110
2005-05-27, 02:23:24
Der Luefter dreht mit dem decoder auf NV4x nicht hoch, ergo sehe ich auch keinen Grund dass dieses auch bei R520 vorkommen sollte.

Wieso auch? Das Zeug duerfte sowieso nur auf den 2D Taktraten laufen. Falls R520 tatsaechlich bei oder ueber 650MHz getaktet sein wird, besteht kein besonderer Grund eine hoehere Frequenz als sagen wir mal 400MHz fuer 2D.
Wenn es dedizierte Hardware ist, wird er wohl seinen eigenen Taktgeber haben. :)

Ailuros
2005-05-27, 02:25:17
Wenn es dedizierte Hardware ist, wird er wohl seinen eigenen Taktgeber haben. :)

Aendert aber auch nichts am vorigen.

robbitop
2005-05-27, 08:56:35
Ich komm grad nicht mit, was für "Kacheln" meinst du? Vom Hierarchical Z?
NVIDIA besitzt keinen hirarchial Z Buffer. Nein ich meine die Kacheln, in denen die Quads rendern. Das Bild wird in Kacheln zerlegt und jeder Quad bekommt davon dann eigene davon ab. Der Framebuffer wird ja auch möglichst in Kacheln geschrieben und vernünftige Bursts zu ermöglichen. So funktioniert das auch bei ATI.

Xmas
2005-05-27, 09:57:50
NVIDIA besitzt keinen hirarchial Z Buffer. Nein ich meine die Kacheln, in denen die Quads rendern. Das Bild wird in Kacheln zerlegt und jeder Quad bekommt davon dann eigene davon ab. Der Framebuffer wird ja auch möglichst in Kacheln geschrieben und vernünftige Bursts zu ermöglichen. So funktioniert das auch bei ATI.
Quad-Pipelines rendern, Quads werden gerendert ;)
Und NVidia verwendet eine deutlich andere Methode als ATI, die Arbeit auf die Pipelines zu verteilen.

robbitop
2005-05-27, 10:02:27
Quad-Pipelines rendern, Quads werden gerendert ;)
Und NVidia verwendet eine deutlich andere Methode als ATI, die Arbeit auf die Pipelines zu verteilen.
Mit Quad meine ich Quadpipeline.
Beide Methoden basieren AFAIK darauf, dass jede Quad-pipeline (zufrieden? ;)) eigene Tiles bekommt, in denen gerendert wird.

Gast
2005-05-27, 13:20:45
http://www.pcpop.com/doc/0/88/88051.shtml

dildo4u
2005-05-27, 13:24:01
http://www.pcpop.com/doc/0/88/88051.shtml
Fake Was ist ein P4 Special Edition mit 4GHZ? oder eine Audigy3 die gibts gar nicht.

Gast
2005-05-27, 13:25:46
http://news.amdplanet.it/archivio/news/1/3428

DjDino
2005-05-27, 13:29:04
(oberer Post von mir)

Hier nochmal grösser : http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520

Quelle : http://www.beyond3d.com

deekey777
2005-05-27, 13:32:46
http://news.amdplanet.it/archivio/news/1/3428

Kennen wir schon. ;)

r3ptil3
2005-05-27, 13:36:20
http://www.pcpop.com/doc/0/88/88051.shtml

LoL, Pentium 4 special edition 4.0ghz 4MBL2 Cache
und 4GB Arbeitsspeicher, bringt bei XP nicht viel.
Oder Logitech Cordless Elite Gamer Duo with MX1100, was soll der Kack eigentlich?

DjDino
2005-05-27, 13:51:32
LoL, Pentium 4 special edition 4.0ghz 4MBL2 Cache
und 4GB Arbeitsspeicher, bringt bei XP nicht viel.
Oder Logitech Cordless Elite Gamer Duo with MX1100, was soll der Kack eigentlich?

Hm, was fragst du mich, bin ich DELL ? :)

Aber guck mal hier :

http://geocities.com/xaveon_xt/The_Xaveon.htm
Übersetzt :
http://www.systranbox.com/systran/cgi?systran_lp=en_de&systran_id=Heisoft2-de&systran_url=http://geocities.com/xaveon_xt/The_Xaveon.htm&systran_f=1117194680

r3ptil3
2005-05-27, 14:47:16
Hm, was fragst du mich, bin ich DELL ? :)

Aber guck mal hier :

http://geocities.com/xaveon_xt/The_Xaveon.htm
Übersetzt :
http://www.systranbox.com/systran/cgi?systran_lp=en_de&systran_id=Heisoft2-de&systran_url=http://geocities.com/xaveon_xt/The_Xaveon.htm&systran_f=1117194680

Mit dem "was soll der kack" mein ich nicht dich ;)

Coda
2005-05-27, 16:04:34
NVIDIA besitzt keinen hirarchial Z Buffer.Doch haben sie. ATi war nur früher dran damit...

Aber was ist das Problem? So ein Quad ist doch nur 2 Pixel hoch, dann muss man die Teilung halt so machen dass es auf die Grenze fällt.

robbitop
2005-05-27, 18:09:47
Doch haben sie. ATi war nur früher dran damit...

Aber was ist das Problem? So ein Quad ist doch nur 2 Pixel hoch, dann muss man die Teilung halt so machen dass es auf die Grenze fällt.
Hu? Seit wann denn das? AFAIK besitzen sie keinen.

Die Tiles sind IIRC 16x16 Pixel groß.

Coda
2005-05-27, 19:52:40
Hu? Seit wann denn das? AFAIK besitzen sie keinen.Wie sollte denn sonst Early-Z-Out funktionieren

Kann aber auch sein das ich mich täusche :|

Quasar
2005-05-27, 19:58:25
AFAIK löst nVidia das Early-Z anders als ATi nicht rein über einen gestuften Z-Buffer.

Coda
2005-05-27, 20:14:36
Die Tiles sind IIRC 16x16 Pixel groß.Was denn für Tiles? :confused:

Gast
2005-05-27, 20:16:28
OT leute

Gast
2005-05-27, 20:49:09
Was denn für Tiles? :confused:

die vom hierarchischen t-buffer?

Coda
2005-05-27, 20:52:33
Was ist denn bitte ein T-Buffer?

r3ptil3
2005-05-27, 23:06:18
there are also new RUMORS on the specs of X900 cards:

Radeon X900 XT-PE
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 500 Mhz Chiptakt
• 700 MHz (1,4 Ghz) Speichertakt
• 512 MB GDDR-3

Radeon X900 XT
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 450 Mhz Chiptakt
• 600 MHz (1,2 Ghz) Speichertakt
• 512 MB GDDR-3

Radeon X900 Pro
• 24 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 450 Mhz Chiptakt
• 600 MHz (1,2 Ghz) Speichertakt
• 256/512 MB GDDR-3

Radeon X900
• 16 Pixel-Pipelines
• 8 Vertex-Shader Einheiten
• 110nm low-k bei TSMC
• 500 Mhz Chiptakt
• 500 MHz (1,0 Ghz) Speichertakt
• 256/512 MB GDDR-3

http://www.theinquirer.net/?article=23522
http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1117138247

ShadowXX
2005-05-27, 23:19:34
there are also new RUMORS on the specs of X900 cards:

Radeon X900 XT-PE
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 500 Mhz Chiptakt
• 700 MHz (1,4 Ghz) Speichertakt
• 512 MB GDDR-3

Radeon X900 XT
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 450 Mhz Chiptakt
• 600 MHz (1,2 Ghz) Speichertakt
• 512 MB GDDR-3



"Leicht" unausgewogenes Füllraten / Bandbreitenverhältnis.....sorry, aber 32Pipelines kann ich nicht ganz ernst nehmen.
24 würde ich vielleicht noch glauben, aber 32....

Gast
2005-05-27, 23:24:55
was ist daran unrealitisch ?

Radeon X900 XT-PE
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 500 Mhz Chiptakt
• 700 MHz (1,4 Ghz) Speichertakt
• 512 MB GDDR-3

Radeon X900 XT
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 450 Mhz Chiptakt
• 600 MHz (1,2 Ghz) Speichertakt
• 512 MB GDDR-3

512m ram ist ok es kommen auch alten karten damit

chiptakt,ram takt machbar

90nm bestätigt auch bei nv

32 pipes ?

Ronny145
2005-05-27, 23:27:46
32 Pipelines, bisschen viel oder? Wie soll da der G70 eine Chance haben. Das kann ich mir bald nicht vorstellen.

Quasar
2005-05-27, 23:33:52
Was ist denn bitte ein T-Buffer?
Der "hierarchische Z-Buffer" kann (als Feature, besser gesagt: Durch den hierarchisch organisierten Z-Buffer kann die GPU...) in seiner höchsten Stufe bis zu 16 Pixel pro Pipeline / 64 Pixel pro Quad oder eben 16x16=256 Pixel vorzeitig rauswerfen.
Leider ist das Verfahren nicht so "robust", wie das von nVidia, welches aber wiederum nicht so maximaleffektiv ist.

Vielleicht kriegt es ja einer der beiden hin, in der nächsten Generation die Vorteile von beiden zu verknüpfen.

Gast
2005-05-27, 23:35:15
das soll der g70 sein

• Gefertigt im 90nm
• 300 Millionen Transistoren
• 550 MHz Chiptakt
• 700MHz Speichertakt (256 MB GDDR3)
• 256 Bit Speicherinterface
• Bis zu 136 Shader Operationen pro Takt (Gegenüber 53 bei der GeForce 6)
• 2x die Leistung einer GeForce 6800 Ultra

leider keine pipesangaben aber vom takt her unrealer als die specs vom r520 oder

Ronny145
2005-05-27, 23:36:42
das soll der g70 sein

• Gefertigt im 90nm
• 300 Millionen Transistoren
• 550 MHz Chiptakt
• 700MHz Speichertakt (256 MB GDDR3)
• 256 Bit Speicherinterface
• Bis zu 136 Shader Operationen pro Takt (Gegenüber 53 bei der GeForce 6)
• 2x die Leistung einer GeForce 6800 Ultra

leider keine pipesangaben aber vom takt her unrealer als die specs vom r520 oder

Jetzt doch wieder in 90nm. Also irgendwie kann ich das nicht glauben.

r3ptil3
2005-05-27, 23:38:28
"Leicht" unausgewogenes Füllraten / Bandbreitenverhältnis.....sorry, aber 32Pipelines kann ich nicht ganz ernst nehmen.
24 würde ich vielleicht noch glauben, aber 32....

Ich behaupte das ja nicht ->http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1117138247

Gast
2005-05-27, 23:40:41
sagen wir mal die karte schaut wirklich so aus

Radeon X900 XT-PE
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 500 Mhz Chiptakt
• 700 MHz (1,4 Ghz) Speichertakt
• 512 MB GDDR-3

wie denkt ihr wird die performance abgehen in titel wie farcry,eq2 naja die grakafresser halt ?

Quasar
2005-05-27, 23:41:16
das soll der g70 sein

• Gefertigt im 90nm
• 300 Millionen Transistoren
• 550 MHz Chiptakt
• 700MHz Speichertakt (256 MB GDDR3)
• 256 Bit Speicherinterface
• Bis zu 136 Shader Operationen pro Takt (Gegenüber 53 bei der GeForce 6)
• 2x die Leistung einer GeForce 6800 Ultra

leider keine pipesangaben aber vom takt her unrealer als die specs vom r520 oder
Das ist der RSX.

Gast
2005-05-27, 23:43:17
was ist daran unrealitisch ?

Radeon X900 XT-PE
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 500 Mhz Chiptakt
• 700 MHz (1,4 Ghz) Speichertakt
• 512 MB GDDR-3

Radeon X900 XT
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 450 Mhz Chiptakt
• 600 MHz (1,2 Ghz) Speichertakt
• 512 MB GDDR-3

512m ram ist ok es kommen auch alten karten damit

chiptakt,ram takt machbar

90nm bestätigt auch bei nv

32 pipes ?


Natürlich scheinen diese Daten auf den ersten Blick recht unglaubwürdig, denkt man aber an den R300 zurück, so weiß man, dass ATI immer für die eine oder andere Überraschung gut ist.

r3ptil3
2005-05-27, 23:44:43
Natürlich scheinen diese Daten auf den ersten Blick recht unglaubwürdig, denkt man aber an den R300 zurück, so weiß man, dass ATI immer für die eine oder andere Überraschung gut ist.

LoL das ist der Text von -> http://www.ati-news.de/cgi-bin/News...1&id=1117138247

aber ja so eine Überraschung wäre immer gut...

Gast
2005-05-27, 23:47:20
LoL das ist der Text von -> http://www.ati-news.de/cgi-bin/News...1&id=1117138247

aber ja so eine Überraschung wäre immer gut...

100 punkte ,hast die news wohl schon oft gelesen ;D

Demirug
2005-05-27, 23:55:42
Das ist der RSX.

Nicht ganz. Der RSX hat nur einen 128 Bit Bus.

robbitop
2005-05-28, 00:35:14
Wie sollte denn sonst Early-Z-Out funktionieren

Kann aber auch sein das ich mich täusche :|
Du bringst hier etwas durcheinander.
Early Z ist lediglich ein vorgezogener Tiefentest. Bereits beim Rastrizen des Triangles im Trisetup passiert das. Der Tiefenwert dieser Position wird direkt über die ROPs an das Trisetup übermittelt. Ist der bereits bestehende Tiefenwert kleiner, wird gerendert, wenn nicht, fällt der Pixel(Quad) raus.
Bei unsorted Rendering funktioniert das natürlich nicht immer, was einen IMR von einem TBDR trennt (dieser nimmt quasi Tile für Tile eine vorsortierung des Bildes vor und schickt erst dann das Tile in die Pipe - Das kostet durch unnötige Texturwechsel allerdings Bandbreite, wie es auch bei alpha blending der Fall ist).

Ein hirarchischer Tiefenspeicher erlaubt es, größere Tiles (max 8x8 bei ATI) in einem Takt zu verwerfen. Es wird getestet ob alle 64 Pixel verdeckt sind oder nicht. Mögliche antworten: ja/nein/teilweise. Nur bei "ja" können auf einen Schlag pro HSR Unit 64 Pixel verworfen werden (gut bei großen verdeckten Objekten). Bei "Teilweise" wird die nächste hirarchische Größe verwandt (4x4 Pixel) usw. Bei "Nein" müssen alle Pixel gerendert werden.
NV zaubert mit Granularität und Robustheit beim Early Z, ATI durch den Hir-Z Buffer eben mit hoher Pixelverwerfungsrate.

Zur Verteilung des Renderings:
Damit die Quads gut ausgelastet sind und sich nicht in die Quere kommen, bekommt jeder Quad seine eigenen Tiles vom zu rendernden Bild. Diese sind AFAIK 16x16 Pixel groß. So läuft intern die Verteilung.
Bei ATI nennt sich das Verfahren SuperTiling, welches eben auch außerhalb der Chips im Multi VPU Verband funktioniert (siehe E&S).

Gast
2005-05-28, 02:23:43
naja ob die angaben stimen?
ausgerechnet der kleinste chip wird in110nm gefertigt?
und seit wann bietet tsmc 110nm low-k an?

Xmas
2005-05-28, 05:28:11
Wie sollte denn sonst Early-Z-Out funktionieren

Kann aber auch sein das ich mich täusche :|
Es wird kein hierarchischer Buffer verwendet. Eventuell sogar überhaupt kein (großer) extra Buffer, sondern die Werte (minZ, maxZ, Stencil) werden on-the-fly aus den komprimierten Z-Tiles im Framebuffer generiert.


Mit Quad meine ich Quadpipeline.
Beide Methoden basieren AFAIK darauf, dass jede Quad-pipeline (zufrieden? ;)) eigene Tiles bekommt, in denen gerendert wird.
AFAIK benutzt nur ATI Screen-orientierte 16x16-Tiles, die fest jeweils einer Pipeline zugeordnet werden.
Bei NVidia verarbeiten die Pipelines Quad-Batches (~1000 Pixel), die keine besondere Anordnung haben müssen.


Du bringst hier etwas durcheinander.
Early Z ist lediglich ein vorgezogener Tiefentest. Bereits beim Rastrizen des Triangles im Trisetup passiert das. Der Tiefenwert dieser Position wird direkt über die ROPs an das Trisetup übermittelt. Ist der bereits bestehende Tiefenwert kleiner, wird gerendert, wenn nicht, fällt der Pixel(Quad) raus.
Das Per-Pixel Early-Z liegt aber erst hinter dem hierarchischen Z-Buffer.

Bei unsorted Rendering funktioniert das natürlich nicht immer, was einen IMR von einem TBDR trennt (dieser nimmt quasi Tile für Tile eine vorsortierung des Bildes vor und schickt erst dann das Tile in die Pipe - Das kostet durch unnötige Texturwechsel allerdings Bandbreite, wie es auch bei alpha blending der Fall ist).
Den Zusammenhang mit dem Alpha-Blending verstehe ich nicht ganz.

Ein hirarchischer Tiefenspeicher erlaubt es, größere Tiles (max 8x8 bei ATI) in einem Takt zu verwerfen. Es wird getestet ob alle 64 Pixel verdeckt sind oder nicht. Mögliche antworten: ja/nein/teilweise. Nur bei "ja" können auf einen Schlag pro HSR Unit 64 Pixel verworfen werden (gut bei großen verdeckten Objekten). Bei "Teilweise" wird die nächste hirarchische Größe verwandt (4x4 Pixel) usw. Bei "Nein" müssen alle Pixel gerendert werden.
NV zaubert mit Granularität und Robustheit beim Early Z, ATI durch den Hir-Z Buffer eben mit hoher Pixelverwerfungsrate.
ATI verwirft maximal 256 Pixel/Takt, NVidia verwirft oder akzeptiert 64.

ATI speichert nur den am weitesten entfernten Wert pro hierZ-Kachel. Das heißt als Ergebnis des Vergleichs gibt es nur entweder "nicht sichtbar" oder "vielleicht sichtbar". In ersterem Fall werden die Pixel verworfen, in letzterem Fall macht man mit der nächstkleineren Stufe des hierZ weiter bis man unten angekommen ist und bei "vielleicht sichtbar" nun eben rendern muss.

Zur Verteilung des Renderings:
Damit die Quads gut ausgelastet sind und sich nicht in die Quere kommen, bekommt jeder Quad seine eigenen Tiles vom zu rendernden Bild. Diese sind AFAIK 16x16 Pixel groß. So läuft intern die Verteilung.
Bei ATI nennt sich das Verfahren SuperTiling, welches eben auch außerhalb der Chips im Multi VPU Verband funktioniert (siehe E&S).
Das ist aber nur bei ATI so. Und SuperTiling ist der Name des übergeordneten verfahrens, das jedem Chip größere Metatiles (z.B. 64x64) zuordnet.

Ailuros
2005-05-28, 08:47:43
XMas,

Den Zusammenhang mit dem Alpha-Blending verstehe ich nicht ganz.

Der hint auf Vorsortierung stimmt ja auch nicht, ist aber auch egal.

http://www.beyond3d.com/forum/viewtopic.php?p=286170&highlight=sorting#286170
http://www.beyond3d.com/forum/viewtopic.php?p=263443&highlight=sorting#263443

***edit:

Das ist aber nur bei ATI so. Und SuperTiling ist der Name des übergeordneten verfahrens, das jedem Chip größere Metatiles (z.B. 64x64) zuordnet.

Obwohl fuer einen anderen Zweck, ATI wendet nicht als einzige macro/micro tiling an. Seit Serie3 oder genauer MBX eben.

robbitop
2005-05-28, 09:38:30
AFAIK benutzt nur ATI Screen-orientierte 16x16-Tiles, die fest jeweils einer Pipeline zugeordnet werden.
Bei NVidia verarbeiten die Pipelines Quad-Batches (~1000 Pixel), die keine besondere Anordnung haben müssen.
Naja zumindist sind die Verfahren sehr ähnlich.


Das Per-Pixel Early-Z liegt aber erst hinter dem hierarchischen Z-Buffer.

Stimmt, das ist logisch.


Den Zusammenhang mit dem Alpha-Blending verstehe ich nicht ganz.

Alphablending (bei Rauch bsw) erfordert u.U. eine Vorsortierung des Renderingvorgangs.


ATI verwirft maximal 256 Pixel/Takt, NVidia verwirft oder akzeptiert 64.

16x16 Pixel = 256 Pixel. Ich habe mich da aus Flüchtigkeit vertan, ja.



ATI speichert nur den am weitesten entfernten Wert pro hierZ-Kachel. Das heißt als Ergebnis des Vergleichs gibt es nur entweder "nicht sichtbar" oder "vielleicht sichtbar". In ersterem Fall werden die Pixel verworfen, in letzterem Fall macht man mit der nächstkleineren Stufe des hierZ weiter bis man unten angekommen ist und bei "vielleicht sichtbar" nun eben rendern muss.

Das meine ich mit robuster und bessere Granularität. Danke für die Details, die hatte ich schon teilweise wieder verdrängt. :up:

Demirug
2005-05-28, 10:21:42
Das Per-Pixel Early-Z liegt aber erst hinter dem hierarchischen Z-Buffer.

Z-Cull (so nennt das nVidia offiziell) arbeitet nur auf Quad ebene. Die Pixel bzw Sample genaue Auswertung machen dann erst die ROPs.

Edit: Der pro Pixel Z Wert wird ja sogar erst im Backend des Pixel-Shaders berechnet.

Demirug
2005-05-28, 10:24:51
robbitop, ein TBDR sortiert nicht. Er verzögert nur das rendern.

robbitop
2005-05-28, 11:20:10
robbitop, ein TBDR sortiert nicht. Er verzögert nur das rendern.
Und warum tut er das? Damit er sämliche Geometrieinformationen zum jeweiligen Tile hat und Early Z dann eben alles an verdeckten Objekten verwerfen kann.
Ok das ist etw. Anderes als Sortieren, aber das Ergebnis ist dasselbe. (auch die unschönen Texturwechsel)

Demirug
2005-05-28, 11:30:56
Und warum tut er das? Damit er sämliche Geometrieinformationen zum jeweiligen Tile hat und Early Z dann eben alles an verdeckten Objekten verwerfen kann.
Ok das ist etw. Anderes als Sortieren, aber das Ergebnis ist dasselbe. (auch die unschönen Texturwechsel)

Das was ein TBDR macht kann man eigentlich nicht als Early-Z im üblichen Sinn bezeichnen. Ein TBDR ala PowerVR benutzt viel mehr eine modifizierte Pipeline bei dem die Z/Stencil ROP Funktionenen vor der Shading einheit sitzen. Da sich die Reihenfolge dadurch niemals verändert kann man auch nicht von einer Sortierung sprechen.

Ailuros
2005-05-28, 11:31:00
Und warum tut er das? Damit er sämliche Geometrieinformationen zum jeweiligen Tile hat und Early Z dann eben alles an verdeckten Objekten verwerfen kann.
Ok das ist etw. Anderes als Sortieren, aber das Ergebnis ist dasselbe. (auch die unschönen Texturwechsel)

Aus einem Intel 2700G whitepaper:

Screen Tiling
The triangles from the processor are not sent to the graphics accelerator in any particular spatial
order (e.g., the triangles are not sent from the upper left triangle to the lower right triangle – they
are essentially sent in a random order). Tiling divides each scene into blocks, and processes each
block independently. This allows the graphics controller to process spatially local triangles
together. This allows the graphics accelerator to process a much smaller data set (e.g., one tile at a
time, as opposed to the whole scene). The graphics accelerator can therefore perform much of the
triangle processing internally for each tile; improving performance and reducing memory
bandwidth requirements.

Zwar liegt da noch mehr dran aber mehr wird halt nicht veroeffentlicht.

Geometrie wird schon auf der Tile-Ebene heutzutage verworfen:

Small Object Culling
On a screen, the smallest visible element is a pixel. If a triangle fails to intersect with a pixel, it
will not be drawn on the screen. Many triangles like this can occur in an image due to complex
models that may be scaled, rotated, and transformed. The tile accelerator removes these unused
triangles, reducing the number of triangles to be processed by the 3D core.

Ich hab nicht die blasseste Ahnung was Du mit dem "Texturwechsel" meinst.

Deferred Texturing
Deferred texturing improves performance by texturing only those pixels that are visible. Because
the graphics controller is working with a smaller data set (a tile), it can perform the Z-compares for
each pixel, before texturing that pixel (e.g., for each pixel, the texture engine will first determine
which triangle is going to be visible, and then apply the appropriate texture). This prevents pixels
from being textured twice. For α-blended textures, more than one triangle may be visible.

***edit: Demi war natuerlich schneller und genauer ;)

http://www.powervr.com/images/BlockDiagrams/MBX.gif

Coda
2005-05-28, 12:14:14
Gibt's eigentlich irgendwo nen guten Artikel über TBRs? Ich versteh das Konzept immer noch nicht.

robbitop
2005-05-28, 12:16:47
Das was ein TBDR macht kann man eigentlich nicht als Early-Z im üblichen Sinn bezeichnen. Ein TBDR ala PowerVR benutzt viel mehr eine modifizierte Pipeline bei dem die Z/Stencil ROP Funktionenen vor der Shading einheit sitzen. Da sich die Reihenfolge dadurch niemals verändert kann man auch nicht von einer Sortierung sprechen.

Das ist mir klar. Ja es ist keine Sortierung. IMO ist das Ergebnis dennoch das gleiche. Ungünstige Texturwechsel.

robbitop
2005-05-28, 12:19:13
Ich hab nicht die blasseste Ahnung was Du mit dem "Texturwechsel" meinst.



Nun wenn du nur das Renderst, was sichtbar ist, kommt es durchaus vor, dass Objekte nur partiell gerendert werden müssen und dann kommt gleich ein Fragment eines anderen Objektes -> Cache leeren -> Cache neu füllen.
Ein IMR rendert gewöhnlich Objekt für Objekt.

Ailuros
2005-05-28, 13:56:19
Nun wenn du nur das Renderst, was sichtbar ist, kommt es durchaus vor, dass Objekte nur partiell gerendert werden müssen und dann kommt gleich ein Fragment eines anderen Objektes -> Cache leeren -> Cache neu füllen.
Ein IMR rendert gewöhnlich Objekt für Objekt.

Ich wuenschte ich koennte das Maerchen glauben dass ein IMR immer alles so berechnet wie es reinfliesst und NIE etwas verzoegert.

http://www.beyond3d.com/forum/viewtopic.php?t=13371&postdays=0&postorder=asc&highlight=hsr&start=0

Hier ein relevanter Thread zum durchlesen, denn wir sind mal wieder verdammt off topic.

Ailuros
2005-05-28, 14:11:05
Gibt's eigentlich irgendwo nen guten Artikel über TBRs? Ich versteh das Konzept immer noch nicht.

Der thread oben duerfte helfen. Es gibt beide Seiten im thread die dafuer oder dagegen sprechen.

pF3NG
2005-05-28, 21:30:23
OT leute

mein ich aber auch :smile:

Xmas
2005-05-29, 00:06:35
Z-Cull (so nennt das nVidia offiziell) arbeitet nur auf Quad ebene. Die Pixel bzw Sample genaue Auswertung machen dann erst die ROPs.

Edit: Der pro Pixel Z Wert wird ja sogar erst im Backend des Pixel-Shaders berechnet.
An dieser Stelle war aber von ATI die Rede, nicht NVidia ;)

Ich wuenschte ich koennte das Maerchen glauben dass ein IMR immer alles so berechnet wie es reinfliesst und NIE etwas verzoegert.
Aber er hält sich in der Regel an die Reihenfolge. Ein TBDR nicht, weswegen dort auch Batching nur wenig bringt.

Gast
2005-05-29, 00:22:37
Nicht ganz. Der RSX hat nur einen 128 Bit Bus.
Der RSX ist mit 128bit an den GDDR3 Speicher angebunden und dann nochmal mit 128bit an den Cell/XDA Speicher. Wie würde man das Speicherinterface dann bezeichnen?


Konsolenfreund

Demirug
2005-05-29, 00:42:40
Der RSX ist mit 128bit an den GDDR3 Speicher angebunden und dann nochmal mit 128bit an den Cell/XDA Speicher. Wie würde man das Speicherinterface dann bezeichnen?


Konsolenfreund

Die Verbindung zum Cell Chip ist kein Speicherinterface sondern eine Kommunikationsverbindung. Bei einem PC Chip rechnet man ja auch nicht die AGP/PCIe Bandbreite zum Speicherinterface hinzu.

tombman
2005-05-30, 04:10:51
Radeon X900 XT-PE
• 32 Pixel-Pipelines
• 10 Vertex-Shader Einheiten
• 90nm low-k bei TSMC
• 500 Mhz Chiptakt
• 700 MHz (1,4 Ghz) Speichertakt
• 512 MB GDDR-3



Na wenn das stimmt, hat ATI einen Überchip wie damals der R300...

Ich glaubs aber nicht, 32pipelines sind einfach zu krass ;)

Btw, könnten einige hier mal wieder ONTOPIC werden? Es geht hier ned um allgemeine chip-Internas sondern um Spekus über den R520.

r3ptil3
2005-05-30, 04:31:51
Na wenn das stimmt, hat ATI einen Überchip wie damals der R300...

Ich glaubs aber nicht, 32pipelines sind einfach zu krass ;)

Btw, könnten einige hier mal wieder ONTOPIC werden? Es geht hier ned um allgemeine chip-Internas sondern um Spekus über den R520.

Aber es wäre geil! 2x R520 mit 32 Pipes pro Graka ;D

Ich hab ein Bild von dem Kühler vom R520 gefunden ->http://www.theinquirer.net/?article=23563

ATI @ Crossfire -> http://www.theinquirer.net/?article=23569

pF3NG
2005-05-30, 06:55:28
Aber es wäre geil! 2x R520 mit 32 Pipes pro Graka ;D

Ich hab ein Bild von dem Kühler vom R520 gefunden ->http://www.theinquirer.net/?article=23563

ATI @ Crossfire -> http://www.theinquirer.net/?article=23569

sieht schon ganz schön laut aus der von R520

Winter[Raven]
2005-05-30, 10:04:52
Aber es wäre geil! 2x R520 mit 32 Pipes pro Graka ;D

Ich hab ein Bild von dem Kühler vom R520 gefunden ->http://www.theinquirer.net/?article=23563

ATI @ Crossfire -> http://www.theinquirer.net/?article=23569

Oh Oh Oh ... das sieht wirlich nach super Laut aus, ich mein ein Alukühler beim R520? Da wird wohl der Lüfter ganz schön schnell drehen... :(

Quasar
2005-05-30, 10:22:17
Ich denke nicht, daß es Alu ist. Allein schon, weil die Wärme von einem kleinen Core in 0,09µ weggeführt werden muss.
Und was Lautstärke angeht, habe ich auch keine Befürchtung - hier hat ATi schließlich einen Ruf zu verlieren. Da wird man sich keine Blöße geben.

Winter[Raven]
2005-05-30, 10:26:58
Ich denke nicht, daß es Alu ist. Allein schon, weil die Wärme von einem kleinen Core in 0,09µ weggeführt werden muss.
Und was Lautstärke angeht, habe ich auch keine Befürchtung - hier hat ATi schließlich einen Ruf zu verlieren. Da wird man sich keine Blöße geben.

Welchen Ruf? Du meinst leise zusein?

Würde mich perösnlich mal interessieren wieso die "Test"-Karte ndie ATI an die Reviewer bzw. Hardwaremagazine wie PCGH verteilt leiser sind als die die dann im Retailmarkt laden und verkauft werden...

Ein Schelm wer jetzt böses denkt...

// Und so "leise" sind die Karten nichts, von der 850PX wollen wir garnicht reden.

wuzetti
2005-05-30, 10:31:07
']

// Und so "leise" sind die Karten nichts, von der 850PX wollen wir garnicht reden.

850PX? neues modell? :confused:

Winter[Raven]
2005-05-30, 10:32:48
850PX? neues modell? :confused:

Ich mein die PE, hab mich vertipp... *hass notebook tastatur :mad: *

Quasar
2005-05-30, 10:33:41
']Welchen Ruf? Du meinst leise zusein?

Würde mich perösnlich mal interessieren wieso die "Test"-Karte ndie ATI an die Reviewer bzw. Hardwaremagazine wie PCGH verteilt leiser sind als die die dann im Retailmarkt laden und verkauft werden...

Ein Schelm wer jetzt böses denkt...
Das musst du die Boardpartner fragen, warum da einige nicht dieselbe leise Kühlung verbauen.
Wird vermutlich eine Kostenfrage sein. ATi zeigt jedenfalls, daß es geht.

StefanV
2005-05-30, 10:51:51
']Oh Oh Oh ... das sieht wirlich nach super Laut aus, ich mein ein Alukühler beim R520? Da wird wohl der Lüfter ganz schön schnell drehen... :(
Nö, der ist ja schließlich nicht so winzig wie bei den bekloppten nV Referenzlösungen ;)

Außerdem reichts ja schon dicke, wenn man weit leiser als die Konkurenz ist, oder? ;)

_DAS_ hat ATi eigentlich seit der 8500 problemlos geschafft :devil:

Coda
2005-05-30, 10:55:52
Na wenn das stimmt, hat ATI einen Überchip wie damals der R300...

Ich glaubs aber nicht, 32pipelines sind einfach zu krass ;)Das die Leute immer nur auf die Pipelines achten. Wie oft muss noch gesagt werden, dass das wirklich nur was bringen würde wenn man 512bit Speicher hat?

Die Speicherbandbreite die da angegeben ist ist aber von nem 256bit Interface. Da kann man sich die 32 Pipelines auch sparen, weil sie absolut nichts mehr bringen werden.

Imho sind das entweder Fehlinformationen von ATi oder irgendwelche Leuten war's wieder zu langweilig.

SKYNET
2005-05-30, 11:42:04
']Welchen Ruf? Du meinst leise zusein?

Würde mich perösnlich mal interessieren wieso die "Test"-Karte ndie ATI an die Reviewer bzw. Hardwaremagazine wie PCGH verteilt leiser sind als die die dann im Retailmarkt laden und verkauft werden...

Ein Schelm wer jetzt böses denkt...

// Und so "leise" sind die Karten nichts, von der 850PX wollen wir garnicht reden.


stimmt, die 850xtpe ist schon gut lärmend, aber die karte haben zuwenig leute, und die die sie haben, stören sich eh nicht drann --> poweruser.

sieht schon ganz schön laut aus der von R520


"kaufen auch sie den ATI R520, er ist ein multitalent... er ist föhn, staubsauger, heizlüfter und grafikkarte in einem..."

SKYNET
2005-05-30, 11:43:45
Nö, der ist ja schließlich nicht so winzig wie bei den bekloppten nV Referenzlösungen ;)

Außerdem reichts ja schon dicke, wenn man weit leiser als die Konkurenz ist, oder? ;)

_DAS_ hat ATi eigentlich seit der 8500 problemlos geschafft :devil:


und sie haben auch geschafft das der x800xtpe fast verbrannt ist... so das man schnell nochmal die die spannung auf den lüfter angehoben hat damit dieser ein wenig mehr leistet. =)

SKYNET
2005-05-30, 11:45:34
Das die Leute immer nur auf die Pipelines achten. Wie oft muss noch gesagt werden, dass das wirklich nur was bringen würde wenn man 512bit Speicher hat?

Die Speicherbandbreite die da angegeben ist ist aber von nem 256bit Interface. Da kann man sich die 32 Pipelines auch sparen, weil sie absolut nichts mehr bringen werden.

Imho sind das entweder Fehlinformationen von ATi oder irgendwelche Leuten war's wieder zu langweilig.


das problem ist, das die meisten einfach garkeine peilung haben das es auch genügend bandbreite brauch um füllrate umzusetzen.
aber da sind NV fanboys auchnet anders also die von ATI.... :|

Pirx
2005-05-30, 12:16:33
Das die Leute immer nur auf die Pipelines achten. Wie oft muss noch gesagt werden, dass das wirklich nur was bringen würde wenn man 512bit Speicher hat?

Die Speicherbandbreite die da angegeben ist ist aber von nem 256bit Interface. Da kann man sich die 32 Pipelines auch sparen, weil sie absolut nichts mehr bringen werden.

Imho sind das entweder Fehlinformationen von ATi oder irgendwelche Leuten war's wieder zu langweilig.
Steht ja nichts von Speicherbandbreite da, also könnte es ja auch ein 512bit SI werden. Daran glaube ich zwar auch nicht, aber irgendwas muß sich an der Bandbreite/Nutzung der Bandbreite verbessern, denn schon die X8x0XT sind da nicht soo gut versorgt.

Winter[Raven]
2005-05-30, 12:27:32
Das musst du die Boardpartner fragen, warum da einige nicht dieselbe leise Kühlung verbauen.
Wird vermutlich eine Kostenfrage sein. ATi zeigt jedenfalls, daß es geht.

Sowas nennt man "KUNDENVERARSCHE", wenn ATI es nicht gebacken bekommt ihre Partner zuverpflichten beim Verbau des Referenzkühlers die selben Spezifikationen zu erfühlen, dann brauchen wir hier vom "RUF" garnicht zureden.

DrumDub
2005-05-30, 12:47:47
']Sowas nennt man "KUNDENVERARSCHE", wenn ATI es nicht gebacken bekommt ihre Partner zuverpflichten beim Verbau des Referenzkühlers die selben Spezifikationen zu erfühlen, dann brauchen wir hier vom "RUF" garnicht zureden. so ein quark. auch nicht alle nv partner verwenden den referenzlüfter von nv. da gibts auch konstruktionen der partner, die (zu) laut sind.
außerdem gibt ja auch reviews der karten einzelner hersteller. die sapphire x800xl pcie wurde auch am anfang dafür bemängelt, dass sie eine zu kleinen und lauten lüfter hat. da muss man sich als kunde halt informieren.

reunion
2005-05-30, 12:51:55
sieht schon ganz schön laut aus der von R520


Ich bewundere immerwieder die Leute, die offensichtlich in der Lage sind anhand eines Bildes die Lautstärke zu definieren.

deekey777
2005-05-30, 12:56:59
Das musst du die Boardpartner fragen, warum da einige nicht dieselbe leise Kühlung verbauen.
Wird vermutlich eine Kostenfrage sein. ATi zeigt jedenfalls, daß es geht.

Wenn mich nicht alles täuscht, werden alle Grafikkarten mit dem Referenzdesign von Sapphire gefertigt - für ATi selbst und für deren Partner. Wenn die eine einzelne X850XT PE etwas lauter ist als der Durchschnitt, hat das nichts zu bedeuten. Auch TheCounter meinte, daß seine X850XT beim Starten des Rechners laut ist, sich aber beruhigt. Auch der Test der X850XT bei CB bescheinigte leise Töne bei der Lautstärke, wogegen dem Test von HT4U nach die Sapphire X850XT (immer noch der gleiche Lüfter) die größte Geräuschkulisse lieferte.

TheGood
2005-05-30, 13:20:30
in der aktuelle gamestar steht dass der r520 ein 16x2 design hat und mit 500 mhz taktet...

Coda
2005-05-30, 13:31:13
Angenommen R520 basiert wirklich auf R420 dann wären 2 TMUs pro Pipeline sehr ungewöhnlich.

Blacksoul
2005-05-30, 14:12:21
"kaufen auch sie den ATI R520, er ist ein multitalent... er ist föhn, staubsauger, heizlüfter und grafikkarte in einem..."

Hat sich ATI wohl bei NVidia abgeschaut ;D

Solche Töne gabs von dir zur FX 5800Ultra wohl kaum, oder? ;)

Ich denke, dass sich die IHVs in Sachen Lautstärke der Referenzkühler nicht viel nehmen werden.

Bis auf die FX Serie hatte ich ab der GF4 von jedem IHV mal 2 Karten, sowohl mit Referenz, als auch mit einer eigenen Kühlkonstruktion des Herstellers und da kann ich nicht unbedingt sagen, dass ATI einen sonderlich guten Ruf hat (jedenfalls nicht vor der X800 Serie). Die Referenzkühler der GF4 (hatte eine MSI) waren min. so schlimm wie die der 9700/9800.

Über die lauten Kühler sollte man sich heute jedoch wirklich nicht mehr wirklich den Kopf zerbrechen, da die Karten von ATI als auch von NVidia per Software geregelt werden können. GF6 Serie hat das Expert tool von Gainward und für die X800 Serie gibt es das ATi (Tray) Tool um die Lüfter auf angenehme Lautstärke bringen zu können und ich glaube nicht, dass sich das in Zukunft groß ändern wird.
Selbstverständlich wisst ihr das alle natürlich und darum gibts selbstverständlich keinen Grund sich deswegen die Köpfe einzuschlagen, nicht? ;)




t.blacksoul.d

Black-Scorpion
2005-05-30, 14:15:17
']Oh Oh Oh ... das sieht wirlich nach super Laut aus, ich mein ein Alukühler beim R520? Da wird wohl der Lüfter ganz schön schnell drehen... :(
Da du ja eine sehr gute Kristallkugel zu haben scheinst, kannst du bestimmt auch sagen wie laut der Lüfter auf dem G70 Shot ist. ;)

R520
http://www.theinquirer.net/images/articles/R520_cooler.jpg

G70
http://www.hardwarezone.com/img/data/articles/2005/1603/g70-front.jpg

SKYNET
2005-05-30, 14:20:53
Hat sich ATI wohl bei NVidia abgeschaut ;D

Solche Töne gabs von dir zur FX 5800Ultra wohl kaum, oder? ;)

Ich denke, dass sich die IHVs in Sachen Lautstärke der Referenzkühler nicht viel nehmen werden.

Bis auf die FX Serie hatte ich ab der GF4 von jedem IHV mal 2 Karten, sowohl mit Referenz, als auch mit einer eigenen Kühlkonstruktion des Herstellers und da kann ich nicht unbedingt sagen, dass ATI einen sonderlich guten Ruf hat (jedenfalls nicht vor der X800 Serie). Die Referenzkühler der GF4 (hatte eine MSI) waren min. so schlimm wie die der 9700/9800.

Über die lauten Kühler sollte man sich heute jedoch wirklich nicht mehr wirklich den Kopf zerbrechen, da die Karten von ATI als auch von NVidia per Software geregelt werden können. GF6 Serie hat das Expert tool von Gainward und für die X800 Serie gibt es das ATi (Tray) Tool um die Lüfter auf angenehme Lautstärke bringen zu können und ich glaube nicht, dass sich das in Zukunft groß ändern wird.
Selbstverständlich wisst ihr das alle natürlich und darum gibts selbstverständlich keinen Grund sich deswegen die Köpfe einzuschlagen, nicht? ;)




t.blacksoul.d

doch, föhn-FX ;D
musst ma suchen, habe dazu früher auch munter gepostet und mich gut amüsiert über den föhn. ;D
besonders das NV eigende video dazu wo sies mit humor nahmen. ;D

SKYNET
2005-05-30, 14:22:21
Da du ja eine sehr gute Kristallkugel zu haben scheinst, kannst du bestimmt auch sagen wie laut der Lüfter auf dem G70 Shot ist. ;)

R520
http://www.theinquirer.net/images/articles/R520_cooler.jpg

G70
http://www.hardwarezone.com/img/data/articles/2005/1603/g70-front.jpg


so laut wie auf ner 6800GT nehme ich an.
also durchaus erträglich, auch bei offenem gehäuse. :cool:

Quasar
2005-05-30, 14:32:30
So scheiden sich die Geister - ich fand die lütten Drehpropeller auf den 6800ern und 6800GT eigentlich recht nervig. Bei geschlossenem Gehäuse.

Gast
2005-05-30, 14:48:06
So scheiden sich die Geister - ich fand die lütten Drehpropeller auf den 6800ern und 6800GT eigentlich recht nervig. Bei geschlossenem Gehäuse.
Außerdem muss man Glück haben. Die Lüfter auf den Kühlkörpern, egal ob von ATI oder nVidia, haben meiner Meinung nach ziemlich viel Produktionstoleranz. Die eine Karte ist etwas leiser, die andere etwas lauter.

Konsolenfreund

SKYNET
2005-05-30, 14:52:32
dann muss ich wohl bei allen 4 NV40/45 karten glück gehabt haben. ;)

Tigerchen
2005-05-30, 15:55:59
Das die Leute immer nur auf die Pipelines achten. Wie oft muss noch gesagt werden, dass das wirklich nur was bringen würde wenn man 512bit Speicher hat?

Die Speicherbandbreite die da angegeben ist ist aber von nem 256bit Interface. Da kann man sich die 32 Pipelines auch sparen, weil sie absolut nichts mehr bringen werden.

Imho sind das entweder Fehlinformationen von ATi oder irgendwelche Leuten war's wieder zu langweilig.

Wenn nV 24 Pipes beim G70 in 110nm schafft sollten 32 Pipes bei 90nm ja auch zu schaffen sein. Zumindest für das ohnehin kaum käuflich zu erwerbende Angeber-Spitzenmodell.
Und du weißt nicht was ATI sich hat einfallen lassen um Bandbreite zu sparen.

robbitop
2005-05-30, 16:05:27
Wenn nV 24 Pipes beim G70 in 110nm schafft sollten 32 Pipes bei 90nm ja auch zu schaffen sein. Zumindest für das ohnehin kaum käuflich zu erwerbende Angeber-Spitzenmodell.
Und du weißt nicht was ATI sich hat einfallen lassen um Bandbreite zu sparen.

Zu schaffen auf jeden Fall. Nur würden sie nichts bringen, da man die Farbwerte nicht alle in den FB schreiben kann. Und großartig sparen läßt sich inzwischen bei einem IMR kaum noch etwas.

tombman
2005-05-30, 16:29:13
Bandbreite is ned alles.

Denn dann würde eine Erhöhung des core Taktes nix bringen bei gleichbleibender Speicherbandbreite. Ist aber nicht so. 3dm05 als Beispiel profitiert praktisch 1:1 vom core Takt.

Neue games berechnen pro pixel immer mehr, also mathematische shader-Leistung, und die genau wird durch mehr pipelines deutlich besser, auch ohne Erhöhung der Speicherbandbreite.

Klar, wenn man in sehr hohen Auflösungen und AA/AF Modi spielt, nutzen die vielen pipelines und die reine Rechenpower immer weniger.

Exxtreme
2005-05-30, 16:45:57
Das die Leute immer nur auf die Pipelines achten. Wie oft muss noch gesagt werden, dass das wirklich nur was bringen würde wenn man 512bit Speicher hat?

Die Speicherbandbreite die da angegeben ist ist aber von nem 256bit Interface. Da kann man sich die 32 Pipelines auch sparen, weil sie absolut nichts mehr bringen werden.

Imho sind das entweder Fehlinformationen von ATi oder irgendwelche Leuten war's wieder zu langweilig.
Kommt darauf an. Bei Shadern ist eher die arithmetische Leistung wichtig. Und wenn dadurch der Chip pro Pixel eh' mehrere Takte braucht, kann man die fehlende Bandbreite gut kaschieren. Deshalb gehe ich davon aus, daß der R520 und der G70 eher in zukünftigen Games punkten werden und nicht in jetzigen. Aber für jetzige Games sind die beiden Kontrahenten wohl eh' mehr als schnell genug.

Demirug
2005-05-30, 18:54:10
Zu schaffen auf jeden Fall. Nur würden sie nichts bringen, da man die Farbwerte nicht alle in den FB schreiben kann. Und großartig sparen läßt sich inzwischen bei einem IMR kaum noch etwas.

Da ist im Prinzip nur noch etwas über größere FIFO Stufen zu machen. Allerdings ist die Objekt Cull Stufe noch nicht so richtig im Chip vorhanden da ist noch was zu machen.

pF3NG
2005-05-30, 19:27:00
Ich bewundere immerwieder die Leute, die offensichtlich in der Lage sind anhand eines Bildes die Lautstärke zu definieren.
Als ich das Bild sah fühlte ich mich unweigerlich an den (Referenz)Lüfter der X800XL AGP und X850XT PCI-E erinnert, das die keine Leisetreter ist weißt du wohl auch!?

pF3NG
2005-05-30, 19:29:48
in der aktuelle gamestar steht dass der r520 ein 16x2 design hat und mit 500 mhz taktet...
auch ne variante.... allerdings hat man auch da das Bandbreiten/Füllraten problem, da ja nicht weniger Texturfüllrate vorhanden ist.... :confused:

reunion
2005-05-30, 19:58:28
ATI R520, NVIDIA G70 Entering Mass Production, Report Claims

ATI Technologies, who is not expected to release its next-generation R520 visual processing unit shortly, is reportedly manufacturing its new graphics processors at Taiwan Semiconductor Manufacturing Company (TSMC) in quantities. NVIDIA Corp. also seems to make its future the chips commercially now. The volumes are not clear, but related packaging and testing orders to Advanced Semiconductor Engineering (ASE) from the two graphics companies are likely to impact ASE’s Q3 results, which may indicate that the chips would be made commercially.

ATI’s R520 graphics chips have been produced in small volumes at Taiwan Semiconductor Manufacturing Company (TSMC) using 90nm process technology and DigiTimes web-site indicated that ASE has received orders for related wafer sorting and flip-chip (FC) packaging. NVIDIA Corp. is also expected to place orders with ASE for FC packaging and testing for its forthcoming G70 chips.

The report means that both leading graphics companies are on-track to release their next-generation visual processing units commercially soon enough. Both NVIDIA and ATI are expected to showcase their next-generation GeForce and RADEON GPUs at Computex Taipei 2005 trade-show behind closed doors, but Santa Clara, California-based NVIDIA is likely to be ahead with actual release of its GeForce 7800-series product. Still, both R520 and G70 graphics cards may become available widely only in the second half of Q3, when chips are tested, packaged, installed onto graphics cards and sent to stores. Nevertheless, according to some reports, the first commercial NVIDIA GeForce 7800-series products would emerge in June.

NVIDIA GeForce 7800 graphics processor is expected to feature 24 pixel and 8 vertex pipelines and to operate at 430MHz, HKEPC web-site recently informed. It is unknown whether the G70-series of the graphics processing units will get any feature-set upgrade compared to the GeForce 6800-series that supports Shader Model 3.0. It remains to be seen whether the G70 is to be called NVIDIA GeForce 7 or receive a different brand-name.

Some sources suggest that NVIDIA’s code-named G70 chip would be made using 0.11 micron process technology at TSMC. By contrast, NVIDIA’s present top-of-the-range chip GeForce 6800 Ultra is manufactured at IBM’s facility in East Fishkill, NY, using 0.13 micron fabrication process.

Specifications of ATI’s code-named R520 VPU, which was originally scheduled for release in June, are unclear at this time. Some sources suggest that the chip may have up to 32 pixel pipelines and up to 350 million transistors, which makes the processor extremely complex. However, given that a new fabrication process is to be used for the manufacturing of R520, it is unlikely that the visual processing unit will be tremendously large in terms of transistor count and complex in terms of the number of pipelines. Fabless semiconductor designers tend to balance complexity of their chips for new fabrication processes. For instance, since 2002, ATI has not launched manufacturing of high-end graphics chips using a new process technology unless the technology was tested on mainstream chips. Still, even on relatively new manufacturing processes, ATI has set pretty high clock-speeds for its VPUs.


http://www.xbitlabs.com/news/video/display/20050530100343.html

reunion
2005-05-30, 21:12:38
Als ich das Bild sah fühlte ich mich unweigerlich an den (Referenz)Lüfter der X800XL AGP und X850XT PCI-E erinnert, das die keine Leisetreter ist weißt du wohl auch!?


Ein Volt weniger Spannung und dies würde sich ändern.

Gast
2005-05-31, 04:02:36
lol http://www.theinquirer.net/?article=23595

mapel110
2005-05-31, 04:13:40
lol http://www.theinquirer.net/?article=23595
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3093307#post3093307
Das kann man dort besprechen.

Ailuros
2005-05-31, 05:28:28
Womoeglich schon wo anders gepostet:

http://www.hothardware.com/viewarticle.cfm?articleid=689

seahawk
2005-05-31, 08:45:24
Ist der Connectorport eigentlich schon auf den heutigen Karten drauf ?

Und kann mal bitte einer mit dem 32 Pipe R520 aufhören, das wird dämlich. R520 ist sicher kein 32x1 Design. (auch wenn das jeute sowieso nur noch eine extrem vereinfachte Beschreibung zur Vereinfachung der Diskussion sein kann).

Demirug
2005-05-31, 08:46:39
Ist der Connectorport eigentlich schon auf den heutigen Karten drauf ?

Und kann mal bitte einer mit dem 32 Pipe R520 aufhören, das wird dämlich. R520 ist sicher kein 32x1 Design. (auch wenn das jeute sowieso nur noch eine extrem vereinfachte Beschreibung zur Vereinfachung der Diskussion sein kann).

Was für einen Connectorport meinst du?

seahawk
2005-05-31, 09:02:22
Was für einen Connectorport meinst du?

Ist schon ok. Ich habe mich gerade eingelesen. Man braucht eine normale Karte und eine Masterkarte.

deekey777
2005-05-31, 12:58:54
Noch etwas zur h264/MP4 Beschleunigung bei Anandtech (http://www.anandtech.com/tradeshows/showdoc.aspx?i=2433) :
"ATI is addressing one part of the problem by offering GPU-accelerated H.264 decoding with the R520. The demo was conducted on 25Mbps HD footage recorded using a HD video camera and played back on a Pentium 4 3.6GHz system (Hyper Threading enabled) with a R520 graphics card.

CPU utilization without the GPU acceleration enabled was stated to be between 90 - 95%, but when GPU accelerated H.264 decode was enabled the CPU utilization dropped to around 33%. We witnessed the GPU-accelerated playback first hand and were quite impressed.

ATI has committed to us that they would have a H.264 player available by the end of this year that would offer this level of acceleration when paired with a R520 GPU. ATI said they were looking into bringing the acceleration to older GPUs, but they would not say anything beyond that."

r3ptil3
2005-05-31, 16:09:21
Passt vielleicht nicht ganz zum Thema -> http://www.giga.de/index.php?storyid=120387

Catalyst 5.6 soll bis zu 50% Performanceschub bringen, dank A.I der Kompressiontechnik von ATI.

Coda
2005-05-31, 16:11:30
A.I. ist keine Kompressionstechnik. Das sind spezifische Spieleoptimierungen. Und wenn man die Wolken komprimiert ist es kein Wunder dass es in manchen Szenen 50% Performanceschub gibt.

mapel110
2005-05-31, 16:13:01
Passt vielleicht nicht ganz zum Thema
Jo, passt besser hier hin
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=226100

r3ptil3
2005-05-31, 16:17:06
Jo, passt besser hier hin
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=226100

Ou sorry das habe ich voll übersehen.

crusader4
2005-05-31, 16:39:33
Eine Frage stellt sich mir seit der Vorstellung von MVPU.

Wird das Master/Slave-System mit verschiedenen Karten beim R520 fortgeführt oder wird es dann nur eine Art Karten geben, die man beliebig einsetzen kann?

Gibt es da irgendwelche Andeutungen seitens ATI oder (gut) informierter Kreise?

Grüße, Crusader

ShadowXX
2005-05-31, 17:47:37
Eine Frage stellt sich mir seit der Vorstellung von MVPU.

Wird das Master/Slave-System mit verschiedenen Karten beim R520 fortgeführt oder wird es dann nur eine Art Karten geben, die man beliebig einsetzen kann?

Gibt es da irgendwelche Andeutungen seitens ATI oder (gut) informierter Kreise?

Grüße, Crusader

Sagen wir es mal so....ich glaube nicht das ATI extra einen neuen Chip (Die Composing-Engine (oder wie das Ding auch heisst) auf den Master-Karten) nur für die x8x0-Reihe entwickelt hat....(die eh durch die r52x-Reihe ersetzt werden soll)

crusader4
2005-05-31, 17:53:20
Sagen wir es mal so....ich glaube nicht das ATI extra einen neuen Chip (Die Composing-Engine (oder wie das Ding auch heisst) auf den Master-Karten) nur für die x8x0-Reihe entwickelt hat....(die eh durch die r52x-Reihe ersetzt werden soll)Oh, da habe ich mich wohl etwas mißverständlich ausgedrückt. Mir ist bewußt, das auch beim R520 Master/Slave Anwendung finden wird. Meine Frage war so gemeint, ob sich das weiter in verschiedenartigen Karten ausdrückt, oder ob alle R520-Karten gleich sind und sowohl Master als auch Slave sein können.

Grüße, Crusader

Demirug
2005-05-31, 17:53:35
Sagen wir es mal so....ich glaube nicht das ATI extra einen neuen Chip (Die Composing-Engine (oder wie das Ding auch heisst) auf den Master-Karten) nur für die x8x0-Reihe entwickelt hat....(die eh durch die r52x-Reihe ersetzt werden soll)

Der Chip kommt mit einiger Wahrscheinlichkeit von den Multi-GPU Karten welche E&S auf Radeonbasis baut.

seahawk
2005-05-31, 18:04:01
Sagen wir es mal so....ich glaube nicht das ATI extra einen neuen Chip (Die Composing-Engine (oder wie das Ding auch heisst) auf den Master-Karten) nur für die x8x0-Reihe entwickelt hat....(die eh durch die r52x-Reihe ersetzt werden soll)

Ich denke nicht, dass es (wenn überhaupt) ein gro0er Aufwand war den Composechip zu entwicklen. Im professionellen Bereihc gibt es ja schon lange Multichip Radeons.

Bei den heutigen Chips braucht man eine Master- und eine Slavekarte. Was bei R520 sein wird, dürfte nur ATI wissen. In jedem Falle braucht man da sowieso 2 R520er.

Gil-galad
2005-05-31, 18:09:10
Auch der Test der X850XT bei CB bescheinigte leise Töne bei der Lautstärke, wogegen dem Test von HT4U nach die Sapphire X850XT (immer noch der gleiche Lüfter) die größte Geräuschkulisse lieferte.

Bei mir lief die Karte auch recht ruhig, außer beim Booten. Da hat sie ordentlich gedreht, sobald Windows geladen wurde, hat sie sich aber beruhigt.

ShadowXX
2005-05-31, 20:02:41
Ich denke nicht, dass es (wenn überhaupt) ein gro0er Aufwand war den Composechip zu entwicklen. Im professionellen Bereihc gibt es ja schon lange Multichip Radeons.

Bei den heutigen Chips braucht man eine Master- und eine Slavekarte. Was bei R520 sein wird, dürfte nur ATI wissen. In jedem Falle braucht man da sowieso 2 R520er.

Egal wie "klein" der Aufwand gewesen wäre, hätte es trotzdem Kosten verursacht die IMHO nur für die Anwendung bei der x8x0-Serie wohl zu hoch gewesen wären (in relation gesehen)....(man muss das ganze ja nicht nur Entwickeln, sondern auch noch Tape-Outs machen, testen, etc, etc.)

Aber wenn der Chip natürlich der ist, der auch bei E&S benutzt wird, erübrigt sich das ganze natürlich, ich war davon ausgegangen, das es eine Neuentwicklung ist.

reunion
2005-06-01, 15:15:01
EARTH 2160 V. 1.1:
- Unterstützung für Pixel Shader 3.0a, den R520 Chipsatz (ATI)

http://www.earth2160.com/gm/support_updates.php

ShadowXX
2005-06-01, 15:18:23
EARTH 2160 V. 1.1:
- Unterstützung für Pixel Shader 3.0a, den R520 Chipsatz (ATI)

http://www.earth2160.com/gm/support_updates.php

Uppss....da deutet sich das an, was Demi schon ansprach...ATI hat wohl einige DX9 specs anders interpretiert als nV und MS hat ein zweites SM3.0 Profil (3.0a) hinterhergeschoben....

Super Super Super.....bin mal gespannt wann die ersten Games dann rauskommen, die entweder nur SM3.0 oder nur SM3.0a unterstützen......

DrumDub
2005-06-01, 15:20:18
EARTH 2160 V. 1.1:
- Unterstützung für Pixel Shader 3.0a, den R520 Chipsatz (ATI)

http://www.earth2160.com/gm/support_updates.php och noe, wieso kocht da ati wieder nen eigenes süppchen? das kann doch nicht wahr sein. daher kommen vielleicht auch die renderingprobleme von denen demirug im zusammenhang mit dem r520 und sm 3.0 titeln berichtet hat.

Demirug
2005-06-01, 15:23:08
Also im aktuellen SDK (APRIL) gibt es kein 3.0a Profil. Zudem würde MS ein solches Profil auch als 3.A bezeichnen. Aber bald gibt es wohl wieder ein neues SDK.

deekey777
2005-06-01, 15:42:25
Also im aktuellen SDK (APRIL) gibt es kein 3.0a Profil. Zudem würde MS ein solches Profil auch als 3.A bezeichnen. Aber bald gibt es wohl wieder ein neues SDK.

Erklär das einem Normalverbraucher, daß so ein Profil 3.A heissen soll und nicht 3.0a.


Aus der ReadMe des Patches 1.32 für Far Cry:

-Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware.

Könnte dies das von dir erwähnte Problem gemeint sein?

Demirug
2005-06-01, 15:43:51
Erklär das einem Normalverbraucher, daß so ein Profil 3.A heissen soll und nicht 3.0a.


Aus der ReadMe des Patches 1.32 für Far Cry:

-Fixed a Shader Model 3.0 issue that caused graphics corruption on new ATI hardware.

Könnte dies das von dir erwähnte Problem gemeint sein?

Wenn da steht das sie ein SM3 Problem mit neuer ATI hardware hatten wird das wohl so sein.

reunion
2005-06-01, 15:49:09
http://www.digitimes.com/news/a20050530A2009.html

Botcruscher
2005-06-01, 16:09:33
Also im aktuellen SDK (APRIL) gibt es kein 3.0a Profil. Zudem würde MS ein solches Profil auch als 3.A bezeichnen. Aber bald gibt es wohl wieder ein neues SDK.

Was wird das wieder für ein Quark. Kann 3.0a weniger oder mehr als 3.0?! :confused:

Coda
2005-06-01, 16:19:15
Weniger wird Winzigweich (hoffentlich) nicht durchgehen lassen

Demirug
2005-06-01, 16:51:10
Was wird das wieder für ein Quark. Kann 3.0a weniger oder mehr als 3.0?! :confused:

Von seiten MS ist mir kein Sub-Profil von 3.0 bekannt. Entsprechend weis ich auch nicht für was das 3.0a stehen soll.

Demirug
2005-06-01, 16:52:09
Weniger wird Winzigweich (hoffentlich) nicht durchgehen lassen

Darauf würde ich mich nicht verlassen. Für 2.B wurden die 2.X festgelegten Forderungen auch nochmal reduziert.

Coda
2005-06-01, 17:38:35
Was wurde denn genau reduziert?

Demirug
2005-06-01, 18:06:00
Eigentlich sollte jede 2.X Karte den texldd Befehl unterstützen. Für ATI wurde das aber aufgehoben und so kann man heute dort lesen:

This instruction is only supported by ps_2_a. It is not supported by ps_2_b.

robbitop
2005-06-01, 18:07:22
Denkbar, dass die Anforderungen reduziert werden. Immerhin besteht die Möglichkeit, dass man R300 nochmal auf SM3 aufgebohrt hat und es nicht ganz geschafft hat oder auf eine andere Art und Weise.
Finde ich gar nicht fein, dass man nachträglich etwas daran ändern kann.

Coda
2005-06-01, 18:13:07
Abwarten was weggelassen wurde. Alles was in die branching Richtung geht wäre verdammt peinlich imho.

Weil dann hätte ich als MS gesagt: Dafür gibt's 2_x :tongue:

reunion
2005-06-01, 18:30:32
Abwarten was weggelassen wurde.


Wie kommst du denn drauf, dass was weggelassen wurde?
Manche Leute interpretieren wirklich wie es ihnen gerade passt. :|


Alles was in die branching Richtung geht wäre verdammt peinlich imho.


ATi wird wohl kaum mit einer besseren Branching-Implementierung wie nV werben und dann ein Feature nichtmal unterstützten. :rolleyes:


Weil dann hätte ich als MS gesagt: Dafür gibt's 2_x :tongue:

So ein Xbox-Deal hat auch seine Vorteile. :naughty:

Demirug
2005-06-01, 18:34:03
ATi wird wohl kaum mit einer besseren Branching-Implementierung wie nV werben und dann ein Feature nichtmal unterstützten. :rolleyes:

Die offiziellen Aussagen zum Branching hören sich bei ATI inzwischen genauso an wie die von nVidia.

Coda
2005-06-01, 18:37:07
Wie kommst du denn drauf, dass was weggelassen wurde?
Manche Leute interpretieren wirklich wie es ihnen gerade passt.Weil es an der SM 3 Spezifikation sonst nichts zu rütteln gibt. Es ist schon alles "drin".

reunion
2005-06-01, 18:47:02
Weil es an der SM 3 Spezifikation sonst nichts zu rütteln gibt. Es ist schon alles "drin".


Alles ist niemals drin, es gibt immerwieder etwas neues.
Wer weiß, vielleicht wurde die Unterstützung für 3dc hinzugefügt, oder irgend eines anderen mehr oder weniger nützlichen Features.

Oder vielleicht hat ATi einfach irgendetwas anders implementiert wie nV. Wer weiß?

deekey777
2005-06-01, 18:49:25
Eigentlich sollte jede 2.X Karte den texldd Befehl unterstützen. Für ATI wurde das aber aufgehoben und so kann man heute dort lesen:
This instruction is only supported by ps_2_a. It is not supported by ps_2_b.



Erst im/ab Dezember-Update steht das, jemand sollte sich bei Microsoft melden, denn in der älteren Dokumenten ist die Welt noch in Ordnung. :D

Aber wie würde sich die Reduzierung auf die schon vorhandenen Spiele/Anwendungen auswirken? Patches?

3Dc ist ein offener "Standard", muß eigentlich nicht irgendwo implementiert werden.

Gast
2005-06-01, 19:24:42
Leute, niemals wird 3.A weniger bieten, als 3.0. Wenn ich jetzt hier schon wieder solche komischen Spekulationen höre, wird mir ganz anders. Als ob Microsoft nachträglich SM3.0 beschneidet. :rolleyes:

Bei 2.0a und 2.0b war es war völlig anderes. Definitv waren beide über den 2.0 Specs und b ist halt für ATI und a für NV.

Konsolenfreund

Gast
2005-06-01, 19:26:58
Falsch, 2.0b war gar nicht vorgesehen, 2.a wurde aus reiner Notwendigkeit geboren. Bis Longhorn wird es nichts geben was "mehr" als SM3.0 bietet.

Gast
2005-06-01, 19:30:44
Falsch, 2.0b war gar nicht vorgesehen, 2.a wurde aus reiner Notwendigkeit geboren. Bis Longhorn wird es nichts geben was "mehr" als SM3.0 bietet.
2.0b und 2.0a wurden geschaffen, um erweiterte Fähigkeiten von R420 und NV30 zu unterstüztzen. Der NV30 hat das a bekommen, weil er vor dem R420 kam. Wirklich notwendig war beides nicht, aber ohne die Erweiterungen, wären NV30 und R420 nicht voll ausgenutzt worden.

Bei SM3.A wird es das selbe sein. Microsoft wird ein paar kleine erweiterte Fahigkeiten des R520 somit in SM3 einfließen lassen.

Konsolenfreund

Demirug
2005-06-01, 19:34:33
Leute, niemals wird 3.A weniger bieten, als 3.0. Wenn ich jetzt hier schon wieder solche komischen Spekulationen höre, wird mir ganz anders. Als ob Microsoft nachträglich SM3.0 beschneidet. :rolleyes:

Bei 2.0a und 2.0b war es war völlig anderes. Definitv waren beide über den 2.0 Specs und b ist halt für ATI und a für NV.

Konsolenfreund

2.X wurde nachträglich auch begrenzt was sicherlich auch nicht vorgesehen war. Hätte sich MS aber nicht darauf eingelassen wäre auch beim R420 bei 2.0 Schluss gewesen.

2.A und 2.B sind nur D3DX Profile. Das Shadermodel bei D3D ist dabei immer 2.X.

Wenn ATI also wegen einer Kleinigkeit 3.0 nicht hinbekommen hat ist es MS durchaus zuzutrauen das sie die Anforderungen nachträglich reduzieren.

Gast
2005-06-01, 19:36:31
2.X wurde nachträglich auch begrenzt was sicherlich auch nicht vorgesehen war. Hätte sich MS aber nicht darauf eingelassen wäre auch beim R420 bei 2.0 Schluss gewesen.

2.A und 2.B sind nur D3DX Profile. Das Shadermodel bei D3D ist dabei immer 2.X.

Wenn ATI also wegen einer Kleinigkeit 3.0 nicht hinbekommen hat ist es MS durchaus zuzutrauen das sie die Anforderungen nachträglich reduzieren.
Das halte ich aber für sehr unwahrscheinlich. Woran sollte es denn gescheitert sein? Jedenfalls fände ich das nicht witzig von Microsoft und ATI, und ich glaube auch nicht dran, bis das bestätigt wird.


Konsolenfreund

Demirug
2005-06-01, 19:44:51
Das halte ich aber für sehr unwahrscheinlich. Woran sollte es denn gescheitert sein? Jedenfalls fände ich das nicht witzig von Microsoft und ATI, und ich glaube auch nicht dran, bis das bestätigt wird.


Konsolenfreund

Vielleicht geht texldd immer noch nicht oder ATI hatte Probleme mit dem unlimitierten Dependent Reads. Woher soll ich das wissen?

Wenn es aber wirklich ein neues Profil gibt dann gehe ich eher von einer Begrenzung den von einer Erweiterung aus den MS hat mehrfach erwähnt das DX9 nicht mehr erweitert wird.

Xmas
2005-06-01, 20:05:03
Eigentlich sollte jede 2.X Karte den texldd Befehl unterstützen. Für ATI wurde das aber aufgehoben und so kann man heute dort lesen:
texldd fällt doch unter D3DPS20CAPS_GRADIENTINSTRUCTIONS, genauso wie ddx und ddy. War das wirklich nicht von Anfang an drin? Schließlich muss ja 2.x nicht heißen dass alle Caps zwischen 2.0 und 3.0 unterstützt werden.


Die 3.0-Spec wurde vor dem NV40-Launch ja auch nochmal angepasst, z.B. dass nur noch texldl/texldd in Branches funktionieren. Deswegen lief ja auch eine der PowerVR-Demos anfangs nicht auf NV40.

Demirug
2005-06-01, 20:23:56
texldd fällt doch unter D3DPS20CAPS_GRADIENTINSTRUCTIONS, genauso wie ddx und ddy. War das wirklich nicht von Anfang an drin? Schließlich muss ja 2.x nicht heißen dass alle Caps zwischen 2.0 und 3.0 unterstützt werden.

In der Ursprünglichen war es nicht enthalten. Ich bin mir aber nicht mehr sicher zu welchem Zeitpunkt es genau eingefügt wurde. Könnte daher durchaus auch ein Dokumentationsfehler gewesen sein.

EDIT: PS ich gehe aber nach wie vor davon aus das dieses 3.0a eine internen Bezeichnung der Earth 2160 Entwickler ist. Vielleicht musste man ein paar Treiberprobleme oder etwas in der Art umgehen und hat dazu Shader ausgetauscht. Vielleicht enthalten die 3.0a Shader auch Code für die Nutzung von Normalmaps im 3Dc Format. Oder sonst etwas was dazu geführt hat das man dür den R520 andere Shader benutzt.

Gast
2005-06-01, 22:57:09
Vieleicht verspätet sich deswegen der R520, da man von den Problemen weis und wartet auf MS bzw. arbeitet an Workarounds.

deekey777
2005-06-01, 23:59:19
ATI to Offer R520 Derivatives for Desktops, Workstations, Mobiles – CEO. ATI’s R5-Series to Stimulate Growth in Different Market Segments for ATI, CEO Says (http://www.xbitlabs.com/news/video/display/20050601075612.html)
Ua:
A web-site recently published a slide marked as ATI’s 2005 Desktop Roadmap and containing information about possible launch timeframes for ATI’s desktop visual processing units (VPUs) internally called as R520, RV530 and RV515. The R520 will, according to the slide, be available sometimes in the second quarter, which is incorrect, as ATI has changed its plans regarding the R520 launch. The RV530 will be released sometimes in the Q3 2005, whereas the launch of the RV515 is scheduled towards the Q4 2005. All of those products will exist in AGP 8x and PCI Express x16 interfaces, either using ATI's Rialto bridge or existing in several types of ASICs. Virtually all of the mentioned chips may operate in different types of applications, including desktop, workstation and mobile.

aths
2005-06-02, 01:13:39
Ich denke nicht dass es Spiele geben wird, die entweder nur mit 3_0 oder 3_A laufen. Sofern ich die Spec richtig verstehe, müsste in diesem Fall 3_A das 3_0 komplett einschließen. Das neue Profil gibt es möglicherweise nur, um besser für die entsprechende Hardware optimieren zu können.

Demirug
2005-06-02, 06:19:46
Ich denke nicht dass es Spiele geben wird, die entweder nur mit 3_0 oder 3_A laufen. Sofern ich die Spec richtig verstehe, müsste in diesem Fall 3_A das 3_0 komplett einschließen. Das neue Profil gibt es möglicherweise nur, um besser für die entsprechende Hardware optimieren zu können.

Welche Spec?

Es gibt derzeit keine Spec für diesen Fall.

ShadowXX
2005-06-02, 07:33:14
ATI to Offer R520 Derivatives for Desktops, Workstations, Mobiles – CEO. ATI’s R5-Series to Stimulate Growth in Different Market Segments for ATI, CEO Says (http://www.xbitlabs.com/news/video/display/20050601075612.html)
Ua:
A web-site recently published a slide marked as ATI’s 2005 Desktop Roadmap and containing information about possible launch timeframes for ATI’s desktop visual processing units (VPUs) internally called as R520, RV530 and RV515. The R520 will, according to the slide, be available sometimes in the second quarter, which is incorrect, as ATI has changed its plans regarding the R520 launch. The RV530 will be released sometimes in the Q3 2005, whereas the launch of the RV515 is scheduled towards the Q4 2005. All of those products will exist in AGP 8x and PCI Express x16 interfaces, either using ATI's Rialto bridge or existing in several types of ASICs. Virtually all of the mentioned chips may operate in different types of applications, including desktop, workstation and mobile.

Hmmm...warum hat ATI keinen Launchtermin für den r520 genannt, sondern nur für rv530 und RV515?


“This year, we will be bringing our new CrossFire technology to the market, with a scalable PCI Express link to support multiple graphics solutions. We are also going to be previewing, but not actually announcing, a lot of our ongoing 90nm development [at Computex Taipei 2005],” Mr. Orton said. Earlier ATI demonstrated its R520 chip at the E3 show in the USA.

reunion
2005-06-02, 08:16:03
R520 has 32 pipelines, 24 working


We learned that R520 might be quite hot as it is the biggest chip ever with its 300+ millions transistors. Since its 90 nanometre its kind of logical that you can place quite a lot of pipelines under its hood and it turns out that ATI has managed to pack in 32 pipes.

http://www.the-inquirer.net/?article=23648

seahawk
2005-06-02, 08:30:09
Der blubbert doch nur rumm.

deekey777
2005-06-02, 10:31:17
Der blubbert doch nur rumm.

Ich glaub, der schreibt was von Xbit ab. Denn sie haben geschrieben, daß der R520 may have bis zu 32 Pipelines.

robbitop
2005-06-02, 10:36:46
8x SM3 Quads und 6-8 SM3 VS auf 300Mio Transistoren? :|
Zumal 8 Quads ohne zusätzliche Bandbreite verhungern würden.
Ich tippe auf weiterhin 4 Quads mit sehr hohem Takt.

seahawk
2005-06-02, 10:37:32
Was wieder auf die Zählweise ankommt. NV35 war ja auch irgendwie ein 8 Pipedesign. ;) Nur Fuad tut immer so, als ob wir von einem 32x1 System sprechen.

wuzetti
2005-06-02, 11:15:44
8x SM3 Quads und 6-8 SM3 VS auf 300Mio Transistoren? :|
Zumal 8 Quads ohne zusätzliche Bandbreite verhungern würden.
Ich tippe auf weiterhin 4 Quads mit sehr hohem Takt.

müsste ATI bei einem 4 Quad design nicht an den ALU's was gedreht haben, um trotz höherem takt mit dem G70 mithalten zu können? Ailuros hat so einen vergleich irgendwo weiter oben in dieser diskussion schon mal angeführt, rein auf taktfrequenz und anzahl von pipelines bezogen. bin aber jetzt zu faul zum suchen....

wobei ich ehrlich gesagt zu wenig davon verstehe, was für SM3 compliance ohnehin geändert werden muss im vergleich zu R3xx/R4xx.
wenn ich das jetzt aber mal aussen vor lasse, würden mir 6 quads eng angelehnt an R3xx/R4xx und weniger takt irgendwie wahrscheinlicher vorkommen, weil das IMHO den entwicklungsaufwand reduzieren würde, oder?

reunion
2005-06-02, 11:17:38
ATI R520 is due in October and is looking like it will ship with 32 active Pipelines. It will have a very high price tag and will be extremely hard come by as ATI have had to move onto a new process and yield rates are very very poor so expect long delays on this product and it will no doubt be an extreme flagship product. However it will kick the G70's ass but will cost a lot more and will be hard to get hold off.

ATI Crossfire technology is their version of SLi which works by an external cable linking to cards together and at the moment the technology/drivers are nowhere near as stable as NV's SLi so ATI still have a lot of work to do.

nVidia on the other hand have G70 already in production. The GTX model will be shipping with 24 pipelines and we should have the product in ample stock from the best partners such as BFG, Leadtek and XFX in 2-3 weeks.

http://forums.overclockers.co.uk/showthread.php?t=17421911

Wer ist Gibbo? :|

seahawk
2005-06-02, 11:33:18
Also das ist interessant. :|

Gast
2005-06-02, 11:40:30
Ich glaub, der schreibt was von Xbit ab. Denn sie haben geschrieben, daß der R520 may have bis zu 32 Pipelines.

euer kindisches runtergemache vom inq nervt außerdem hatte der inq schon vor wochen schonmal gemeldet

TheCounter
2005-06-02, 11:41:29
YTeah, Gibbo is the chap who buys stock / chooses new products for OCUK. Basically is in very regular with Nvidia and ATI, though I get the feeling more with ATI, but could be wrong. He's usually bang on, though.

Das ist Gibbo ;)

deekey777
2005-06-02, 11:45:23
euer kindisches runtergemache vom inq nervt außerdem hatte der inq schon vor wochen schonmal gemeldet

Vergleiche einfach die News von TheInq und die News von Xbit, da findest du viele Parallelen... Und da Fudo nicht in Taipei ist, hat er auch nicht viel zu tun, muß aber seine Quote erfüllen.

Coda
2005-06-02, 11:56:46
euer kindisches runtergemache vom inq nervt außerdem hatte der inq schon vor wochen schonmal gemeldetWas ist daran kindisch? Es ist ein Erfahrungswert, dass Inq nur Scheiße verzapft.

wuzetti
2005-06-02, 12:08:06
Was ist daran kindisch? Es ist ein Erfahrungswert, dass Inq nur Scheiße verzapft.

sch... wohl nicht unbedingt in allen fällen. er hat offensichtlich schon seine quellen, nur scheint er meist nicht in der lage, die informationen, die er bekommt, richtig zu interpretieren.
von da her würde ich sagen, dass man vieles davon mit vorsicht geniessen muss oder auch gleich verschmeissen kann.

wenn ich mich aber recht erinnere, waren seine vorraussagen zum thema R4xx (bis auf den quatsch mit den extreme pipelines) einigermassen akkurat.

Winter[Raven]
2005-06-02, 12:24:08
:| Man sollte das Zitat "32pipes", wirklich auf den Index setzen, der Chip kommt maximal mit 24 pipes, und der Rest ist ehe Wuschdenken.

//EDIT:

Ich will den selben Stoff den dieser Typ zu sich nimmt... :)

robbitop
2005-06-02, 12:28:41
müsste ATI bei einem 4 Quad design nicht an den ALU's was gedreht haben, um trotz höherem takt mit dem G70 mithalten zu können? Ailuros hat so einen vergleich irgendwo weiter oben in dieser diskussion schon mal angeführt, rein auf taktfrequenz und anzahl von pipelines bezogen. bin aber jetzt zu faul zum suchen....

wobei ich ehrlich gesagt zu wenig davon verstehe, was für SM3 compliance ohnehin geändert werden muss im vergleich zu R3xx/R4xx.
wenn ich das jetzt aber mal aussen vor lasse, würden mir 6 quads eng angelehnt an R3xx/R4xx und weniger takt irgendwie wahrscheinlicher vorkommen, weil das IMHO den entwicklungsaufwand reduzieren würde, oder?

Wieso an den ALUs was gedreht? Aus Performance Sicht, sind die pro Takt schnell genug. Nur wenn man 2 Quads weniger hat, muss man das durch Takt wettmachen. Dazu sollten 650MHz reichen (90nm machts möglich).
Allerdings muss man die Interpolatoren und die Genauigkeit (FP32) aufbohren.
An den TMU's müsste auch noch etwas gemacht werden, an den ROPs und man müßte irgendwie dynamic branching für den Pixelteil lauffähig bekommen.
Das sind alles sehr schwierige Eingriffe.

Entwicklungsaufwand kannst du nicht reduzieren, da das Design eh gründlich aufgemöbelt werden muss, um SM3 compliance zu bekommen.
Und es ist natürlich die Frage, wie skallierbar der Pixelteil ist.

wuzetti
2005-06-02, 12:48:59
Wieso an den ALUs was gedreht? .
ich meinte mehr ALU's pro pipe. war verkorkst ausgedrückt, sorry.
Aus Performance Sicht, sind die pro Takt schnell genug. schnell genug wofür? soweit ich weiss, hat NV hier (und nicht nur hier) einen grossen vorteil, weil sie zwei fpu/alu's pro pipe haben.
Nur wenn man 2 Quads weniger hat, muss man das durch Takt wettmachen. Dazu sollten 650MHz reichen (90nm machts möglich).
so ganz hast du mich nicht verstanden bzw. hab ich mich offensichtlich unklar ausgedrückt. wenn ich das richtig im kopf habe, hatte Ailuros das so gemeint, dass 24X430 in etwa dasselbe ergibt wie 16X650, vorausgesetzt, die dinger haben dieselbe rechenkraft. jetzt geh ich aber doch das posting suchen....

Allerdings muss man die Interpolatoren und die Genauigkeit (FP32) aufbohren.
An den TMU's müsste auch noch etwas gemacht werden, an den ROPs und man müßte irgendwie dynamic branching für den Pixelteil lauffähig bekommen.
Das sind alles sehr schwierige Eingriffe.

Entwicklungsaufwand kannst du nicht reduzieren, da das Design eh gründlich aufgemöbelt werden muss, um SM3 compliance zu bekommen.
Und es ist natürlich die Frage, wie skallierbar der Pixelteil ist.
ok, das wollte ich wissen, danke! ;)

robbitop
2005-06-02, 13:05:04
ich meinte mehr ALU's pro pipe. war verkorkst ausgedrückt, sorry.
schnell genug wofür? soweit ich weiss, hat NV hier (und nicht nur hier) einen grossen vorteil, weil sie zwei fpu/alu's pro pipe haben.

so ganz hast du mich nicht verstanden bzw. hab ich mich offensichtlich unklar ausgedrückt. wenn ich das richtig im kopf habe, hatte Ailuros das so gemeint, dass 24X430 in etwa dasselbe ergibt wie 16X650, vorausgesetzt, die dinger haben dieselbe rechenkraft. jetzt geh ich aber doch das posting suchen....


Ok pro Takt ist eine NV4x Pipe (G70 vermutlich eingeschlossen) rund 30% rechenstärker in der Praxis (theoretisch je nach Spezialfall kann das noch höher ausfallen). AiL rechnete hingegen nur mit der Füllrate. Bei 650MHz hätte ATI eine ähnliche Füllrate und vermutlich etw. weniger Pixelshaderperformance bei R420 ALU's. Da die Teile pro ALU an sich schon sau effizient sind (bedenke, NV hat 2 davon pro Pipe und ATI nur 1), könnte ich mir vorstellen, dass man pro Pipe einfach eine 2. ALU hinzufügt. Aber das ist dann auch wieder ein sehr schwerwiegender Eingriff. Oder man sägt die ALU quasi durch. Sprich 2 ALUs mit allerdings nur halbem Funktionsumfang wie im NV40. Außerdem erwarte ich einen möglichen 2:2 Split bei ATI. Das bringt sicher ein bisschen Mehrperformance.

DjDino
2005-06-02, 13:28:01
R520 has 32 pipelines, 24 working (http://www.mvktech.net/content/view/1731//)

Ich vermute man will damit eine Perfomance-Reserve für darauffolgende Modelle als As im Ärmel halten oder ist die Fertigung für ausreichend fehlerfreie 32 Pipes noch nicht gut genug. Wenn dem jedenfalls so ist kann man vielleicht die restlichen hoffentlich wieder freischalten ?!

wuzetti
2005-06-02, 13:35:44
ist leider nur vom INQ abgeschrieben. ich kann mit der 8 quad theorie nix anfangen, weil allgemein bekannt ist, dass die derzeit wohl nicht zu "füttern" sind.

und das mit dem disablen von 2 quads kommt mir genauso unwahrscheinlich vor.

Ailuros
2005-06-02, 13:42:13
AiL rechnete hingegen nur mit der Füllrate.

Eben. Zuverlaessig ist das Ergebnis zwar nicht, aber ein kleines Anzeichen vielleicht dann schon. In 3dmark2005 als Beispiel ergibt mir diese Methode zumindest ziemlich zuverlaessige Resultate bis jetzt (denk an 6600GT@SLi vs. X800XT PE).

Bei 650MHz hätte ATI eine ähnliche Füllrate und vermutlich etw. weniger Pixelshaderperformance bei R420 ALU's. Da die Teile pro ALU an sich schon sau effizient sind (bedenke, NV hat 2 davon pro Pipe und ATI nur 1), könnte ich mir vorstellen, dass man pro Pipe einfach eine 2. ALU hinzufügt.

Eben weil sie schon ziemlich effizient sind, klingt es eher danach als ob das 16/1/1/1 Geruecht eher darauf zutrifft.

Außerdem erwarte ich einen möglichen 2:2 Split bei ATI.

Meinst Du jetzt superscalar? Ich hab zwar keine solchen Details gehoert, aber es wuerde mich nicht wundern falls es nicht der Fall sein wird.

seahawk
2005-06-02, 13:48:52
16/1/1/1 habe ich in letzter Zeit als fraglich gehört. Mehr eine Art 16/2 ...

DjDino
2005-06-02, 13:49:03
ich kann mit der 8 quad theorie nix anfangen, weil allgemein bekannt ist, dass die derzeit wohl nicht zu "füttern" sind.
Schon gehört, ja - damit wäre es bei 32 Pipes nicht sonderlich effektiv, dieser Umstand aber der vermuteten "Taktik" die dahinter steckt (As im Ärmel gegen Nvidia) nicht zwindend ein Hinderniss sein muss. Konkurenzbehauptung und Produkteffektivität müssen nicht zwingend in einen Topf - vorallem dann wenn es auch den Vorteil hätte bei darauffolgenden Modellen die Fertigungstechnik quasi nicht ändern zu müssen was langfristiger kalkuliert Produktionskosten spart.Ist praktisch der Umkehrschluss zu den deaktivierten Pipes zwecks Low/Midrange-Modellen.

Ailuros
2005-06-02, 13:49:41
ist leider nur vom INQ abgeschrieben. ich kann mit der 8 quad theorie nix anfangen, weil allgemein bekannt ist, dass die derzeit wohl nicht zu "füttern" sind.

und das mit dem disablen von 2 quads kommt mir genauso unwahrscheinlich vor.

Wenn mir jegliche dieser Quellen definiert wofuer genau "quad" oder "pipeline" in jeglichem Fall steht, kann ich mir dann auch besser vorstellen was gemeint sein koennte. Eine These ueber ziemlich "kurze und seichte" quads koennte dann schon Sinn machen was die Anzahl betrifft (ie 8), nur bringt so ein Design nicht unbedingt Vorteile im Vergleich zu staerkeren 4 quads. Je kuerzer die Abstaende zwischen den Einheiten desto besser IMHLO, sonst muss man auch noch extra dazutuefteln um den Datenstrom besser zu optimieren.

Wie dem auch sei, ob jetzt 32*a oder 16*b ist mir im Grunde auch schnuppe, solange in beiden Faellen etwa das Gleiche am anderen Ende herauskommt. Nichtdestominder sind wir wohl langsam am Ende der "quad-Aera" so wie es aussieht, wenn ich mir den Xenon-Design so ansehe und die Moeglichkeiten fuer WGF2.0 ueberdenke.

Dann werden die Berichte von den trash tabloid sites sicher noch albener als je zuvor.

Ailuros
2005-06-02, 13:53:06
16/1/1/1 habe ich in letzter Zeit als fraglich gehört. Mehr eine Art 16/2 ...

Wobei 16/1/1/1 fuer was steht und ebenso 16/2?

seahawk
2005-06-02, 13:53:19
ATI wird keinen Chip bringen der prinzipiell zu 1/3 deaktivert ist. Da verschwenden sie ca. 20% DieFläche. Rechne das mal pro Wafer. Und über die Produktionszeit. Da wäre die Entwicklung und der Tape-Out einer erweiterten Version hinterer billiger.

R520 hat 32 Pipes, es kommt nur auf die Zählweise an. Und ich vermute auch, dass die High-End-Version sehr teuer und schlecht verfügbar sein wird. Ich erinnere mal an den Kommentar, dass der R520 der NV30 von ATI werden könnte. Da lag imho sehr viel Wahrheit drinne.

Adam D.
2005-06-02, 13:53:39
Das hatten wir doch schon mal...Das ist doch sowas von unwirtschaftlich, also ich kann's mir nicht vorstellen.

seahawk
2005-06-02, 13:57:40
Wobei 16/1/1/1 fuer was steht und ebenso 16/2?

PM ab hier

DjDino
2005-06-02, 14:05:33
ATI wird keinen Chip bringen der prinzipiell zu 1/3 deaktivert ist. Da verschwenden sie ca. 20% DieFläche. Rechne das mal pro Wafer. Und über die Produktionszeit. Da wäre die Entwicklung und der Tape-Out einer erweiterten Version hinterer billiger.

R520 hat 32 Pipes, es kommt nur auf die Zählweise an. Und ich vermute auch, dass die High-End-Version sehr teuer und schlecht verfügbar sein wird. Ich erinnere mal an den Kommentar, dass der R520 der NV30 von ATI werden könnte. Da lag imho sehr viel Wahrheit drinne.


Das die Verschwengung von 20% DieFläche unwirtschaftlicher ist als die Neuentwicklung und Produktionsumstellung kann ich mir in diesem Fall nicht vorstellen wenn ersteres taktisch und da vorallem zeitmässig schnelleres Reagieren auf die Konkurenz ermöglicht.(Neuentwicklung und Produktionsumstellung dauert garantiert viel länger) Zudem kann die DieFlächen-Verschwendung wohl grundsätzlich eine nicht so grosse Belastung darstellen da dessen Verlust-Miteinkalkulation sich doch oft rentiert wie man bei den absichtlich deaktivierten (meist defekten Pipes) der Low/Midrange-Modelle sieht.Das gilt um so mehr da die Hersteller gerade mit diesen Low/Midrange-Karten den meisten Umsatz machen.

seahawk
2005-06-02, 14:12:47
Das die Verschwengung von 20% DieFläche unwirtschaftlicher ist als die Neuentwicklung und Produktionsumstellung kann ich mir in diesem Fall nicht vorstellen wenn ersteres taktisch und da vorallem zeitmässig schnelleres Reagieren auf die Konkurenz ermöglicht.(Neuentwicklung und Produktionsumstellung dauert garantiert viel länger) Zudem kann die DieFlächen-Verschwendung wohl grundsätzlich eine nicht so grosse Belastung darstellen da dessen Verlust-Miteinkalkulation sich doch oft rentiert wie man bei den absichtlich deaktivierten (meist defekten Pipes) der Low/Midrange-Modelle sieht.Das gilt um so mehr da die Hersteller gerade mit diesen Low/Midrange-Karten den meisten Umsatz machen.

Das ist Quatsch. Die erfolgreichen Midrangekarten sind 8 Pipekarten und im Lowrange 4 Pipekarten. Und da wird Geld verdient.

Die kastrierten Highendkarten gab es :

a) um Schrott noch zu vermarkten ( 8 Pipe R420)
b) wenn ein entsprechendes Midrangeprodukt fehlte (9500pro)
c) den Yield im aktzeptabelen Bereich zu halten (X800PRO. 9800SE)

Oder anders gesagt, wenn die den Chip in der jetzigen Revision sowieso nicht zuverlässig als 32 Pipevariante fertigen können, dann brauchen sie sowieso eine neue Revision und einen neuen Tape-Out. Das ist der Aufwand einen Chip zu verdoppeln oder zu erweitern auch nicht mehr viel größer.

Gast
2005-06-02, 14:14:29
Das ist Quatsch. Die erfolgreichen Midrangekarten sind 8 Pipekarten und im Lowrange 4 Pipekarten. Und da wird Geld verdient.

Die kastrierten Highendkarten gab es :

a) um Schrott noch zu vermarkten ( 8 Pipe R420)
b) wenn ein entsprechendes Midrangeprodukt fehlte (9500pro)
c) den Yield im aktzeptabelen Bereich zu halten (X800PRO. 9800SE)

Oder anders gesagt, wenn die den Chip in der jetzigen Revision sowieso nicht zuverlässig als 32 Pipevariante fertigen können, dann brauchen sie sowieso eine neue Revision und einen neuen Tape-Out. Das ist der Aufwand einen Chip zu verdoppeln oder zu erweitern auch nicht mehr viel größer.

So genau hab ichs noch nicht betrachtet, denke da hast du voll recht :)

DjDino
2005-06-02, 14:16:22
(oberes Posting von mir)

Sorry, wird zu "off Topic" ...

Ailuros
2005-06-02, 16:39:39
ATI wird keinen Chip bringen der prinzipiell zu 1/3 deaktivert ist. Da verschwenden sie ca. 20% DieFläche. Rechne das mal pro Wafer. Und über die Produktionszeit. Da wäre die Entwicklung und der Tape-Out einer erweiterten Version hinterer billiger.

R520 hat 32 Pipes, es kommt nur auf die Zählweise an. Und ich vermute auch, dass die High-End-Version sehr teuer und schlecht verfügbar sein wird. Ich erinnere mal an den Kommentar, dass der R520 der NV30 von ATI werden könnte. Da lag imho sehr viel Wahrheit drinne.

Sowohl das 32 Pipe-Geruecht als auch dass R520 ATI's "NV30" waere stammt vom INQ. Kein IHV schickt verpatzte Prototypen zu grossen ISVs und sowohl R520 als auch G70 hocken bei solchen seit Maerz.

ATI hat sich verdammt verknotet mit MVPU, da es nicht so frueh geplant war wie bei NVIDIA und es war auch nicht gerade ein Kinderspiel fuer sie. Von dem abgesehen werden wohl G70/R520 mit nicht besonders grossem Abstand auf die Ladentische kommen.

http://www.digitimes.com/news/a20050530A2009.html

seahawk
2005-06-02, 19:06:52
Sowohl das 32 Pipe-Geruecht als auch dass R520 ATI's "NV30" waere stammt vom INQ. Kein IHV schickt verpatzte Prototypen zu grossen ISVs und sowohl R520 als auch G70 hocken bei solchen seit Maerz.

ATI hat sich verdammt verknotet mit MVPU, da es nicht so frueh geplant war wie bei NVIDIA und es war auch nicht gerade ein Kinderspiel fuer sie. Von dem abgesehen werden wohl G70/R520 mit nicht besonders grossem Abstand auf die Ladentische kommen.

http://www.digitimes.com/news/a20050530A2009.html

Lauffähig ja, aber lauffähig mit der gewünschten Leistung ? Da liegt afaik das Problem. Und das NV30 Gerücht habe ich nicht nur vom Inq. gehört.

reunion
2005-06-02, 19:22:57
Lauffähig ja, aber lauffähig mit der gewünschten Leistung ?

Man würde die Chips wohl kaum schon bei ASE produzieren lassen, wenn man damit in irgendeiner Form nicht zufrieden wäre bzw. noch was ändern würde.

robbitop
2005-06-02, 19:50:34
Meinst Du jetzt superscalar? Ich hab zwar keine solchen Details gehoert, aber es wuerde mich nicht wundern falls es nicht der Fall sein wird.
Nein ich meine keine superskalare Architektur. Ich meine Coissue. ATI kann derzeit nur einen Vec3+1 Split. Ich erwarte aber einen zusätzlichen Vec2+Vec2 Split.

seahawk
2005-06-02, 20:08:17
Man würde die Chips wohl kaum schon bei ASE produzieren lassen, wenn man damit in irgendeiner Form nicht zufrieden wäre bzw. noch was ändern würde.

Produziert in "small Volumes". Das kann auch eher noch ein Testbetireb bzw, die Aufnahme/ Anlauf der Produktion sein. Eine richtige Auswirkung wird erst für das dritte Quartal erwartet.

reunion
2005-06-02, 21:26:30
Produziert in "small Volumes". Das kann auch eher noch ein Testbetireb bzw, die Aufnahme/ Anlauf der Produktion sein.


Das "small Volumes" bezieht sich AFAIK auf TSMC.
Und für eine "Testbetrieb" geht man nicht zu ASE.


Eine richtige Auswirkung wird erst für das dritte Quartal erwartet.

Logisch, das zweite Quartal endet auch schon diesen Monat.
Im übrigen gilt die Meldung genauso für den G70.

Demirug
2005-06-02, 21:49:25
Das "small Volumes" bezieht sich AFAIK auf TSMC.
Und für eine "Testbetrieb" geht man nicht zu ASE.

Natürlich geht man auch mit der Testserie zu ASE wenn man dort auch später mit der eigentlich Produktion hin möchte. Man muss ja auch dort die entsprechenden Produktionsstrassen vorbereiten.

r3ptil3
2005-06-02, 21:50:43
http://www.giga.de/index.php?storyid=120579

ATI Radeon X550 soll jetzt bald kommen!
Ein bisschen komisch, schliesslich basiert die Radeon X550 auf der R300 Technologie und soll auch nur Shader Model 2.0 unterstützen.

ShadowXX
2005-06-02, 22:31:47
http://www.giga.de/index.php?storyid=120579

ATI Radeon X550 soll jetzt bald kommen!
Ein bisschen komisch, schliesslich basiert die Radeon X550 auf der R300 Technologie und soll auch nur Shader Model 2.0 unterstützen.

Den Teil hättest du mitlesen sollen:


In Sachen Performance soll die X550 etwa auf dem Niveau einer Radeon 9550 liegen, woraus man auch Rückschlüsse auf die Namensgebung ziehen kann.


Mit r5x0 hat das nix zu tun.....

r3ptil3
2005-06-02, 22:36:28
Den Teil hättest du mitlesen sollen:



Mit r5x0 hat das nix zu tun.....

Das meine ich ja! Die X550 ist eine identische 9550 nur halt mit PCIe! Ich meint nur was das jetzt bringen sollte da ja eh bald neue Mainstream-Karten kommen.

ShadowXX
2005-06-02, 22:49:14
Das meine ich ja! Die X550 ist eine identische 9550 nur halt mit PCIe! Ich meint nur was das jetzt bringen sollte da ja eh bald neue Mainstream-Karten kommen.

Erstmal werden nur High-End Karten kommen....die r520-Mainstream-Varianten würde ich nicht zu früh erwarten.

Davon abgesehen....ist der 9550 noch Mainstream...der ist wohl eher "Higher"-Low-End.

r3ptil3
2005-06-02, 22:53:00
Erstmal werden nur High-End Karten kommen....die r520-Mainstream-Varianten würde ich nicht zu früh erwarten.

Davon abgesehen....ist der 9550 noch Mainstream...der ist wohl eher "Higher"-Low-End.

Ja aber trotzdem meiner Meinung nach sinnlos jetzt noch mit der Produktion dieser Grafikkarten anzufangen! Aber ATI weiss sicher besser als ich was sie machen.


Es wird behauptet das der R520 32Pipes hat jedoch nur 24 aktiviert sind? (Laut http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1117736300)
Ich denke eher 24PixelPipelines + 8Vertex Shader und die haben das halt mit Extrem Pipelines verwechselt aus denen nichts wird und raus kommt diese News!

deekey777
2005-06-02, 23:14:07
Das ATi-News Team sollte einfach ins das auf der Seite verlinkte Forum reinschauen. Die News selbst wurde aber von The Inq übernommen und ins Deutsche übersetzt (da ist auch die Quelle angegeben).

aths
2005-06-03, 00:00:31
sch... wohl nicht unbedingt in allen fällen. er hat offensichtlich schon seine quellen, nur scheint er meist nicht in der lage, die informationen, die er bekommt, richtig zu interpretieren. Gerade Fudo lässt sich mit jedem Scheiß abfüttern, den er von irgendwoher bekommt, und darauf aufbauend interpretiert er, ohne Fachwissen zu haben, weiter.

Ailuros
2005-06-03, 00:39:57
Lauffähig ja, aber lauffähig mit der gewünschten Leistung ? Da liegt afaik das Problem. Und das NV30 Gerücht habe ich nicht nur vom Inq. gehört.

Es wurde vom INQ als erster berichtet und gehoert zum ueblichen Quatsch.

Ja R520 ist lauffaehig mit der gewuenschten Leistung; mehr als "Refresh-Leistung" war auch nie geplant.

Warum sollen denn ATI/NVIDIA es besonders eilig haben?

a) Zeitige GPUs verkaufen sich immer noch sehr gut.
b) Vor Weihnachten (falls es nicht noch eine Verspaetung gibt) 2006 wird wohl mit LONGHORN nichts werden.
c) ATI hat sich momentan mehr auf MVPU konzentriert, weil sie eben keine Antwort auf SLi bis jetzt hatten.

Gast
2005-06-03, 08:21:39
a) Zeitige GPUs verkaufen sich immer noch sehr gut.
b) Vor Weihnachten (falls es nicht noch eine Verspaetung gibt) 2006 wird wohl mit LONGHORN nichts werden.
c) ATI hat sich momentan mehr auf MVPU konzentriert, weil sie eben keine Antwort auf SLi bis jetzt hatten.

Zu a) Das glaube ich eher weniger ;)
Zu b) Stimmt!
Zu c) ATI hat mehrere Entwicklerteams, davon hat sich eines auf MVPU konzentriert und ein anderes auf R520......etc......

wuzetti
2005-06-03, 08:32:25
Gerade Fudo lässt sich mit jedem Scheiß abfüttern, den er von irgendwoher bekommt, und darauf aufbauend interpretiert er, ohne Fachwissen zu haben, weiter.

hab ich was anderes behauptet?
und überhaupt hab ich keinen bock, den typ in schutz zu nehmen, er ist mir wirklich wurscht. trotzdem waren seine meldungen zu R4xx ab einem gewissen zeitpunkt korrekt, wenn ich mich recht erinnere. ich wollte eigentlich nur darauf hinaus.
oder ich habs falsch im kopf, ist ja schliesslich schon einige zeit her. ;)

seahawk
2005-06-03, 08:40:36
Es wurde vom INQ als erster berichtet und gehoert zum ueblichen Quatsch.

Ja R520 ist lauffaehig mit der gewuenschten Leistung; mehr als "Refresh-Leistung" war auch nie geplant.

Warum sollen denn ATI/NVIDIA es besonders eilig haben?

a) Zeitige GPUs verkaufen sich immer noch sehr gut.
b) Vor Weihnachten (falls es nicht noch eine Verspaetung gibt) 2006 wird wohl mit LONGHORN nichts werden.
c) ATI hat sich momentan mehr auf MVPU konzentriert, weil sie eben keine Antwort auf SLi bis jetzt hatten.

Der Inq. war der erste der das veröffentlicht hat. ;)

Das hängt von der Defintion der gewünschten Leistung ab. Er erreicht afaik momentan eine refreshtypische Leistung. Aber vielleicht nicht die LEistung, sich ATI wünscht.

a) Stimmt für NV mehr als für ATI. Da einschlägige Zeitschriften SM3.0 immer mehr als Muss verkaufen.
b) Das ist wahr. Die Auswirkungen sah man ja bereits.
c) Jein. SLI (bzw. der Erfolg von SLI) hat ATI überrascht und man mußte eine Lösung finden. Crossfire zeigt imho sehr deutlich, dass sich bei der Entwicklung vom R420 nicht an eine MVPU Lösung dachten.

Crushinator
2005-06-03, 10:40:00
Sorry für den orangenen Text, aber wenn ich hier noch mehr Posts von gesperrten Usern entdecke, lasse ich gleich den ganzen IP-Block einer berühmten Bank sperren.

Ailuros
2005-06-03, 11:08:16
Der Inq. war der erste der das veröffentlicht hat. ;)

Das hängt von der Defintion der gewünschten Leistung ab. Er erreicht afaik momentan eine refreshtypische Leistung. Aber vielleicht nicht die LEistung, sich ATI wünscht.

Nach der letzten PM sollte das wohl auch geklaert sein. Seit Q3 2004 ist das schon bekannt.

a) Stimmt für NV mehr als für ATI. Da einschlägige Zeitschriften SM3.0 immer mehr als Muss verkaufen.
b) Das ist wahr. Die Auswirkungen sah man ja bereits.
c) Jein. SLI (bzw. der Erfolg von SLI) hat ATI überrascht und man mußte eine Lösung finden. Crossfire zeigt imho sehr deutlich, dass sich bei der Entwicklung vom R420 nicht an eine MVPU Lösung dachten.

a)Relativ irrelevant fuer ATI, da die Skalierung von SM3.0 bis in den low-end Markt noch einige Zeit dauern wird. Mainstream ein paar Monate nach high end und dann erst low-end. Stichwort: grosse Verkaufsvolumen. Das Entwickler SM3.0 faehige Entwicklungs-Plattformen haben ja und das ist auch eine ziemlich dringende Notwendigkeit.

c) Ich hab ja auch nicht behauptet dass es ATI von Angang an geplant hatte; eben aus dem Grund versetzte man die R520 Veroeffentlichung um sich auf MVPU konzentrieren zu koennen und nicht weil der erste irgendwelche Macken hat.

Hauwech
2005-06-03, 11:57:14
Das die Verschwengung von 20% DieFläche unwirtschaftlicher ist als die Neuentwicklung und Produktionsumstellung kann ich mir in diesem Fall nicht vorstellen wenn ersteres taktisch und da vorallem zeitmässig schnelleres Reagieren auf die Konkurenz ermöglicht.(Neuentwicklung und Produktionsumstellung dauert garantiert viel länger) Zudem kann die DieFlächen-Verschwendung wohl grundsätzlich eine nicht so grosse Belastung darstellen da dessen Verlust-Miteinkalkulation sich doch oft rentiert wie man bei den absichtlich deaktivierten (meist defekten Pipes) der Low/Midrange-Modelle sieht.Das gilt um so mehr da die Hersteller gerade mit diesen Low/Midrange-Karten den meisten Umsatz machen.

Die Verschwendung von DieFläche kann sich vielleicht Intel mit eigenen Fabriken und mehreren Standbeinen leisten (Quersubventionen), aber nicht eine fabless Firma wie ATI oder Nvidia, dazu noch in einem von relativ schnellen Wechseln geprägten Markt.

Wenn ATI erstmal ein SM3 Design hat, und das haben sie ja schon länger, ist eine Skalierung mit Sicherheit relativ problemlos möglich. ATI wäre nämlich saudumm wenn sie "nur wegen SM3" auf die gute Skalierbarkeit ihrer Chips quasi verzichten würden. Von Anfang an viel Geld aus dem Fenster zu schmeissen nur um schnell reagieren zu können wenn der Hauptkonkurrent voraussichtlich erst in ca. einem Jahr vielleicht auch auf 32 Pipes geht, ist völliger Blödsinn.
Speicher spielt auch noch eine Rolle und wenn der nicht mit vernünftigen Taktraten verfügbar ist, bringen mehr und mehr Pipes sehr wenig und ein 512bit Interface ist auch nicht in Sicht.

ShadowXX
2005-06-03, 13:55:00
c) Ich hab ja auch nicht behauptet dass es ATI von Angang an geplant hatte; eben aus dem Grund versetzte man die R520 Veroeffentlichung um sich auf MVPU konzentrieren zu koennen und nicht weil der erste irgendwelche Macken hat.

Wobei ich dabei immer noch nicht ATIs Taktik verstehe....

IMHO wäre es sinniger gewesen gleich den r520 mit MVP vorzustellen, auch wenn die vorstellung dann vielleicht 1 Monat später gewesen wäre.

Auf diesen einen Monat (speziell wenn die Masterkarten sowieso erst im August(!!) kommen sollen) wäre es auch nicht mehr angekommen.

MVP für die r4x0-reihe hätte ich dann nachgeschoben bzw. gleich mitangekündigt.

Speziell unter dem Standpunkt, das der r520 Fertig und Bugfrei sein soll, kommt mir das ganze noch komischer vor....

Crushinator
2005-06-03, 14:11:45
Wobei ich dabei immer noch nicht ATIs Taktik verstehe.... (...)
Die wäre vermutlich relativ einfach zu verstehen: Abwarten was die Konkurrenz neues an Chips vorstellt, und mindestens bis dahin die Lagerbestände alter Chips in neuem Gewand (mit Composer) verticken können. :D

seahawk
2005-06-03, 14:31:10
Die wäre vermutlich relativ einfach zu verstehen: Abwarten was die Konkurrenz neues an Chips vorstellt, und mindestens bis dahin die Lagerbestände alter Chips in neuem Gewand (mit Composer) verticken können. :D

Abwarten glaube ich weniger. Diese abwarten Taktik wird imho überschätzt. Bedenke, dass keiner der beiden momentan in Zugzwang ist.

Ich vermute eher, dass ATI in letzter Zeit etwas viele Projekte angegangen ist und MVPU als Überraschungserfolg hinzu kam. Crossfire war vergleichsweise leicht zu entwicklen. Und man hat im absoluten High-Endbereich wieder die Leistungskrone. Vor allem hält es R500 nicht auf, der wohl das wichtigste Projekt sein dürfte.

R520 ist hingegen ein zweischneidiges Schwert. Bringt ATI eine SM3.0 Chip deutlich bevor auch die Mainstreamvarianten verfügbar sind, dann werden diese leiden. Denn dem Käufer wird es schwer zu vermitteln sein, warum er noch eine 2.B Karte kaufen soll, wenn selbst ATI auf SM3.0 gegangen ist.

ShadowXX
2005-06-03, 14:56:07
R520 ist hingegen ein zweischneidiges Schwert. Bringt ATI eine SM3.0 Chip deutlich bevor auch die Mainstreamvarianten verfügbar sind, dann werden diese leiden. Denn dem Käufer wird es schwer zu vermitteln sein, warum er noch eine 2.B Karte kaufen soll, wenn selbst ATI auf SM3.0 gegangen ist.

Das und die jetzige Vorstellung von MVP, welches dann sogar erst ab August verfügbar ist, lassen mich momentan vermuten, das der r520 nicht vor Weihnachten aufschlägt....

Aus welchen Gründen auch immer.......

Gast
2005-06-03, 15:39:00
nicht vor weihnachten ist nun wirklich blödsinn,ich glaub ich speakuliert etwas zu viel in letzter zeit

Gast
2005-06-03, 15:51:19
Die wäre vermutlich relativ einfach zu verstehen: Abwarten was die Konkurrenz neues an Chips vorstellt, und mindestens bis dahin die Lagerbestände alter Chips in neuem Gewand (mit Composer) verticken können. :D
Gerade für ATI ist das angesagt, denn wenn die SM3.0 Marketingmaschine erstmal angerollt ist seitens ATI, werden die SM2.0 Karten nicht mehr gut laufen.

Konsolenfreund

ShadowXX
2005-06-03, 15:55:00
nicht vor weihnachten ist nun wirklich blödsinn,ich glaub ich speakuliert etwas zu viel in letzter zeit

Wenn die Crossfirekarten erst im August kommen, wird die Vorstellung des r520 nicht vor September sein (ich schätz eher anfang Oktober).

Man will sich ja das Geschäft nicht selbst Kaputtmachen.

Anfang Oktober + 1-2 Monate ist dann November-Dezember.

r3ptil3
2005-06-03, 15:55:10
Das und die jetzige Vorstellung von MVP, welches dann sogar erst ab August verfügbar ist, lassen mich momentan vermuten, das der r520 nicht vor Weihnachten aufschlägt....

Aus welchen Gründen auch immer.......

Wenn das sich bewahrheiten sollte dann kommt meine nächst GPU von Nvidia..