Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
Hauwech
2005-05-17, 11:28:26
Manchmal wünschte ich mir hier würde mal wieder etwas mehr Realitätssinn Einzug halten.
ATI sollte keinerlei Probleme haben jetzt hinreichend Testsamples mit 800MHZ DDR Speicher von Samsung zu erzeugen. Diese PE könnte man zum Erringen der Leistungskrone in den Test schicken (Verfügbarkeit im Handel fraglich) und gleichzeitig den Markt mit einer 700MHZ DDR Version beschicken.
Full Ack!! :up:
Ailuros
2005-05-17, 11:32:42
NEIN, das ist "HAHNEBÜCHE", R520 wird dieses Jahr gelauncht und nv zieht mit Refresh nach.
R580 =! R520. Bitte notfalls eine Brille benutzen beim lesen.
Erst 2006 (Spät) ist mit einem G80 zu rechnen wenn überhaupt! Dann wird es Anfang 2007 einen Refresh vom R520 geben oder den schon fast legendenhaften R600 mit 64Pipes!
Es wird wahrscheinlich noch einen 90nm NV4x basierenden Schwischenschieber von NVIDIA geben, zumindest laut Hara's oeffentlichen Aussagen. Ich hab G80 mit einem Fragezeichen gepostet, da ich mit dem Codenamen-Quark seit der Aenderung sowieso nicht mehr durchblicken kann.
R600 ist kein R520-Refresh da ein voller WGF2.0-Design. 64 pipes? Wovon traeumst Du nachts? Ich wuerde jeglichen WGF2.0 Design erstmal gar nicht weder mit "pipelines" noch mit "quads" berechnen; ergibt aehnliche falsche Schlussvolgerungen wie beim Xenon Design.
So oder so, das Highend-Rennen ist Stand heute mit R520 und G79 klar an die roten gegangen! Was weiterhin interessant bleibt ist der Volumenträchtigere Midrange-Bereich.
Gewagte und basislose Aussage ohne dass weder/noch veroeffentlicht und oeffentlich getestet wurden bis jetzt.
Dort erwarte ich einen Schlacht zwischen X800 und 6600GT!
Performance-Mässig geht auch dieser Punkt dann an Rot!
Wenn dann noch MVPU mit X800 kommt und ich ne R520 dazustecken kann :) smile ich über beide Ohren!
Getreu dem Motto, es kann nur einen geben!
Getreu dem Motto: YDHAFCWYTA :P
Falsch!
Im High-End Berreich geht es nunmal um Leisung und Technik.
ATI will halt wie Nvidia im High-End Berreich vorne sein.
Die Firmen (ATi-Nvidia) wissen das mit dem High-End Berreich nicht sehr viel Geld machen kann, dafür ist das untere und mittlere Grafikkartensegment da. High-End dient eigentlich vorallem für gutes Marketing.
ähm wem erzählt du das hier ?
das weiß hier jeder ,wir sind nichts erst seit gestern dabei
Ailuros
2005-05-17, 11:44:06
IST nur eine logische Schlussfolgerung der letzten 24 Monate!
Erklärung:
Die 600GT ist 9700 von 2002, die 6600GT ist sehr erfolreich gewesen und hat die Patt-Situation (Marktanteile) erst für NV ermöglichlicht!
Es blieb NV gar nix anderes übrig als Sm3.0 vorzuziehen und bereits verfügbar zu machen obwohl alle Spiele noch mit Sm2.0 klarkommen.
NVIDIA hat auch SM2.0 bis in das low-end segment erfolgreich gezogen (obwohl diese eigentlich ziemlich lahm waren).
Performancemässig tut sich nix viel zwischen beiden, ansonsten hätten Sie nicht aufholen können.
Momentan ist jegliches X800-Modell dank dem finalen Strassenpreis immer noch im High end Segment. Die kleinste X800 konkurriert effektiv gegen die 6800nonU und hat nichts mit mainstream oder NV43 zu tun.
Jetzt kommt mit dem R520 aber gleich 3-Mal die Retourkutsche:
1. Sm3.0 HW
2. Top Performance gegenüber G70 (ATI 90nm Produktion und NV nur 110nm)
3. MVPU mit Abwärtskompabilität (R520 und X800-Serie)
Das der Herstellungsprozess erstmal gar nichts mit der Leistung zu tun hat, sollte Dir die Geschichte eher beigebracht haben. Die gesamte R3xx Produktlinie kam auf 150nm.
Zu (1) = ein Jahr spaeter, (3) = was soll daran so besonders sein? Sowieso nur was fuer Exoten mit fetten Geldbeuteln. Am Anfang lachte man noch ueber das multi-board Konzept, jetzt wurde es ploetzlich ein Anhaltspunkt als man herausfand dass es doch einen relativ kleinen Markt fuer solche Systeme gibt?
Da wird sich SLI in den Featuretest & Vergleich gerade bei Mr. DAU sehr schwer tun!
:|
Als Bonus gibt es die NEUE Technologie ZEITGLEICH in der Xbox2 mit drin und die wird durch Jahresendgeschäft durch die Presse hoch und runter gehen!
Immer wieder der Verweis auf ATI's NEUSTEN Grafikprozessor! Marketing Glamur Pur! ;)
Panik kann ein sehr schlechter Berater sein.
Diese Situation gab es ja noch nie, gleichzeitig mit dem Launch einer Spielekonsole gibt es im Desktopbereich die gleiche Technologie, d.b. Konsole und Desktop ziehen gleichauf von der Spieleperformance!
XBox1 und NV20/25.
Meistens kommt es unverhoft anders als mann denkt!
Das mit absoluter Sicherheit.
r3ptil3
2005-05-17, 11:46:29
ähm wem erzählt du das hier ?
das weiß hier jeder ,wir sind nichts erst seit gestern dabei
Ich habe es nur zu Hauwech gesagt.
Wiso schreibst du mit Gast wenn du hier schon lange dabei bist und sicherlich auch angemolden?
ATI wartet ja wahrscheinlich was Nvidia rausbringt . Wie schon gesagt High-End dient vorallem für gutes Marketing.
Es werden immer zuerst High-End Karten vorgestellt die geben den Grundstein für die Architektur her.
Hast du nicht gesehen das ATI einen grösseren Markanteil hat als Nvidia, vorallem dank dem unterem mittleren und Notebook Segment.
das ist so nicht richtig.
Sie haben im Gesamtmarkt einen höheren Marktanteil wegen dem Notebook und IGP Segment aber sicher nicht wegen dem Midrange und Low End.
Hier verlieren sie momentan gehörig an Boden und je länger es dauert neue Produkte nachzuschieben umso mehr müssen sie abgeben.
Ailuros
2005-05-17, 12:22:17
Es geht mal wieder OT mit dem mobilen Markt-segment, aber ein Laptop-User wird sich selten ueber 3D-Leistung scheren. Es geht dann eher um Stromverbrauch und wie lange es die Batterie aushaelt unter normalem Laptop-Gebrauch.
Ich hab erst vor kurzer Zeit zwei Acer laptops mit A64 Prozessoren zum Vergleich gestellt in Echtzeit; der eine mit einer GF FX Go 5700 und der andere mit einer Mobile 9700. Fuer das vorerwaehnte kann man schwer einen Unterschied erkennen. Die mobile NV36 taktet auch auf 100MHz core im normalen 2D-Verbrauch runter.
BodyLove
2005-05-17, 13:35:11
ATI sollte keinerlei Probleme haben jetzt hinreichend Testsamples mit 800MHZ DDR Speicher von Samsung zu erzeugen. Diese PE könnte man zum Erringen der Leistungskrone in den Test schicken (Verfügbarkeit im Handel fraglich) und gleichzeitig den Markt mit einer 700MHZ DDR Version beschicken.
würde ich nicht begrüßen. Man hat ja letztes Jahr gesehen, was für ein Chaos das geben kann.
seahawk
2005-05-17, 13:54:33
würde ich nicht begrüßen. Man hat ja letztes Jahr gesehen, was für ein Chaos das geben kann.
Begrüßen würde ich es auch nicht, aber imho wird es sowieso auf so eine Lösung hinauslaufen. Der Preis für eine 512MB Karte mit 800MHZ DDR dürfte sie sowieso zu einem Nischenprodukt (aka Benchmarkkarte) machen. Für diesen Markt könnten Sie bestimmt genung RAM bekommen.
Aber evtl. wollen sie einfach erst ihre AMR Lösung einführen, bevor sie eine neue Genration von Grafikkarten auf den Markt bringen wollen. In der Hoffnung, dass einige Leute wohl noch eine neues MB + eine zusaätzliche XT850 kaufen.
Es geht mal wieder OT mit dem mobilen Markt-segment, aber ein Laptop-User wird sich selten ueber 3D-Leistung scheren. Es geht dann eher um Stromverbrauch und wie lange es die Batterie aushaelt unter normalem Laptop-Gebrauch.
Ich hab erst vor kurzer Zeit zwei Acer laptops mit A64 Prozessoren zum Vergleich gestellt in Echtzeit; der eine mit einer GF FX Go 5700 und der andere mit einer Mobile 9700. Fuer das vorerwaehnte kann man schwer einen Unterschied erkennen. Die mobile NV36 taktet auch auf 100MHz core im normalen 2D-Verbrauch runter.
Da sprichst du aber über Produkte die etwas älter sind! Immerhin ging es bei 9700 im Notebook mehr um DX9 , 8 Pipes etc. 3D-Leistung als um STROMSPAREN!
Erst mit PCI Express und Powerplay 5.0 kommt dieses Thema Stromsparen in die RICHTIGE Richtung.
ATIs NEUE Roadmap für den Notebookmarkt ist längst bekannt:
Xpress 200
X300
X600
X700
X800
etc. alle Powerplay 5.0 !
robbitop
2005-05-17, 16:27:40
Da sprichst du aber über Produkte die etwas älter sind! Immerhin ging es bei 9700 im Notebook mehr um DX9 , 8 Pipes etc. 3D-Leistung als um STROMSPAREN!
Die 9700 mobility = M11 = RV360 = R9600XT = 4 Pipelines/128 Bit DDR.
Somit der direkte Kontrahent zur 5700 = NV36M = 2*2/128 Bit DDR.
Stromsparmaßnahmen heutiger Chips gibt es übrigens schon seit den tiefsten 90ern im mobile Bereich.
Sunrise
2005-05-17, 17:11:29
ATI sollte keinerlei Probleme haben jetzt hinreichend Testsamples mit 800MHZ DDR Speicher von Samsung zu erzeugen. Diese PE könnte man zum Erringen der Leistungskrone in den Test schicken (Verfügbarkeit im Handel fraglich) und gleichzeitig den Markt mit einer 700MHZ DDR Version beschicken.
Die Testsamples sind schon längst bei ATI (Feb. 20). Es geht um "Mass Availability" und diese gibt es erst seit relativ kurzer Zeit. Zuwenig um genügend "stock" aufzubauen. Einige unterschätzen hier die Zeit, bis eine Karte, die bereits "final" ist, auch an den Endkunden gelangt.
Das Ziel ist wie gesagt, die Karten auch verfügbar zu haben um NV in diesem Bereich zuzusetzen. Nur mit einer Testkarte wird man keine Käufer finden, zumindest nicht definitiv, denn diese wollen die HW auch in den Händen halten.
Der G70 kann also ruhig die Massen beeindrucken, sollte ATI aber vorher (mit einer entsprechenden Menge) am Markt sein (etwa August/September), hätte man hier einen riesigen Vorteil, zusätzlich lasse ich MVP mal komplett außen vor.
ATI kann NV nur dann "schlagen", wenn der R520 mit den finalen "specs" und ohne großen Rücklauf auch verkauft werden kann -> wenn ein Kunde wartet, geht er zu NV.
Es ist daher zwar schon möglich, dass ATI eine Karte mit 800MHz GDDR3 an die Tester schickt, jedoch sehr unwahrscheinlich, dass man diese dann mit 700MHz GDDR3 ausliefert, denn wie bereits gesagt, diese Karte wäre (mit "specs" die derzeit nicht sicher sind) noch stärker BW-limitiert, als es G70 wohl sein wird, außer beide IHVs zaubern neue stark verbesserte "BW-saving features" hervor, welche das Verhältnis wieder ausgleichen würden.
Das sind alles nur meine Überlegungen und reunion hat die Sache - meiner Meinung nach - schon sehr realistisch eingeschätzt.
seahawk
2005-05-17, 18:40:13
Ich repektiere Deine Meinung.
robbitop
2005-05-17, 18:42:12
Der G70 kann also ruhig die Massen beeindrucken, sollte ATI aber vorher (mit einer entsprechenden Menge) am Markt sein (etwa August/September), hätte man hier einen riesigen Vorteil, zusätzlich lasse ich MVP mal komplett außen vor.
Im High End Markt wird AFAIK nicht allzuviel Geld gemacht. Die Karten haben nur einen geringen Marktanteil und stehen außerem auch als Aushängeschild für den jeweiligen IHV dar.
Ob die nun gut verfügbar sind oder nicht, sollte für die Umsäte nicht arg relevant sein. R420/NV40 waren auch erst viele Monate nach der Vorstellung relativ gut verfügbar (NV40 einen Tick früher IIRC).
Das große Geld wird eher im Midrange/Low Cost/OEM Bereich gemacht.
Genügend Testsamples herauszugeben kann schon eine recht gute Wirkung haben (nicht umsonst wurde bisher immer zu früh vorgestellt).
seahawk
2005-05-17, 19:06:39
Besonders weil auch nur die offizielle Vorstellung einer schnelleren Sm3.0 Karte von ATI viele vom Kauf einer 6800Ultra oder GT abhalten könnte.
Sunrise
2005-05-17, 19:07:00
Im High End Markt wird AFAIK nicht allzuviel Geld gemacht. Die Karten haben nur einen geringen Marktanteil und stehen außerem auch als Aushängeschild für den jeweiligen IHV dar.
Ob die nun gut verfügbar sind oder nicht, sollte für die Umsäte nicht arg relevant sein. R420/NV40 waren auch erst viele Monate nach der Vorstellung relativ gut verfügbar (NV40 einen Tick früher IIRC).
Das große Geld wird eher im Midrange/Low Cost/OEM Bereich gemacht.
Genügend Testsamples herauszugeben kann schon eine recht gute Wirkung haben (nicht umsonst wurde bisher immer zu früh vorgestellt).
Es ist beides der Fall. Marge und Verfügbarkeit sind 2 Kerngrößen, die eine sehr wichtige Rolle spielen.
Sehr sicher weiß ich, dass ATI mit dem R300/R350 (beides High-End) sehr viele Käufer fand (was natürlich auch mit der extremen Verspätung des NV30 einherging, aber das nur am Rande) und ATI gleichzeitig mit beiden auch sehr gute Margen hatte (150nm, ausgewogenes Transistorbudget), dies wurde auch in einem Conference Call bestätigt. ATI hat(te) einen sehr hohen Marktanteil an 9700 Pro und 9800 Pro, beides High-End-Modelle.
R420 und R480 (jeweils wieder High-End) haben deutlich weniger Marge (130nm Low-K, mittleres Transistorenbudget, mäßige Verfügbarkeit) und zumindest die Sache mit den Margen wurde ebenfalls bestätigt und auch vorher in einem sehr bekannten Interview genannt. Hier hatte ich ja bereits erwähnt, dass man dies dadurch entschärfen konnte, dass man mit den umsatzträchtigen Mid-End-Modellen (R430) auf 110nm wechselte, was wiederrum das anfängliche Problem mit der Verfügbarkeit und der Marge gelöst hat. R480 wird wahrscheinlich immernoch relativ wenig zum Unternehmensgewinn beitragen, jedoch sind diese durch das Aufsplitten mittlerweile besser verfügbar und somit auch deutlich preiswerter im Endkunden-Markt.
Momentan macht ATI wahrscheinlich mehr Gewinn mit Mid-End/Low-End, insofern stimmt deine Aussage natürlich ebenso. Jedoch teilt sich der Gewinn immer auf, je nachdem, welche Karten auch echte Gewinne versprechen und welche auch verfügbar sind.
Quasar
2005-05-17, 19:07:04
Scheinbar hat sich Quasar/Carsten Spille mit seiner definitiven Aussage in der CB News zur CeBIT also doch vertan (130nm low direkt von NV).
Nein, hat er allem Anschein nach nicht. Zumal es Robbitop/Roger Schütt ja selbst bestätigt. ;)
robbitop
2005-05-17, 19:10:27
Nein, hat er allem Anschein nach nicht. Zumal es Robbitop/Roger Schütt ja selbst bestätigt. ;)
Du schriebst in deiner News etwas von 130nm lowk als Info direkt von NV. Das scheint sich als unwahr zu erweisen. Ich wunderte mich damals schon, warum du dich so aufs Glatteis begiebst, da du ja sonst immer so akurat bist und war mir sicher, dass deine Information also stimmen musste.
Quasar
2005-05-17, 19:19:07
Ich schrieb (hier im Forum), daß mir diese Information gegeben wurde. Und das ist auch korrekt.
robbitop
2005-05-17, 19:22:39
Ich schrieb (hier im Forum), daß mir diese Information gegeben wurde. Und das ist auch korrekt.
Ich hasse diese aalglatte Art. Nichts für ungut ;) (denn genaugenommen hast du ja recht)
reunion
2005-05-17, 21:45:25
Das ist meiner Meinung nach OK! Schliesslich lieber ein paar wochen länger warten dafür aber wahrscheinlich Speicherbausteine mit 800mhz (effektiv 1600mhz).
Ich erwarte nicht, dass irgendein IHV den Speicher höher als mit 700mhz taktet.
Denn selbst bei der Xbox 360 und der PS3, die ja beide um einiges später kommen sollten als R520/G70, wird nur 700Mhz GDDR3 verwendet.
Die 800Mhz Chips dürften wohl nur äußerst schwach verfügbar sein und benötigen außerdem laut Samsung mehr Spannung, und damit natürlich auch deutlich mehr Strom.
Ailuros
2005-05-18, 02:16:50
Da sprichst du aber über Produkte die etwas älter sind! Immerhin ging es bei 9700 im Notebook mehr um DX9 , 8 Pipes etc. 3D-Leistung als um STROMSPAREN!
Erst mit PCI Express und Powerplay 5.0 kommt dieses Thema Stromsparen in die RICHTIGE Richtung.
ATIs NEUE Roadmap für den Notebookmarkt ist längst bekannt:
Xpress 200
X300
X600
X700
X800
etc. alle Powerplay 5.0 !
Die RICHTIGE Richtung zeig mir erstmal, wenn Du Deine Fakten in die RICHTIGE Richtung bringen kannst. Mobile 9700= 1 quad.
r3ptil3
2005-05-19, 01:57:27
"Neue" Details glaube aber eher nur Schrott da Xaveon vielleicht nur ein Fake ist und das einzig interessante ist das der R520 im AMR Modus 2.5mal so schnell wie EINE 6800 Ultra ist (schwach, wirklich schwach) da ja laut irgendwelchen Angaben G70 alleine schon doppelt so schnell wie eine 6800 Ultra ist, jetzt könnte es glatt stimmen das der R520 16 Pipes hat. http://www.gamezoom.de/artikel/show/0,162843,1,11214.html
"Neue" Details glaube aber eher nur Schrott da Xaveon vielleicht nur ein Fake ist und das einzig interessante ist das der R520 im AMR Modus 2.5mal so schnell wie EINE 6800 Ultra ist (schwach, wirklich schwach) da ja laut irgendwelchen Angaben G70 alleine schon doppelt so schnell wie eine 6800 Ultra ist, jetzt könnte es glatt stimmen das der R520 16 Pipes hat. http://www.gamezoom.de/artikel/show/0,162843,1,11214.html
und meine oma hat gesagt das der r520 512bit hat................alles nur gerüchte also glaub nicht alles was du liest
r3ptil3
2005-05-19, 02:17:55
und meine oma hat gesagt das der r520 512bit hat................alles nur gerüchte also glaub nicht alles was du liest
...lies mal genauer den ich hab schon am Anfang geschrieben das ich das für Schrott halte.
Ailuros
2005-05-19, 03:56:38
http://www.anandtech.com/video/showdoc.aspx?i=2421
"Neue" Details glaube aber eher nur Schrott da Xaveon vielleicht nur ein Fake ist und das einzig interessante ist das der R520 im AMR Modus 2.5mal so schnell wie EINE 6800 Ultra ist (schwach, wirklich schwach) da ja laut irgendwelchen Angaben G70 alleine schon doppelt so schnell wie eine 6800 Ultra ist, jetzt könnte es glatt stimmen das der R520 16 Pipes hat.
Die Angabe fuer 2*NV40 fuer PC/G70 konnte ich nie richtig glauben; fuer den PS3/RSX@550MHz (angenommen dieser hat auch 6 fragment quads) dann eben schon.
Man hoert oefters etwas ueber "G70" aber man kann auch nie genau wissen was gemeint ist; da mit auesserster Wahrscheinlichkeit RSX ein G70@550MHz sein koennte, sagte eben jemand "ach G70=2*NV40...." ohne natuerlich aufzuklaeren was genau damit gemeint war. Passiert in den besten Familien; genauso wie angeblich der R520 mit R500 viel zu oft in der Vergangenheit verwechselt wurde beim durchsickern von infos....
***edit: was die Leistung betrifft....angenommen:
R520 = 16*650 = 10400
NV40 = 16*400 = 6400
2*R520 = 32*650 = 20800
ergibt eigentlich einen Faktor von x3.25. Kann durchaus sein dass man das Ziel von =/>650MHz doch nicht erreichen konnte, und man sich doch nur mit 600MHz begnuegen musste, oder es war einfach nicht das ultra-high end Modell gemeint, sondern ein ~600MHz high end chip.
******editNr.2: in jeglichem "x2" oder "x2.5" Fall wuerde ich es eher im bis zu... Sinn betrachten. Es wird mit Sicherheit auch Faelle geben wo die Leistungsteigerung nicht so hoch sein wird, ob jetzt SLi/MVP oder R520 vs. NV40.
r3ptil3
2005-05-19, 12:43:30
Aufeinmal überrascht ATI mit einem (träum) 32Pipe-Chip und 800mhz Speicher...
reunion
2005-05-19, 13:00:42
"Neue" Details glaube aber eher nur Schrott da Xaveon vielleicht nur ein Fake ist und das einzig interessante ist das der R520 im AMR Modus 2.5mal so schnell wie EINE 6800 Ultra ist (schwach, wirklich schwach) da ja laut irgendwelchen Angaben G70 alleine schon doppelt so schnell wie eine 6800 Ultra ist, jetzt könnte es glatt stimmen das der R520 16 Pipes hat. http://www.gamezoom.de/artikel/show/0,162843,1,11214.html
Auch intressant:
"Darüber hinaus wird die Xaveon Grafikkarte mit einer Ein-Slot-Kühllösung auskommen und ein Netzteil von 350Watt benötigen "
reunion
2005-05-19, 13:03:11
***edit: was die Leistung betrifft....angenommen:
R520 = 16*650 = 10400
NV40 = 16*400 = 6400
2*R520 = 32*650 = 20800
ergibt eigentlich einen Faktor von x3.25. Kann durchaus sein dass man das Ziel von =/>650MHz doch nicht erreichen konnte, und man sich doch nur mit 600MHz begnuegen musste, oder es war einfach nicht das ultra-high end Modell gemeint, sondern ein ~600MHz high end chip.
Du solltest auch die Bandbreite beachten.
ShadowXX
2005-05-19, 13:03:51
Auch intressant:
"Darüber hinaus wird die Xaveon Grafikkarte mit einer Ein-Slot-Kühllösung auskommen und ein Netzteil von 350Watt benötigen "
Was sich hinten und vorne mit den Meldungen über einen DualSlot r520 beisst.
Entweder keine hat wirklich echte Infos und alle saugen sich das nur aus den Fingern oder ATI streut mit absicht falsche Infos in alle Richtungen....
(es gibt noch eine dritte, extrem unwahrscheinlich möglichkeit: ATI weiss selbst noch nicht so recht in welcher Form Sie den r520 eigentlich auf den Markt werfen wollen)
Sunrise
2005-05-19, 13:46:23
(es gibt noch eine dritte, extrem unwahrscheinlich möglichkeit: ATI weiss selbst noch nicht so recht in welcher Form Sie den r520 eigentlich auf den Markt werfen wollen)
...und gerade eben dies war auch meine Annahme von den Seiten weiter hinten, ich glaube eher, dies ist die mit wahrscheinlichste. ATI selbst weiß noch nicht genau, wie der "finale" R520 aussehen wird, da sie mit hoher Wahrscheinlichkeit noch auf etwas Bestimmtes warten. Meine Spekulationen kennen wir ja, aber dies ist auch völlig egal, jedenfalls scheinen sie auf einen Zeitpunkt zu warten, der definitiv NACH der Vorstellung des G70 stattfinden soll. Daher auch die derzeitige "Null-Info-Politik" und absolut nichts Handfestes, weil es schlicht noch keine endgültigen Daten gibt.
Nicht falsch verstehen, der Chip wird bis August sicher keine großen Änderungen mehr erfahren, jedoch bestehen andere Möglichkeiten, wie Kerntakt, Speicher-Frequenzen in gewissem Rahmen zu ändern und somit auch die Kühllösung darauf abzustimmen. Man kann hier natürlich auch mehrgleisig fahren, die XT PE sollte aber wenn möglich doch deutlich über der Performance einer G70 liegen, was sicher nicht einfach wird, bei den BW-Limits, die uns derzeit der Speicher setzt.
Ergo: R520 ist noch nicht "fertig", da ATI wohl etwas Konkretes vor hat.
ShadowXX
2005-05-19, 13:55:46
...und gerade eben dies war auch meine Annahme von den Seiten weiter hinten, ich glaube eher, dies ist die mit wahrscheinlichste. ATI selbst weiß noch nicht genau, wie der "finale" R520 aussehen wird, da sie mit hoher Wahrscheinlichkeit noch auf etwas Bestimmtes warten. Meine Spekulationen kennen wir ja, aber dies ist auch völlig egal, jedenfalls scheinen sie auf einen Zeitpunkt zu warten, der definitiv NACH der Vorstellung des G70 stattfinden soll. Daher auch die derzeitige "Null-Info-Politik" und absolut nichts Handfestes, weil es schlicht noch keine endgültigen Daten gibt.
Nicht falsch verstehen, der Chip wird bis August sicher keine großen Änderungen mehr erfahren, jedoch bestehen andere Möglichkeiten, wie Kerntakt, Speicher-Frequenzen in gewissem Rahmen zu ändern und somit auch die Kühllösung darauf abzustimmen. Man kann hier natürlich auch mehrgleisig fahren, die XT PE sollte aber wenn möglich doch deutlich über der Performance einer G70 liegen, was sicher nicht einfach wird, bei den BW-Limits, die uns derzeit der Speicher setzt.
Ergo: R520 ist noch nicht "fertig", da ATI wohl etwas Konkretes vor hat.
Dann könnte es aber noch etwas länger mit dem r520 dauern, da ich nach den letzten Infos über den G70 inzwischen vermute, dass diese quasi nur das "Gegenprodukt" zur r850xt/pe darstellen soll. (Was auch zum Interview mit O'Hara (?) passt)
Und natürlich gleichzeizeitig die bessere Versorgen mit High-End-Karten sichern soll.
Denn da der G70 scheinbar nur 600MHz Speicher haben wird (inzwischen ziemlich sicher), wird er Performancetechnisch nicht extrem über einer nv40Ultra liegen.
Aber er ist damit (und den 24Pipes) "etwas" schneller als ein x850xt/pe........
Der "echte" r520 Gegenkandidat wird wohl erst der "G80" sein sein....und der kommt erst Ende des Jahres....
robbitop
2005-05-19, 14:13:22
Der "echte" r520 Gegenkandidat wird wohl erst der "G80" sein sein....und der kommt erst Ende des Jahres....
Wieso das?
G80 soll Gegenkandidat zum R580 sein. ATI wird auch nicht in Massen besseren Speicher ranbekommen. Wenn das ginge, hätte NV das auch getan. Und wenn R520 tatsächlich nur ein 4 Quad Chip ist, braucht G70 sich kein bisschen verstecken.
Winter[Raven]
2005-05-19, 14:22:03
Ich sehe keine Chancen dafür dass ATI mit mit mehr als 16 Pipes kommen wird, wäre ja völliger Unsinn. ATI soll ja derzeit auch auf den 800mhz Speicher warten und das bei >= 650mhz, wenn ATI aber 24 Pipes (was bei >=650 mhz völlig unmöglich ist) verbauen will ich garnicht dran denken welchen Speicher und überhaupt woher die den nehmen wollen....
Ich denke 16pipes bei 650mhz + 800mhz wäre der beste Kompromis den man machen kann.
ShadowXX
2005-05-19, 14:22:28
Wieso das?
G80 soll Gegenkandidat zum R580 sein. ATI wird auch nicht in Massen besseren Speicher ranbekommen. Wenn das ginge, hätte NV das auch getan. Und wenn R520 tatsächlich nur ein 4 Quad Chip ist, braucht G70 sich kein bisschen verstecken.
Dann hätte ATI sich die Verschiebung der Vorstellung des r520 auch schenken können....
Wir wissen momentan gar nichts über das Design des r520.....ich persönlich war bisher von 16Pipes mit hoher Taktfrequenz ausgegangen, aber inzwischen bin ich nicht mehr sicher.
Wenn der r520 nämlich mehr als 16Pipes haben sollte (manche gerüchte sprechen ja sogar von 32Pipes) reicht der z.Zt. verfügbare Speicher hinten und vorne nicht aus...bei 650MHz Chiptakt würde würde das auch mit 24Pipes nicht ausreichen....
ATI wird den r520 so weit rauszögern, bis der Speicher da ist, den Sie für nötig erachten.....und ein G70 mit 600MHz Speicher ist IMHO nichts mehr als ein leichtes Speedupdate des nv40 und kein Gegner des r520.
Ist natürlich alles IMO......aber man sollte sich meiner Meinung nach nicht so sehr auf das versteifen, was man bisher gehört hat.....Die Roadmaps beiden Konkurrenten wurde IMHO wohl stärker durcheinandergewirbelt als bisher vermutet.
Wie schon erwähnt...ich persönlich sehe den G70 nicht als den Konkurenzchip zum r520 an....ATI scheinbar auch nicht, sonst würden Sie IMHO nicht das MVP-Zeug auf Basis der r4x0-Reihe hervorkramen.
Meiner Meinung nach sind die Roadmaps von ATI und nV inzwischen ziemlich "auseinandergelaufen "....
reunion
2005-05-19, 14:28:00
ATI wird den r520 so weit rauszögern, bis der Speicher da ist, den Sie für nötig erachten.....und ein G70 mit 600MHz Speicher ist IMHO nichts mehr als ein leichtes Speedupdate des nv40 und kein Gegner des r520.
Und gegen G70 wird man sich einfach geschlagen geben?
R520 wurde als Gegner des G70 konzipiert und als solcher wird er auch ungefair in den gleichen Leistungsregionen spielen, und deshalb auch keinen besseren Speicher als dieser benötigen.
ShadowXX
2005-05-19, 14:35:25
Und gegen G70 wird man sich einfach geschlagen geben?
R520 wurde als Gegner des G70 konzipiert und als solcher wird er auch ungefair in den gleichen Leistungsregionen spielen, und deshalb auch keinen besseren Speicher als dieser benötigen.
Sicher, das der G70 dafür konzipiert wurde? Gabs den r520 als Design nicht vor dem G70? Wurden beide vielleicht zufällig gleichzeitig entwicklet?
Seit wann weiss nV vom r520 und seit wann ATI vom G70?
Ich habe im Moment eher die Vermutung das beide ihre Roadmap vor sich hin "abarbeiten"...
Vielleicht sollten wir mal etwas aus dem Denkschema: "Karte X ist die Antwort auf Karte Y" bzw. "Karte A wurde als Konkurrenz zu Karte B 'entwickelt'" heraustreten.
']Ich sehe keine Chancen dafür dass ATI mit mit mehr als 16 Pipes kommen wird, wäre ja völliger Unsinn. ATI soll ja derzeit auch auf den 800mhz Speicher warten und das bei >= 650mhz, wenn ATI aber 24 Pipes (was bei >=650 mhz völlig unmöglich ist) verbauen will ich garnicht dran denken welchen Speicher und überhaupt woher die den nehmen wollen....
Ich denke 16pipes bei 650mhz + 800mhz wäre der beste Kompromis den man machen kann.
Hältst Du nicht alles für unmöglich was ATI wieder mal vor nVidia schieben könnte? :D
ShadowXX
2005-05-19, 15:50:03
Hältst Du nicht alles für unmöglich was ATI wieder mal vor nVidia schieben könnte? :D
Sagen wir es mal so....je weiter der r520 nach hinten "rutscht" desto eher glaube ich, das es mehr als ein 16Pipe-Design ist.
Das ATI in der Lage ist was schnelleres als nV zu bauen und auch etwas was in der Qualität bzw. den Features gleichwertig ist, steht natürlich ausser Frage.
Inzwischen bin ich auf den r520 wieder sehr gespannt, da ich glaube, dass er mehr Überraschungen als der G70 bieten wird.
Aber ich bleibe dabei, das ich den r520 nicht vor Oktober käuflich erwerbbar sehe....(unter anderem aus oben genannten Grund + "fehlender" passender Speicher ).
Und aus genau diesem Grund sehe ich den G70 auch nicht als 100%iges Konkurenzprodukt zum r520...dann hätte auch nV auf "besseren" Speicher gewartet.
Der G70 ist halt einfach die "nächste" nV-Karte (Die ich Leistungsmässig irgendwo zwischen nv40Ultra und r520 sehe).
[dzp]Viper
2005-05-19, 15:54:45
dumme frage eines dummes moderators :D
in der Xbox2 der Chip hat ja 24 MB Embedded RAM (wird so geschrieben?)
Gäbe es die möglichkeit, dass der r520 das selbe auch Spendiert bekommt oder gibts da irgendwelche anderen Dinge die das nicht ermöglichen?
ShadowXX
2005-05-19, 16:02:23
Viper']dumme frage eines dummes moderators :D
in der Xbox2 der Chip hat ja 24 MB Embedded RAM (wird so geschrieben?)
Gäbe es die möglichkeit, dass der r520 das selbe auch Spendiert bekommt oder gibts da irgendwelche anderen Dinge die das nicht ermöglichen?
10MiB embedded Speicher...nicht 24.
Für einen PC-Chip würdest du wohl gegen 32Mib oder mehr benötigen...IMHO.
Das grössere Problem dabei ist wohl, das das ganze bei der XBox2 nicht wirklich in der GPU liegt sondern eine Art extra-Chip von Nec ist....TMSC kann nämlich nur eDRam herstellen, der gerade mal mit 256Bit angebunden werden kann.
Ailuros
2005-05-19, 16:11:12
Du solltest auch die Bandbreite beachten.
Eben nicht. In den Faellen wo man x2, x2.5 usw. Leistung zwischen solchen configs wirklich sehen wird, wird Bandbreite wohl keine besondere Rolle spielen.
Ailuros
2005-05-19, 16:14:48
Dann könnte es aber noch etwas länger mit dem r520 dauern, da ich nach den letzten Infos über den G70 inzwischen vermute, dass diese quasi nur das "Gegenprodukt" zur r850xt/pe darstellen soll. (Was auch zum Interview mit O'Hara (?) passt)
Und natürlich gleichzeizeitig die bessere Versorgen mit High-End-Karten sichern soll.
Denn da der G70 scheinbar nur 600MHz Speicher haben wird (inzwischen ziemlich sicher), wird er Performancetechnisch nicht extrem über einer nv40Ultra liegen.
Aber er ist damit (und den 24Pipes) "etwas" schneller als ein x850xt/pe........
Der "echte" r520 Gegenkandidat wird wohl erst der "G80" sein sein....und der kommt erst Ende des Jahres....
RSX soll ein 90nm Ableger von G70 sein laut Anand. Mit dem "G80" waere ich noch etwas vorsichtig bis das Ganze etwas klarer wird.
Nach allen Indizien wird der RSX einfach spaeter fuer den PC vorgestellt um gegen R580 zu konkurrieren. Vor 2006 aber wohl auch nicht mehr am Ende und das fuer beide.
Ailuros
2005-05-19, 16:18:23
Sagen wir es mal so....je weiter der r520 nach hinten "rutscht" desto eher glaube ich, das es mehr als ein 16Pipe-Design ist.
Das ATI in der Lage ist was schnelleres als nV zu bauen und auch etwas was in der Qualität bzw. den Features gleichwertig ist, steht natürlich ausser Frage.
Inzwischen bin ich auf den r520 wieder sehr gespannt, da ich glaube, dass er mehr Überraschungen als der G70 bieten wird.
Aber ich bleibe dabei, das ich den r520 nicht vor Oktober käuflich erwerbbar sehe....(unter anderem aus oben genannten Grund + "fehlender" passender Speicher ).
Und aus genau diesem Grund sehe ich den G70 auch nicht als 100%iges Konkurenzprodukt zum r520...dann hätte auch nV auf "besseren" Speicher gewartet.
Der G70 ist halt einfach die "nächste" nV-Karte (Die ich Leistungsmässig irgendwo zwischen nv40Ultra und r520 sehe).
So radikal falsch hat sich NVIDIA wohl doch nicht eingeschaetzt. Wie gesagt der 550MHz (oder hoeher) "G70"@90nm wird wohl nicht mehr unbedingt dieses Jahr erscheinen IMHO, ebenso wie der direkte Konkurrent namens R580.
Nochmal Longhorn Verfuegbarkeit wird fuer Weihnachten 2006 eingeschaetzt momentan; hier haben theoretisch beide IHVs Zeit ihre WGF2.0 GPUs erst mit dem Erscheinen von WGF2.0 zu veroeffentlichen, was vielleicht sogar schon auf 65nm deuten koennte und ergo wohl eher Anfang 2007.
Ailuros
2005-05-19, 16:25:41
Und gegen G70 wird man sich einfach geschlagen geben?
R520 wurde als Gegner des G70 konzipiert und als solcher wird er auch ungefair in den gleichen Leistungsregionen spielen, und deshalb auch keinen besseren Speicher als dieser benötigen.
R520 und G70 waren von beiden Seiten nie als GPUs gedacht die massive Leistungssteigerungen im Vergleich zu NV40 bringen werden.
Um einiges schneller unter gewissen Bedingungen mit absoluter Sicherheit, aber ihr muesst endlich den Eindruck los werden dass der R520 im Vergleich zu NV40 ein quasi R420 vs. R300 sein wird.
SLi ist zwar ein etwas merkwuerdiges Beispiel da es immer noch die PCI-E Bandbreite zwischen 2 GPUs im Weg steht, aber bedenkt mal etwas schaerfer das bis zu 2x Mal so schnell Verhaeltnis und unter welchen Bedingungen es genau vorkommt.
Wo immer Bandbreite eine Rolle spielen wird, wird der Leistungsunterschied prozentual nicht zu weit entfernt sein, wie das Prozentual der Bandbreiten-steigerung.
Naja mit den Specs wird G70 in keinem Fall mal doppelt so schnell sein können wie NV40. Außer man hat die ALUs gehörig aufgebohrt.
ShadowXX
2005-05-19, 17:09:43
So radikal falsch hat sich NVIDIA wohl doch nicht eingeschaetzt. Wie gesagt der 550MHz (oder hoeher) "G70"@90nm wird wohl nicht mehr unbedingt dieses Jahr erscheinen IMHO, ebenso wie der direkte Konkurrent namens R580.
Nochmal Longhorn Verfuegbarkeit wird fuer Weihnachten 2006 eingeschaetzt momentan; hier haben theoretisch beide IHVs Zeit ihre WGF2.0 GPUs erst mit dem Erscheinen von WGF2.0 zu veroeffentlichen, was vielleicht sogar schon auf 65nm deuten koennte und ergo wohl eher Anfang 2007.
Es ist einfach meine persönlich Meinung, das ich den G70 nicht ganz "ernst" nehmen kann, selbst wenn nV ihn tatsächlich als "gegenprodukt" zum r520 sieht.
Selbst wenn beiden am Ende "gleichschnell" sein sollten und nV dadurch ins Schwarze getroffen hat ist der Chip für mich persönlich nicht mehr als ein "leichter" Refresh des nv40.
Und ja, ich mache das hauptsächlich an der Speichertaktfrequenz fest....meine ca. 1 Jahr alte 6800Ultra hat auch schon 600MHz Speicher und das von Haus aus (nix übertaktet, ist der XFX - Default, genauso wie die 425MHz Chiptakt) .
D.h. für mich als potentiellen Verrückten der solche HW kauft (und das auch noch meistens relativ nahe am release) bietet dieser Chip nicht wirklich einen grossen Kaufanreiz, da das Bandbreitenproblem eher grösser als kleiner geworden ist.....(Die 2-3 Games wo der Shadereinsatz so stark ist, das ich von der grösseren Shaderpower was hab sind kein Kaufargument, da ich diese momentan auch ohne G70 bequem in 1280x1024 mit AA/AF spielen kann).
Und 8xxx 3DMurks05 Punkte beeindrucken mich wenig, wenn die durchschnittlichen Games 5-10 Frames zulegen....
Dort wo es mich beeindrucken würde, wäre z.B. bei HDR....aber das braucht massiv Bandbreite....und die Bandbreite eines G70 hab ich jetzt schon.
pF3NG
2005-05-19, 17:11:52
"Neue" Details glaube aber eher nur Schrott da Xaveon vielleicht nur ein Fake ist und das einzig interessante ist das der R520 im AMR Modus 2.5mal so schnell wie EINE 6800 Ultra ist (schwach, wirklich schwach) da ja laut irgendwelchen Angaben G70 alleine schon doppelt so schnell wie eine 6800 Ultra ist, jetzt könnte es glatt stimmen das der R520 16 Pipes hat. http://www.gamezoom.de/artikel/show/0,162843,1,11214.html
Hier neue News vom Hardware-Mag:
Auf der japanischen Seite HardSpell.com hat man nun einiges über ATis neue Grafikgeneration Xaveon berichtet, nachdem gestern Spezifikationen vom Nvidia G70 Chip aufgetaucht sind. So wird demnach der Serienname Radeon durch den Namen Xaveon abgelöst werden, wenn der R520 Chip aka Fudo vorgestellt wird. In der neuen Xaveon Serie wird es die Modelle "non-Pro", HD, Pro und XT geben. HD wird dabei wohl für "High Definition" stehen - inwiefern sich jene Karte aber unterscheidet ist noch unklar.
Des Weiteren wird die Xaveon Reihe natürlich die berüchtigte ATi Multi Video Processing Technologie unterstützen. Leistungsmäßig sollen zwei Xaveon XT Grafikkarten im MVP-Modus zweieinhalb mal schneller als zwei GeForce 6800 Ultra im SLI-Modus sein. Dennoch sollte man solche Angaben immer mit Vorsicht genießen. Als Name für die MVP Technologie wird "CrossFire" vermutet, da ATi jene Bezeichnung kürzlich in den USA registrieren lassen hat. Ein konkreter Launch-Termin ist allerdings noch nicht bekannt. :O
Das würde ja heißen, dass eine ca. 1,5x-1,75x so schnell wie eine GeForce 6800 Ultra ist. ;( Was ich an der Meldung komisch finde, ist dass sie sich auf GF68 U beziehen von ATi wird sie deswegen wohl kaum kommen...
r3ptil3
2005-05-19, 17:56:03
Hier neue News vom Hardware-Mag:
:O
Das würde ja heißen, dass eine ca. 1,5x-1,75x so schnell wie eine GeForce 6800 Ultra ist. ;( Was ich an der Meldung komisch finde, ist dass sie sich auf GF68 U beziehen von ATi wird sie deswegen wohl kaum kommen...
Falsch, wenn 2x R520 2,5mal so schnell sind wie 2x 6800 Ultra dann ist ein R520 1,25mal so schnell wie 2x 6800 Ultra und das wäre einfach nur noch geill!!!
Das würde ja heißen, dass eine ca. 1,5x-1,75x so schnell wie eine GeForce 6800 Ultra ist. ;( Was ich an der Meldung komisch finde, ist dass sie sich auf GF68 U beziehen von ATi wird sie deswegen wohl kaum kommen...
Dreisatz: Wenn zwei X ungefähr 2,5 mal so schnell wie zwei Y sind, Wie schnell ist dann ein X im Vergleich zu einem Y? ;D
Davon ab wurde dieses Xaveon-Zeug doch schon lange als Hoax enthüllt.
pF3NG
2005-05-19, 18:16:20
Falsch, wenn 2x R520 2,5mal so schnell sind wie 2x 6800 Ultra dann ist ein R520 1,25mal so schnell wie 2x 6800 Ultra und das wäre einfach nur noch geill!!!
Dreisatz: Wenn zwei X ungefähr 2,5 mal so schnell wie zwei Y sind, Wie schnell ist dann ein X im Vergleich zu einem Y?
ups verrechnet... wie peinlich :uroll:
pF3NG
2005-05-19, 18:17:47
Davon ab wurde dieses Xaveon-Zeug doch schon lange als Hoax enthüllt.
Achso? na gut dann SORRY für post
r3ptil3
2005-05-19, 19:06:34
ups verrechnet... wie peinlich :uroll:
Also ein R520 ist nach der Mathematik auch 2,5mal so schnell wie eine 6800 Ultra (lol :ugly: das kann auch ein 14jähriger ausrechnen) aber in Benchmarks gibt es nie genaue werte, halt im Durchschnitt.
Und laut anderen Angaben ist der G70 doppelt so schnell wie eine 6800 Ultra. Also könnte es sein das der R520 32Pipes hat, geil 2x R520 = 64 Pipes aber ich träum jetzt mal weiter...
Die Aussage ist doch quatsch. Es gibt nichtmal endgültige Specs, alles ist noch im Dunkeln. Ich vermute schon allein wegen der Speicherbandbreite nicht einmal eine 100% Steigerung.
r3ptil3
2005-05-19, 19:11:12
Die Aussage ist doch quatsch. Es gibt nichtmal endgültige Specs, alles ist noch im Dunkeln. Ich vermute schon allein wegen der Speicherbandbreite nicht einmal eine 100% Steigerung.
Klar aber auch vor einem Jahr sind schon wochen vor der Veröffentlichung Leistungsdaten im inet gelandet und meist stimmten die auch.
Äh, es gibt nicht mehr als 800Mhz GDDR3 im Moment. 512bit ist auch nicht drin.
Das Ding ist imho nicht schneller als G70, wenn es überhaupt in nächster Zeit kommt.
r3ptil3
2005-05-19, 19:13:45
Äh, es gibt nicht mehr als 800Mhz GDDR3 im Moment. 512bit ist auch nicht drin.
Das Ding ist imho nicht schneller als G70, wenn es überhaupt in nächster Zeit kommt.
Deiner Meinung nach vielleicht, aber wenn man alles berechnet könnten 32 Pipes glatt drinn sein.
Aha und was soll man damit anfangen mit ~50GB/s Speicherbandbreite?
Wenn das Ding mit 650Mhz taktet sind 16 Pipelines vorprogrammiert.
r3ptil3
2005-05-19, 19:19:36
Ein paar Details zum R520:
"Ähnlich wie Nvidia ändert ATI die Nomenklatur seiner Karten – zukünftig werden diese nicht mehr Radeon heißen, sondern Xaveon.
Außerdem werden vier Modelle zur Verfügung stehen: Standard, Pro, XT und HD. HD steht hierbei wohl für High Definition, wobei uns nicht bekannt ist, inwiefern sich diese Karte von den anderen unterscheiden wird."
HD (High Defenition)??
http://www.giga.de/index.php?storyid=119861
robbitop
2005-05-19, 19:25:23
Ein paar Details zum R520:
"Ähnlich wie Nvidia ändert ATI die Nomenklatur seiner Karten – zukünftig werden diese nicht mehr Radeon heißen, sondern Xaveon.
Außerdem werden vier Modelle zur Verfügung stehen: Standard, Pro, XT und HD. HD steht hierbei wohl für High Definition, wobei uns nicht bekannt ist, inwiefern sich diese Karte von den anderen unterscheiden wird."
HD (High Defenition)??
http://www.giga.de/index.php?storyid=119861
War das nicht eine Falschinfo? ATI wird IMO so schnell die Marke "Radeon" nicht aufgeben, wie auch NV die Marke "Geforce" nicht aufgibt.
Man hat bei ATi aber das Problem dass man nach X850 nicht gescheit weiterzählen kann ;)
Man hat bei ATi aber das Problem dass man nach X850 nicht gescheit weiterzählen kann ;)
wie wärs mit XIxxx ;)
reunion
2005-05-19, 20:16:40
Was ich auch noch einwerfen will:
-ATi sollte den R520 durch den kleinern Prozess, plus dem schlankeren Design wesentlich biliger herstellen können als nV den G70.
-Außerdem hat ein hochgetaktetes schlankes Design natürlich gewisse Vorteile gegenüber einem breiteren niedrigergetakteten Chip.
reunion
2005-05-19, 20:22:34
War das nicht eine Falschinfo? ATI wird IMO so schnell die Marke "Radeon" nicht aufgeben, wie auch NV die Marke "Geforce" nicht aufgibt.
Inzwischen berichtet beinahe jede Seite, dass R520 Xaveon heißen soll, würde mich nicht wundern, wenn sie das als richtig herrausstellen sollte.
reunion
2005-05-19, 20:23:50
Keine Ahnung ob das schon gepostet wurde:
We have received information that ATi will be launching their R520 in August and the versions they are going to have are not finalized yet.
http://www.vr-zone.com/?i=2213&s=1
ShadowXX
2005-05-19, 20:33:21
Was ich auch noch einwerfen will:
-ATi sollte den R520 durch den kleinern Prozess, plus dem schlankeren Design wesentlich biliger herstellen können als nV den G70.
-Außerdem hat ein hochgetaktetes schlankes Design natürlich gewisse Vorteile gegenüber einem breiteren niedrigergetakteten Chip.
Warum sollte das Design des r520 "schlanker" sein? Ist auch ein FP32, SM3.0 Chip der dazu sehr wahrscheinlich auf FP-Blending&Filtering kann.
We have received information that ATi will be launching their R520 in August and the versions they are going to have are not finalized yet.
Also doch erst Karten im Oktober......(halbwegs verfügbar).
Ich denke R520 wird sogar komplexere Pipelines haben als NV40. Alles andere wäre sehr schwach von ATi, weil sie ja schnelles Branching versprochen haben.
vorstellung erst august....übel übel und kaufbar,nein sagts nicht :(
ati und nv sollten zur gleichen zeit ihre dinger vorstellen beim dem unterschied kann man doch garnicht vergleichen
wer will schon im juli ein g70 kaufen und dann oktober den r520
reunion
2005-05-19, 20:35:54
Warum sollte das Design des r520 "schlanker" sein? Ist auch ein FP32, SM3.0 Chip der dazu sehr wahrscheinlich auf FP-Blending&Filtering kann.
War auf die Pipelineanzahl bezogen.
Sunrise
2005-05-19, 20:38:51
Was ich auch noch einwerfen will:
-ATi sollte den R520 durch den kleinern Prozess, plus dem schlankeren Design wesentlich biliger herstellen können als nV den G70.
Jein. Low-K-Wafer sind deutlich teurer als jene ohne Low-K. Zudem fertigt TSMC bei 90nm ausschließlich auf 12"-Wafern (300mm), was den Preis noch einmal ordentlich in die Höhe treibt. Der 110nm-Prozess ist momentan für Mid-End/Upper-End extrem kosteneffizient und die Verfügbarkeit bei TSMC scheint auch sehr gut zu sein. Es lässt sich nur sehr schwer von außen beurteilen, wie wirtschaftlich beide Vertragspartner (ATI und NV) arbeiten, da wir die jeweiligen Konditionen mit TSMC nicht kennen.
Sunrise
2005-05-19, 20:42:10
Inzwischen berichtet beinahe jede Seite, dass R520 Xaveon heißen soll, würde mich nicht wundern, wenn sie das als richtig herrausstellen sollte.
Es soll ja gewisse Präzidenzfälle gegeben haben, wo in der Tat der Kunde völlig unbewusst entschieden hat, sprich: Firma A setzt ein Gerücht in die Welt, dieses wird am Ende so bekannt, dass man genau diese Öffentlichkeit nutzt und im Endeffekt - und in diesem Falle - die Karten wirklich so nennt.
Ich jedenfalls hätte keine Probleme mit dem Namen Xaveon - klingt für meine Ohren sehr gefällig.
ATI Xaveon (tm) with CrossFire-Technology - The New Era of Graphics - klingt doch ansprechend ;)
Demirug
2005-05-19, 20:43:41
Ich denke R520 wird sogar komplexere Pipelines haben als NV40. Alles andere wäre sehr schwach von ATi, weil sie ja schnelles Branching versprochen haben.
und in der Zwischenzeit das ganze schon wieder relativiert haben.
Demirug
2005-05-19, 20:54:54
Es soll ja gewisse Präzidenzfälle gegeben haben, wo in der Tat der Kunde völlig unbewusst entschieden hat, sprich: Firma A setzt ein Gerücht in die Welt, dieses wird am Ende so bekannt, dass man genau diese Öffentlichkeit nutzt und im Endeffekt - und in diesem Falle - die Karten wirklich so nennt.
Ich jedenfalls hätte keine Probleme mit dem Namen Xaveon - klingt für meine Ohren sehr gefällig.
ATI Xaveon (tm) with CrossFire-Technology - The New Era of Graphics - klingt doch ansprechend ;)
Auf Xaveon gibt es aber schon eine Trademark. Zwar nicht im entsprechenden Bereich aber eigentlich vermeidet man es Namen zu benutzten für die bereits eine Trademark vorhanden ist.
Sunrise
2005-05-19, 21:11:20
Auf Xaveon gibt es aber schon eine Trademark. Zwar nicht im entsprechenden Bereich aber eigentlich vermeidet man es Namen zu benutzten für die bereits eine Trademark vorhanden ist.
Diese Tatsache ist natürlich nicht von der Hand zu weisen. Ein "Trademark" sollte idealerweise auf jedenfall direkt einer Firma zugeordnet werden können.
ShadowXX
2005-05-19, 21:24:06
und in der Zwischenzeit das ganze schon wieder relativiert haben.
Hast du einen Link dafür bzw. ein PDF?? (rein interesshalber zum lesen, glaube tu ich dir schon)
Demirug
2005-05-19, 21:25:51
Hast du einen Link dafür bzw. ein PDF?? (rein interesshalber zum lesen, glaube tu ich dir schon)
Habe ich leider nicht mehr zur Hand. Das waren Interviews bei denen ATI Mitarbeiter auf dynamisches Branching angesprochen antworten gegeben haben die denen von nVidia sehr ähnlich waren.
r3ptil3
2005-05-19, 21:30:46
Die Kollegen von AnandTech berichten, dass ATi auf dem eigenen Stand, der momentan in Los Angeles stattfindenden E3, einen ersten lauffähigen Prototyp des R520 gezeigt hat.
Die Präsentation fand natürlich hinter geschlossenen Türen statt, doch zeigt ATi eine Demo des kommenden Spiels aus dem Hause Remendy, das auf den Namen "Alan Wake" hören soll.
Das für die Next-Gen Konsolen entwickelte Spiel zeigt eine beeindruckende Grafik - die allerdings nicht 100%ig flüssig gelaufen sein soll. Trotzdem soll sich ATi's neuer Sprössling gut geschlagen haben.
von-> http://www.rage3d.de/index.php?id=949
mapel110
2005-05-19, 21:37:59
Die Kollegen von AnandTech berichten, dass ATi auf dem eigenen Stand, der momentan in Los Angeles stattfindenden E3, einen ersten lauffähigen Prototyp des R520 gezeigt hat.
Die Präsentation fand natürlich hinter geschlossenen Türen statt, doch zeigt ATi eine Demo des kommenden Spiels aus dem Hause Remendy, das auf den Namen "Alan Wake" hören soll.
Das für die Next-Gen Konsolen entwickelte Spiel zeigt eine beeindruckende Grafik - die allerdings nicht 100%ig flüssig gelaufen sein soll. Trotzdem soll sich ATi's neuer Sprössling gut geschlagen haben.
von-> http://www.rage3d.de/index.php?id=949
Du meinst wohl R500 und nicht R520. ;)
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2423
r3ptil3
2005-05-19, 21:43:11
Du meinst wohl R500 und nicht R520. ;)
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2423
Ich meine hier nichts, ist der text aus rage3d.de.
ShadowXX
2005-05-19, 22:01:15
Ich meine hier nichts, ist der text aus rage3d.de.
Davon abgesehen das ich anandtech eher glaube, denke ich das ein Spiel, welches für Next-Gen-Konsolen entwicklet wird eher auf einem r500 Prototypen gezeigt wird als auf einem r520 Prototypen.
reunion
2005-05-19, 22:06:34
Du meinst wohl R500 und nicht R520. ;)
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2423
Nein:
http://www.anandtech.com/video/showdoc.aspx?i=2421
We aren't expecting to see the official R520 launch until later this year and not at Computex, based on information we've been hearing from Taiwan.
mist,sommer wäre toll gewesen
Jein. Low-K-Wafer sind deutlich teurer als jene ohne Low-K. Zudem fertigt TSMC bei 90nm ausschließlich auf 12"-Wafern (300mm), was den Preis noch einmal ordentlich in die Höhe treibt. Der 110nm-Prozess ist momentan für Mid-End/Upper-End extrem kosteneffizient und die Verfügbarkeit bei TSMC scheint auch sehr gut zu sein. Es lässt sich nur sehr schwer von außen beurteilen, wie wirtschaftlich beide Vertragspartner (ATI und NV) arbeiten, da wir die jeweiligen Konditionen mit TSMC nicht kennen.
300mm ist Standard, oder gibt es bei TSMC schon grössere?
Größere Wafer hat niemand. Und so Standard ist das noch lange nicht, AMD produziert derzeit z.B. immer noch auf 200mm.
reunion
2005-05-20, 00:19:40
Zudem fertigt TSMC bei 90nm ausschließlich auf 12"-Wafern (300mm), was den Preis noch einmal ordentlich in die Höhe treibt.
Ich bin ja kein Experte auf dem Gebiet, aber sollte die Herstellung dadurch nicht billiger werden?
Ailuros
2005-05-20, 01:24:39
http://www.beyond3d.com/news/images/20050519_r520.jpg
Wo Wavey das Bildchen geschossen hat, koennt Ihr Euch wohl selber ausraten.
Sieht das vielleicht nach einer Console aus?
Ailuros
2005-05-20, 01:38:48
Es ist einfach meine persönlich Meinung, das ich den G70 nicht ganz "ernst" nehmen kann, selbst wenn nV ihn tatsächlich als "gegenprodukt" zum r520 sieht.
Die engineers auf beiden Seiten tun stets ihr bestmoegliches mit den Moeglichkeiten die ihnen bereit stehen. Waere NV40 kein SM3.0 chip gewesen sondern nur ein SM2.0_a chip, waere dann Deine Meinung anders?
Natuerlich ist G70 nur ein Refresh, aber technologisch gesehen muss ATI aufholen um die Wette fuer SM3.0 mit Entwicklern nicht zu verlieren.
Selbst wenn beiden am Ende "gleichschnell" sein sollten und nV dadurch ins Schwarze getroffen hat ist der Chip für mich persönlich nicht mehr als ein "leichter" Refresh des nv40.
Siehe oben. Und R520 ist ein quasi R420-refresh mit SM3.0.
Und ja, ich mache das hauptsächlich an der Speichertaktfrequenz fest....meine ca. 1 Jahr alte 6800Ultra hat auch schon 600MHz Speicher und das von Haus aus (nix übertaktet, ist der XFX - Default, genauso wie die 425MHz Chiptakt) .
War es wert damals von einer NV20 unbedingt auf eine Ti500 oder von einer R300 auf eine R350 aufzuruesten?
D.h. für mich als potentiellen Verrückten der solche HW kauft (und das auch noch meistens relativ nahe am release) bietet dieser Chip nicht wirklich einen grossen Kaufanreiz, da das Bandbreitenproblem eher grösser als kleiner geworden ist.....(Die 2-3 Games wo der Shadereinsatz so stark ist, das ich von der grösseren Shaderpower was hab sind kein Kaufargument, da ich diese momentan auch ohne G70 bequem in 1280x1024 mit AA/AF spielen kann).
Siehe oben.
Und 8xxx 3DMurks05 Punkte beeindrucken mich wenig, wenn die durchschnittlichen Games 5-10 Frames zulegen....
Uhmmm haette Microsoft Longhorn nicht staendig verzoegert haetten wir heute schon vielleicht WGF2.0 GPUs; gilt natuerlich fuer alle IHVs.
Dort wo es mich beeindrucken würde, wäre z.B. bei HDR....aber das braucht massiv Bandbreite....und die Bandbreite eines G70 hab ich jetzt schon
G70 wird 44.8GB/sec Bandbreite haben. Keine Ahnung ob Du die Ultra so hoch takten kannst, klingt aber verdammt unwahrscheinlich. Hat jetzt zwar nichts mit HDR zu tun, aber von gleicher Bandbreite kann hier nicht die Rede sein; andere interne Kompressions-verfahren wuerde ich erstmal u.a. auch erwarten.
mapel110
2005-05-20, 01:41:00
Kann man eigentlich speziell bei HDR durch Kompression irgendwas sparen?
Schwer zu sagen. Vielleicht kann etwas dadurch erreicht werden das Bildteile den gleichen Exponenten haben, aber ansonsten ist das wohl genauso schwierig wie bei normalen 32bit Farben.
Ailuros
2005-05-20, 01:50:16
Schwer zu sagen. Vielleicht kann etwas dadurch erreicht werden das Bildteile den gleichen Exponenten haben, aber ansonsten ist das wohl genauso schwierig wie bei normalen 32bit Farben.
Kommt wohl eher darauf an wieviel Bandbreite man durch neuere Kompressions-Methoden genau sparen kann; ob das jetzt fuer hoehere float HDR Leistung oder sogar float HDR+MSAA ausreicht kann ich natuerlich nicht wissen.
Mal sehen wie das mit dem Speicher weitergeht. Aus der CPU Geschichte lernt man ja eigentlich dass irgendwann nur noch mit Cache gearbeitet werden kann, was bei einem Streamprozessor aber fast unmöglich ist.
Und ewig verbreitern kann man das Interface nicht. Ich bin schon skeptisch ob 512bit überhaupt irgendwann kommt.
Ailuros
2005-05-20, 02:20:26
Mal sehen wie das mit dem Speicher weitergeht. Aus der CPU Geschichte lernt man ja eigentlich dass irgendwann nur noch mit Cache gearbeitet werden kann, was bei einem Streamprozessor aber fast unmöglich ist.
Und ewig verbreitern kann man das Interface nicht. Ich bin schon skeptisch ob 512bit überhaupt irgendwann kommt.
SimonF sagte mal bei B3D dass wenn es mal in der weiten Zukunft 512bit Speicher-interfaces geben wird, dann wird es drei verschiedene Designs davon geben.
Uebrigens nur eine Einschaetzung wahrscheinlich basierend auf Moore's Law, aber in einen der GPU-gems whitepapers wird die Bandbreite fuer ~2014 auf >320GB/sec eingeschaetzt. 2.5GHz@512bits klingt mir da als wahrscheinlicher als 5.0GHz@256bits ;)
mapel110
2005-05-20, 02:34:34
Uebrigens nur eine Einschaetzung wahrscheinlich basierend auf Moore's Law, aber in einen der GPU-gems whitepapers wird die Bandbreite fuer ~2014 auf >320GB/sec eingeschaetzt. 2.5GHz@512bits klingt mir da als wahrscheinlicher als 5.0GHz@256bits ;)
Ich würde eher auf QDR oder ähnliches tippen. Also 1250 Mhz@256bits@doppelt soviel daten wie derzeit GDDR3 pro Takt =)
Ich würde eher auf QDR oder ähnliches tippen. Also 1250 Mhz@256bits@doppelt soviel daten wie derzeit GDDR3 pro Takt =)
Du meinst 2014 wird es keine 512bit breite Speichernbindung geben?
mapel110
2005-05-20, 02:56:57
Du meinst 2014 wird es keine 512bit breite Speichernbindung geben?
Wenn sich der Takt bei "QDR" entsprechend steigern lässt...
Aber vielleicht ist die Prognose ja auch falsch und wir haben dank 512bit Interface ca 600 GB/s :O
Naja, auf solche Langzeitvorhersagen sollte man sowieso nicht allzuviel geben. Wo wollte Intel nochmal derzeit sein? Wie viel Mhz standen auf der Roadmap des P4? :biggrin:
seahawk
2005-05-20, 07:59:20
http://www.beyond3d.com/news/images/20050519_r520.jpg
Wo Wavey das Bildchen geschossen hat, koennt Ihr Euch wohl selber ausraten.
Sieht das vielleicht nach einer Console aus?
Da ist aber kein 1-Slot-Kühler drauf.
Mal sehen wie das mit dem Speicher weitergeht. Aus der CPU Geschichte lernt man ja eigentlich dass irgendwann nur noch mit Cache gearbeitet werden kann, was bei einem Streamprozessor aber fast unmöglich ist.
Und ewig verbreitern kann man das Interface nicht. Ich bin schon skeptisch ob 512bit überhaupt irgendwann kommt.Ich halte das für praktisch sicher. Zwar ist man mit 256 Bit noch lange nicht am Ende, man kann weiterhin den Takt steigern, man kann mit virtualized memory Bandbreite sparen, man kann auch mit einem TBDR Bandbreite sparen. Aber über kurz oder lang ist das ausgereizt, während die Ansprüche weiter steigen.
Adam D.
2005-05-20, 08:27:55
http://www.beyond3d.com/news/images/20050519_r520.jpg
Wo Wavey das Bildchen geschossen hat, koennt Ihr Euch wohl selber ausraten.
Sieht das vielleicht nach einer Console aus?
Der Lüfter macht mir Angst... :eek: Wie war das noch gleich mit dem NV30... :|
ShadowXX
2005-05-20, 08:33:46
Die engineers auf beiden Seiten tun stets ihr bestmoegliches mit den Moeglichkeiten die ihnen bereit stehen. Waere NV40 kein SM3.0 chip gewesen sondern nur ein SM2.0_a chip, waere dann Deine Meinung anders?
Natuerlich ist G70 nur ein Refresh, aber technologisch gesehen muss ATI aufholen um die Wette fuer SM3.0 mit Entwicklern nicht zu verlieren.
Siehe oben. Und R520 ist ein quasi R420-refresh mit SM3.0.
Nein....meine Meinung wäre die selbe.
War es wert damals von einer NV20 unbedingt auf eine Ti500 oder von einer R300 auf eine R350 aufzuruesten?
Zwischen GF3 und GF3 TI 500 lagen aber auch kein Jahr....ich habe meine 6800Ultra inzwischen fast ein Jahr....wenn man den G70 erwerben kann, dann sind definitv ein Jahr rum....
Sorry, aber da erwarte ich ein bisserl mehr.....
G70 wird 44.8GB/sec Bandbreite haben. Keine Ahnung ob Du die Ultra so hoch takten kannst, klingt aber verdammt unwahrscheinlich. Hat jetzt zwar nichts mit HDR zu tun, aber von gleicher Bandbreite kann hier nicht die Rede sein; andere interne Kompressions-verfahren wuerde ich erstmal u.a. auch erwarten.
Nein, der G70 wird die gleiche Bandbreite haben wie meine 6800Ultra mit 600MHz.....er wird nämlich auch nur mit 600MHz Speicher betrieben und nicht mit 700MHz Speicher.
Wir haben im nv-Thread ein paar offizielle nV-Folien, wo der Speicher mit 600MHz und die Bandbreite mit 38.4GB/s angegeben wird....
Also kann meine 68U da ohne jedes Problem mithalten (auf Speicherbandbreite bezogen)....und ums noch deutlich zu machen: Das ist für mich ein lacher.
Dann sollte Sie lieber noch ein bisserl warten und dann wenigstens 700MHz Speicher nehmen.
robbitop
2005-05-20, 08:37:30
Nein, der G70 wird die gleiche Bandbreite haben wie meine 6800Ultra mit 600MHz.....er wird nämlich auch nur mit 600MHz Speicher betrieben und nicht mit 700MHz Speicher.
Was macht dich da so sicher?
@sunrise
300mm Wafer verringern die Kosten pro Chip. Sie sind zwar teurer als 200mm Wafer bringen aber ungleich mehr Chips pro Wafer. Für diesen Zweck wurden größere Wafer geschaffen.
ShadowXX
2005-05-20, 08:40:12
Was macht dich da so sicher?
Weil wir im nV Thread eine nV-Folie haben, wo das so eingetragen ist mit den 38.4GB/s??
Zusätzlich noch die Aussagen eines Users der letzten mit einem nV-Mann auf einer Veranstaltung gesprochen hat und der ebenfalls 600MHz sagte....
Letzteres ist unsicher....ersters schon ziemlich "glasklar".
Hier ist übrigens der Link:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3050751&postcount=953
Das wird übrigens die Folie sein, wo die ganze anderen Ihre "leaked infos" abgeschrieben haben......die haben dann nur alle 700MHz als Speicher eingesetzt, weill wohl alle mit diesem Speichertakt gerechnet haben aber auch alle zu faul waren mal nachzurechnen, ob das dann mit der Bandbreite hinkommt.
wuzetti
2005-05-20, 08:45:20
Weil wir im nV Thread eine nV-Folie haben, wo das so eingetragen ist mit den 38.4GB/s??
Zusätzlich noch die Aussagen eines Users der letzten mit einem nV-Mann auf einer Veranstaltung gesprochen hat und der ebenfalls 600MHz sagte....
Letzteres ist unsicher....ersters schon ziemlich "glasklar".
Hier ist übrigens der Link:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3050751&postcount=953
und ein ultra modell, das genau aus diesem grund erst später kommt, und zwar mit 700 mhz speicher, ist für dich kein thema?
wenn nicht, würde mich interessieren, warum nicht. dann werd ich vielleicht auch etwas g'scheiter! :D
robbitop
2005-05-20, 08:51:26
Weil wir im nV Thread eine nV-Folie haben, wo das so eingetragen ist mit den 38.4GB/s??
Zusätzlich noch die Aussagen eines Users der letzten mit einem nV-Mann auf einer Veranstaltung gesprochen hat und der ebenfalls 600MHz sagte....
Letzteres ist unsicher....ersters schon ziemlich "glasklar".
Hier ist übrigens der Link:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3050751&postcount=953
Das wird übrigens die Folie sein, wo die ganze anderen Ihre "leaked infos" abgeschrieben haben......die haben dann nur alle 700MHz als Speicher eingesetzt, weill wohl alle mit diesem Speichertakt gerechnet haben aber auch alle zu faul waren mal nachzurechnen, ob das dann mit der Bandbreite hinkommt.
Ahh...ich vergaß. Demnach besitzt G70 auch nur 6xVS.
Dann wird der 700MHz Speicher wohl nur wenig verfügbar sein. Was nützt schon der beste Speicher, wenn man keine Produkte verkaufen kann?
ShadowXX
2005-05-20, 08:54:49
und ein ultra modell, das genau aus diesem grund erst später kommt, und zwar mit 700 mhz speicher, ist für dich kein thema?
wenn nicht, würde mich interessieren, warum nicht. dann werd ich vielleicht auch etwas g'scheiter! :D
Falls nV tatsächlich noch ein Ultra Modell hinterherschieben sollte (was ich übrigens nicht glaube) und dieses dann 700MHz-Speicher hat, dann wäre dies zumindest interesannter (800 wäre richtig interessant).
Ich vermute allerdings das 700 oder auch 800 MHz Speicher den 90nm Refreshes des G70 vorbehalten bleiben werden....
Ich glaube sowieso das das ganze ganz andere Gründe hat.....Sie wollen wenn WGF2.0 kommt Karten rausbringen, die deutlich schneller als der G70 (und auch der G70@90nm) sind und einen Kaufanreiz für WGF2.0 Karte zu bieten und das sogar Usern, die bei XP bleiben (also von WGF2.0 nix haben, von mehr speed aber schon).
Das würde Sie sich aber sehr wahrscheinlich kaputt machen, wenn Sie den G70 jetzt schon zu stark machen würden.....und man nachher bei den WGF2.0 Chips nur 20-30% Performancesteigerung anstatt 100% bekommt (beim Sprung G70 -> WGF2.0-Karte)
ShadowXX
2005-05-20, 09:00:51
Ahh...ich vergaß. Demnach besitzt G70 auch nur 6xVS.
Dann wird der 700MHz Speicher wohl nur wenig verfügbar sein. Was nützt schon der beste Speicher, wenn man keine Produkte verkaufen kann?
Ich sagte ja....leichter Refresh (Im Prinzip wird nur der PS-Power etwas aufgewertet, die höhere Füllrate geht ja in der Bandbreitenknappheit unter).
Und das nach einem Jahr "pause" ist IMHO etwas wenig.
Rate mal warum ich glaube, das ATI wegen dem nicht so gut verfügbaren 700 MHZ Speicher den r520 immer weiter nach hinten schiebt...
Nur sollte nV das IMO auch tun.
Wenn ATI nämlich mit 700MHz Speicher kommt, dann könnte es durchaus sein, das er den G70 öfter mal Alt aussehen lässt.
(Ausserdem gibts ja noch die "Konspiration" ATI & MS....MS braucht ja auch GDDR3 700 Speicher für die XBox360, vielleicht gibts da einen Deal, das was von dem Speicher für den r520 "abfällt")
wuzetti
2005-05-20, 09:05:09
Falls nV tatsächlich noch ein Ultra Modell hinterherschieben sollte (was ich übrigens nicht glaube) und dieses dann 700MHz-Speicher hat, dann wäre dies zumindest interesannter (800 wäre richtig interessant).
Ich vermute allerdings das 700 oder auch 800 MHz Speicher den 90nm Refreshes des G70 vorbehalten bleiben werden....
Ich glaube sowieso das das ganze ganz andere Gründe hat.....Sie wollen wenn WGF2.0 kommt Karten rausbringen, die deutlich schneller als der G70 (und auch der G70@90nm) sind und einen Kaufanreiz für WGF2.0 Karte zu bieten und das sogar Usern, die bei XP bleiben (also von WGF2.0 nix haben, von mehr speed aber schon).
Das würde Sie sich aber sehr wahrscheinlich kaputt machen, wenn Sie den G70 jetzt schon zu stark machen würden.....und man nachher bei den WGF2.0 Chips nur 20-30% Performancesteigerung anstatt 100% bekommt (beim Sprung G70 -> WGF2.0-Karte)
natürlich wird der mögliche leistungssprung zu den WGF2.0 chips eine rolle spielen, da gebe ich dir schon recht. aber wenn ich mir anschaue, dass longhorn mit stand heute erst ende 2006 kommen soll, machen solche chips vorher keinen sinn. da ich zudem davon ausgehe, dass ms (wie immer) terminschwierigkeiten haben wird, sehe ich verfügbare WGF2.0 karten erst irgendwann 2007. von da her stellt sich dann die frage, ob diese noch in 90nm oder bereits in 65nm kommen werden.
wenn letzeres der fall ist, gibts wohl auch wieder mehr leistungsspielraum, oder? immer vorausgesetzt, es gibt verfügbaren speicher, mit dem man die ps auch auf die strasse bringen kann.
wie schauts mit gddr4 aus für die refreshes G?? bzw. R580? diese werden wir wohl erst irgendwann 2006 sehen?!
ShadowXX
2005-05-20, 09:23:46
natürlich wird der mögliche leistungssprung zu den WGF2.0 chips eine rolle spielen, da gebe ich dir schon recht. aber wenn ich mir anschaue, dass longhorn mit stand heute erst ende 2006 kommen soll, machen solche chips vorher keinen sinn. da ich zudem davon ausgehe, dass ms (wie immer) terminschwierigkeiten haben wird, sehe ich verfügbare WGF2.0 karten erst irgendwann 2007. von da her stellt sich dann die frage, ob diese noch in 90nm oder bereits in 65nm kommen werden.
wenn letzeres der fall ist, gibts wohl auch wieder mehr leistungsspielraum, oder? immer vorausgesetzt, es gibt verfügbaren speicher, mit dem man die ps auch auf die strasse bringen kann.
wie schauts mit gddr4 aus für die refreshes G?? bzw. R580? diese werden wir wohl erst irgendwann 2006 sehen?!
Natürlich machen WGF2.0 Chips nicht vor Anfang 2007 sinn, das ist klar.
Aber gerade wenn man bedenkt, dass bis dahin sehr wahrscheinlich nur noch G70/r520 bzw. G70@90nm/r580 kommen, finde ich persönlich das der Leistungszuwachs zu den aktuellen Karten dann irgendwie zu gering ist.
Speziell unter der Berücksichtigung, das die jetzigen High-End Karten auch nicht mehr die "allerneusten" sind.
wuzetti
2005-05-20, 09:34:12
Natürlich machen WGF2.0 Chips nicht vor Anfang 2007 sinn, das ist klar.
Aber gerade wenn man bedenkt, dass bis dahin sehr wahrscheinlich nur noch G70/r520 bzw. G70@90nm/r580 kommen, finde ich persönlich das der Leistungszuwachs zu den aktuellen Karten dann irgendwie zu gering ist.
Speziell unter der Berücksichtigung, das die jetzigen High-End Karten auch nicht mehr die "allerneusten" sind.
irgendwie ist mir deine logik nicht ganz klar, aber ich muss ja auch nicht alles verstehen. ;D
trotz allem muss ich mich fragen, woher du heute wissen willst, wie die leistungsdaten der dann aktuellen WGF2.0 karten ausschauen werden? :confused:
ShadowXX
2005-05-20, 10:03:53
irgendwie ist mir deine logik nicht ganz klar, aber ich muss ja auch nicht alles verstehen. ;D
trotz allem muss ich mich fragen, woher du heute wissen willst, wie die leistungsdaten der dann aktuellen WGF2.0 karten ausschauen werden? :confused:
Natürlich kenn ich nicht die Leistungsdaten der kommenden WGF2.0 Chips.....aber um Kaufanreize für User zu bilden, die zu dem Zeitpunkt eine High-Endkarte von nV oder ATI haben und die nicht auf LH umsteigen wollen (also mit den WGF2.0 Features nichts anfangen könne) müssen diese WGF2.0-Karten IMHO wesentlich mehr power als die genannten High-End-Karten haben...
Das hier:
Aber gerade wenn man bedenkt, dass bis dahin sehr wahrscheinlich nur noch G70/r520 bzw. G70@90nm/r580 kommen, finde ich persönlich das der Leistungszuwachs zu den aktuellen Karten dann irgendwie zu gering ist.
Bezog sich alleine auf den "sprung" nv40 -> G70 -> G70@90nm.
Und eben darauf, das bis die WGF2.0 Karten kommen, wohl nix anderes mehr dazwischen kommt.
wuzetti
2005-05-20, 10:15:18
Natürlich kenn ich nicht die Leistungsdaten der kommenden WGF2.0 Chips.....aber um Kaufanreize für User zu bilden, die zu dem Zeitpunkt eine High-Endkarte von nV oder ATI haben und die nicht auf LH umsteigen wollen (also mit den WGF2.0 Features nichts anfangen könne) müssen diese WGF2.0-Karten IMHO wesentlich mehr power als die genannten High-End-Karten haben....
ich sehe aus heutiger sicht keinen wirklichen grund, warum dieser notwendige leistungssprung nicht möglich sein sollte. bestenfalls indizien, die es schwerer machen könnten.
Das hier:
Bezog sich alleine auf den "sprung" nv40 -> G70 -> G70@90nm.
Und eben darauf, das bis die WGF2.0 Karten kommen, wohl nix anderes mehr dazwischen kommt.
genau das erscheint mir so unlogisch. wenn dazwischen nix mehr kommt, was ja so gut wie fix ist, bleibt genug zeit, ergo vielleicht neuer 65nm prozess, neuer speicher, evt. grösserer speicherbus,.... um den leistungssprung zu erreichen. what's the problem?
reunion
2005-05-20, 10:18:01
Da ist aber kein 1-Slot-Kühler drauf.
Die Karte ist auch noch nicht final.
Die Verkaufsversion wird mit Sicherheit anders aussehen.
ShadowXX
2005-05-20, 10:27:53
Upss...ich bemerke gerade das wir klassisch aneinander vorbeireden.
ich sehe aus heutiger sicht keinen wirklichen grund, warum dieser notwendige leistungssprung nicht möglich sein sollte. bestenfalls indizien, die es schwerer machen könnten.
Dieses bezweifle ich ja auch gar nicht....eher im gegenteil.
genau das erscheint mir so unlogisch. wenn dazwischen nix mehr kommt, was ja so gut wie fix ist, bleibt genug zeit, ergo vielleicht neuer 65nm prozess, neuer speicher, evt. grösserer speicherbus,.... um den leistungssprung zu erreichen. what's the problem?
Genau das meine ich ja......ich habe momentan das Gefühl, als wenn nV das ganze etwas ausbremst, gerade damit die WGF2.0-Karte so extrem viel schneller als die dann zu dieses Zeitpunkt vorhandenen High-End-Karten sein werden.
Die Frage ist doch die.....warum muss nV genau zu diesem Zeitpunkt unbedingt auf "biegen und brechen" die G70 auf den Markt schmeissen, wenn es nur 600MHz Speicher gibt und damit schon vorprogrammiert ist, das Sie nicht sehr viel Leistungsfähiger sein wird.
Für die normalen High-End Käufer stellt diese Karte IMHO keine Kaufanreiz dar....
Warum warten Sie nicht einfach bis Weihnachten, denn die wahrscheinlichkeit das dann 700MHz Speicher verfügbar ist ist relativ groß.
Es gibt zum jetzigen Zeitpunkt eigentlich keinen wirklichen Grund den G70 mit 600MHz-Speicher rauszubringen.....(denn der r520 wird wohl noch auf sich warten lassen)
Es gibt natürlich aus einer ganz anderen sicht durchaus einen Grund: Wirtschaftlichkeit....der G70 ist wahrscheinlich billiger und mit besseren Margen als der nv40 herstellbar.
Womit wir wieder dabei sind, das der G70 ein leichter Refresh des nv40 ist und nur aus Wirtschaftlichkeitsgründen auf den Markt geschmissen wird (die leichte Performanceerhöhung ist sekundär und nur nach aussen eine Begründung...ähnlich wie bei der x850xt-pe).
Noch härter Ausgedrückt, wirds den nächsten Performanceschub (den man auch als solchen Bezeichnen kann) wohl erst Anfang 2007 mit den WGF2.0 Karten geben......
Auch gut....spare ich Geld, welches ich in eine DualCore-CPU inverstieren kann...
reunion
2005-05-20, 10:29:14
Auch nicht ganz unintressant:
"The demo we saw was using Shader model 2.0 but Developer will switch it to Shader model 3.0 as Shader effects will be much faster. R520 is Shader model 3.0 capable."
Könnte auf eine schwache SM3.0-Performace hindeuten.
http://www.the-inquirer.net/?article=23363
ShadowXX
2005-05-20, 10:29:16
Die Karte ist auch noch nicht final.
Die Verkaufsversion wird mit Sicherheit anders aussehen.
Wieso...der r520 soll doch mit einer Dualslot-Kühllösung kommen??
wuzetti
2005-05-20, 10:46:04
@ShadowXX: alles klar, tatsächlich aneinander vorbeigeredet :biggrin:
wuzetti
2005-05-20, 10:47:56
ah, endlich Senior Member ;D ;D ;D
Was ich auch noch einwerfen will:
-ATi sollte den R520 durch den kleinern Prozess, plus dem schlankeren Design wesentlich biliger herstellen können als nV den G70.
Das sollte auch bei NV4x vs R4x der Fall gewesen sein oder?
Was daraus geworden ist haben wir ja gesehen.
Lieferprobleme bei ATI, aggressive Preise bei NV und Margen bei NV, die auf Rekordniveau sind.
So ganz kann das also nicht immer hinkommen.
Da spielen noch eine ganze Reihe anderer Faktoren mit rein.
Grundätzlich halte ich die Ausbeute bei 0.11 vorerst mal für besser als bei 0.09, da dieser Prozess erprobt ist und derzeit auch HIgh End Chips auf diesem hergestellt werden.
Rate mal warum ich glaube, das ATI wegen dem nicht so gut verfügbaren 700 MHZ Speicher den r520 immer weiter nach hinten schiebt...
Nur sollte nV das IMO auch tun.
Wenn ATI nämlich mit 700MHz Speicher kommt, dann könnte es durchaus sein, das er den G70 öfter mal Alt aussehen lässt.
(Ausserdem gibts ja noch die "Konspiration" ATI & MS....MS braucht ja auch GDDR3 700 Speicher für die XBox360, vielleicht gibts da einen Deal, das was von dem Speicher für den r520 "abfällt")
Wüsste nicht wozu Nvidia den G70 nach hinten verschieben sollte wegen dem Speicher. Wenn der Chip fertig ist, dann raus mit ihm in den Markt.
ATI hat ja aller Voraussicht nach eine Verspätung im Programm. Das eröffnet für Nvidia die Möglichkeit erstmal ihre Produktion gescheit hochzufahren und Kunden einzusacken.
Wenn ATI dann endlich mal soweit ist, wird das GF7800Ultra Modell mit schnellerem Speicher nachgeschoben. Entweder dies ist dann bereits die 0.09 Variante oder eben noch die 0.11er.
Nvidia hat ganz bewusst keine Ultra Variante im Programm genannt eben genau aus dem Grund, um ATI erstmal ins Geschehen zu locken.
Die sind doch nicht blöd. Die wissen doch auch ganz genau, dass ATI sich den G70 Launch anschauen wird und dementsprechend die Taktraten finalisiert.
Da kann doch Luft nach oben überhaupt nicht schaden. Der G70 ist so oder so erstmal das schnellste bis der R520 oder der G70 Refresh kommt. Da reicht dann auch niedriger getakteter Speicher.
Das die Ultra fehlt deutet meiner Meinung nach ganz klar darauf hin.
Ich nehme an, dass Nvidia jetzt schon weiss bzw. der Meinung ist, dass sie einiges an Reserven haben.
Alles nur taktisches Vorgehen.
Ich erinner mal an die 6800GT. Von der war erst überhaupt nichts bekannt, bis ATI mit einmal total kalt erwischt wurde und mit der jämmerlichen X800pro ziemlich bekloppt dastand und das für ne ganze Weile.
seahawk
2005-05-20, 11:42:50
Die Karte ist auch noch nicht final.
Die Verkaufsversion wird mit Sicherheit anders aussehen.
Abwarten. Für ne improvisierte Lösung sah der schon zu gut aus, und wäre eine logsiche Entwicklung des jetzigen Designs.
seahawk
2005-05-20, 11:45:28
Auch nicht ganz unintressant:
"The demo we saw was using Shader model 2.0 but Developer will switch it to Shader model 3.0 as Shader effects will be much faster. R520 is Shader model 3.0 capable."
Könnte auf eine schwache SM3.0-Performace hindeuten.
http://www.the-inquirer.net/?article=23363
Bei solchen Aussagen würde ich als X800 Käufer nie wieder ne ATI kaufen.
"SM3.0 will bring no performance improvements over 2.0b"
Sunrise
2005-05-20, 11:56:25
300mm ist Standard, oder gibt es bei TSMC schon grössere?
Es geht hier um den Vergleich 8" zu 12" und nicht um größere Wafer....
Adam D.
2005-05-20, 12:06:31
"n a bit of a surprise, ATI is running working R520 silicon behind closed doors at their booth here at E3.
The R520, not the GPU in the upcoming Xbox 360 but rather the next-generation PC GPU, was running in an Intel PCIe system at ATI's booth.
The system was used to demonstrate Remedy's upcoming title called Alan Wake. The game itself was quite impressive, with an incredibly large and interactive environment, as well as some of the most impressive weather effects we'd ever seen.
Alan Wake is designed for the next-generation consoles (e.g. Xbox 360 and PS3), and thus wasn't running perfectly smoothly on the R520 but performance was quite respectable.
We aren't expecting to see the official R520 launch until later this year and not at Computex, based on information we've been hearing from Taiwan.
The fact that there is working R520 silicon at this point is important, as NVIDIA is sure to be talking quite a bit about their GF70 GPU at the show.
Unfortunately cameras weren't allowed in the Alan Wake demo room, so we couldn't capture the impressive demo or shots of the board running in the system.
We also received word that Prey, another title using the Doom 3 engine, may have also been running on R520 silicon."
Hilft uns das irgendwie weiter? Nein, egal ;)
wuddu
2005-05-20, 12:07:46
Bei solchen Aussagen würde ich als X800 Käufer nie wieder ne ATI kaufen.
"SM3.0 will bring no performance improvements over 2.0b"
Warum? Die ATI ist ohne SM3.0 schneller@NV40 mit SM3.0 :)
Oder anders herum: Zu was ist eine ATI-GPU erst fähig mit SM3.0?
Adam D.
2005-05-20, 12:09:38
Warum? Die ATI ist ohne SM3.0 schneller@NV40 mit SM3.0 :)
Oder anders herum: Zu was ist eine ATI-GPU erst fähig mit SM3.0?
Übernimm dich mal nicht, mein Kleiner...Manche erwarten einfach zu viel... :rolleyes:
Sunrise
2005-05-20, 12:09:45
Ich bin ja kein Experte auf dem Gebiet, aber sollte die Herstellung dadurch nicht billiger werden?
Die Herstellung ist das Produkt aus allen Einzelfaktoren. Auf keinen Fall darf man davon ausgehen, dass durch eine kleinere Strukturgröße auch die Herstellung insgesamt günstiger wird, vor allem dann nicht, wenn wir uns bei High-End-Prozessen bewegen, denn hier wird schon von vorneheren durch die "teuren" Wafer (Low-K, 300mm) einiges mehr an Geld abgeschöpft. Du bekommst vor allem eines (und genau da hast du Recht), eine deutlich größere Nutzfläche und somit - wenn der Faktor Yields konstant bleibt - auch deutlich mehr Chips auf diesem Wafer "produziert".
Sollten die Yields des R520 entsprechend gut sein, wird TSMC (und ATI) diesen daher auch breit verfügbar machen können - wie ja bereits in einem anderen Thread geschrieben -, unter der Annahme, dass sie dies auch wollen. Denn TSMC hat momentan 3 FABs, die alle auf 90nm umgerüstet sind, im Quartal 4/05 kommt noch FAB 14 hinzu - also reichlich Kapazität.
Sunrise
2005-05-20, 12:43:56
@sunrise
300mm Wafer verringern die Kosten pro Chip. Sie sind zwar teurer als 200mm Wafer bringen aber ungleich mehr Chips pro Wafer. Für diesen Zweck wurden größere Wafer geschaffen.
Natürlich, nur reden wir hier nicht nur rein vom Vergleich der Fläche, sondern auch von den gesamten Kosten. Die Kosten pro Chip sinken, soweit so gut. Sinken aber auch die gesamten Herstellungskosten ? (Und genau hier setze ich an.)
TheGood
2005-05-20, 13:30:06
[i
Alan Wake is designed for the next-generation consoles (e.g. Xbox 360 and PS3), and thus wasn't running perfectly smoothly on the R520 but performance was quite respectable.
das ist bullshit. www.alanwake.com
vermutlich läuft es im moment ausschliesslich nur auf dem PC weil sonst keine plattform da ist welche das game abspielen könnte...
Tarkin
2005-05-20, 20:50:07
R520 Demos (Ruby) auf einer ECHTEN XBOX 360 am ATi Stand auf der E3 ....
http://www.xboxyde.com/news_1610_en.html
Kommentar von DaveBaumann (Beyond3d)
"This is not the old Ruby demo but one that was supposed to be for the R520 launch; the XBox 360 launch usurped it. According to ATI this and a few other demo's was ported in under a week via XNA. Because this was a very las minute quick port, unfortunatly they didn't have AA enabled.
The first day of the show this was just running video loop because the XBox had the wrong BIOS version, but the second day they had it sorted out and was running the demo (and was being switched to interactive mode).
At the moment it looks like ATI were the only ones running actual XBox hardware on the show floor."
... btw ziemlich cool das Demo :)
Adam D.
2005-05-20, 21:03:33
Danke für den Link, sieht toll aus :uup:
reunion
2005-05-20, 21:28:25
R520 Demos (Ruby) auf einer ECHTEN XBOX 360 am ATi Stand auf der E3 ....
http://www.xboxyde.com/news_1610_en.html
Kommentar von DaveBaumann (Beyond3d)
"This is not the old Ruby demo but one that was supposed to be for the R520 launch; the XBox 360 launch usurped it. According to ATI this and a few other demo's was ported in under a week via XNA. Because this was a very las minute quick port, unfortunatly they didn't have AA enabled.
The first day of the show this was just running video loop because the XBox had the wrong BIOS version, but the second day they had it sorted out and was running the demo (and was being switched to interactive mode).
At the moment it looks like ATI were the only ones running actual XBox hardware on the show floor."
... btw ziemlich cool das Demo :)
http://www.the-inquirer.net/images/articles/xbox360.jpg
reunion
2005-05-20, 21:31:22
Wieso...der r520 soll doch mit einer Dualslot-Kühllösung kommen??
Sagt wer?
reunion
2005-05-20, 21:35:20
Abwarten. Für ne improvisierte Lösung sah der schon zu gut aus, und wäre eine logsiche Entwicklung des jetzigen Designs.
Die Platine ist IMO viel zu lange für die Verkaufsversion, überragt ja fast das Mainboard, absolut untypisch für ATi.
dildo4u
2005-05-20, 23:09:23
Die Platine ist IMO viel zu lange für die Verkaufsversion, überragt ja fast das Mainboard, absolut untypisch für ATi.
Schon mal eine X800XL AGP gesehen?
http://www.geizhals.at/img/pix/141643.jpg
reunion
2005-05-20, 23:29:32
Schon mal eine X800XL AGP gesehen?
http://www.geizhals.at/img/pix/141643.jpg
Ja, liegt allerdings am Rialto-Brückenchip, wodurch der Core natürlich nach rechts wandern muss.
Wieso? Der ist doch auf der Rückseite :rolleyes:
Ahh...ich vergaß. Demnach besitzt G70 auch nur 6xVS.
:confused:
NV40: 400 MHz * 6 / 4 = 600 MVerts/s (http://www.nvidia.com/page/geforce_6800.html)
G70: 430 MHz * x / 4 = 860 MVerts/s
x = ?
Kommentar von DaveBaumann (Beyond3d)
"[...]Because this was a very las minute quick port, unfortunatly they didn't have AA enabled.[...]"
Also das ist ja wohl eine sehr alberne Ausrede.
Ailuros
2005-05-21, 03:18:21
:confused:
NV40: 400 MHz * 6 / 4 = 600 MVerts/s (http://www.nvidia.com/page/geforce_6800.html)
G70: 430 MHz * x / 4 = 860 MVerts/s
x = ?
Nun ja VS-throughput wird um wohl um einiges hoeher sein auf R520, was sich dann wohl auch in 3dmark2k5 ausspielen wird (~1300 MVertices/sec).
SKYNET
2005-05-21, 03:44:39
Warum? Die ATI ist ohne SM3.0 schneller@NV40 mit SM3.0 :)
Oder anders herum: Zu was ist eine ATI-GPU erst fähig mit SM3.0?
wo sind sie schneller? ATI musste ja erst den X850XTPE nachlegen damit sie schneller sind, weil der NV45 war schneller als die X800XTPE. ;D
und ATI wird mit SM3.0 genauso langsam/schnell sein wie mit SM2.0b, nur werden damit auch auf ATI karten endlich dinge sichtbar, die sonst nur dem erwählten kreis der NV4x user vorbehalten waren. :eek:
Ailuros
2005-05-21, 07:35:55
wo sind sie schneller? ATI musste ja erst den X850XTPE nachlegen damit sie schneller sind, weil der NV45 war schneller als die X800XTPE.
Das stimmt auf jeden Fall nicht; wo immer es zu starker Shader-/AF-Last kommt setzt sich selbst eine X800XT@500MHz vor der NV40 (NV45 steht ja nur fuer PCI-E) durch eben die hoehere Taktrate und ueberhaupt in hohen Aufloesungen.
Beispiel:
http://www.3dcenter.de/artikel/ati_radeon_x850/index6.php
reunion
2005-05-21, 11:21:15
Wieso? Der ist doch auf der Rückseite :rolleyes:
Was willst du mit dieser Anspielung erreichen?
Ich denke du weißt genausogut wie ich, dass die PCIe-Version wesentlich kompakter ist.
Warum sollte der Chip nach rechts rutschen müssen, wenn die Bridge auf der Rückseite ist?
Ich denke eher dass die X800XL AGP so lang ist weil man das PCB schnell fertighaben musste.
DrumDub
2005-05-21, 12:40:09
Warum sollte der Chip nach rechts rutschen müssen, wenn die Bridge auf der Rückseite ist?
mehr leiterbahnen? die müssen ja irgendwohin. glaube nicht, dass das pcb zusätzliche layer hat gegenüber der pcie version.
Ich denke eher dass die X800XL AGP so lang ist weil man das PCB schnell fertighaben musste. versteh ich nicht.
Demirug
2005-05-21, 12:44:38
versteh ich nicht.
Je mehr Platz man dem Autorouter lässt desto weniger muss man selbst Hand anlegen. Desweiteren ist bei einen großes PCB die Gefahr auf das Signalübersprechen geringer was die tests einfacher macht.
DrumDub
2005-05-21, 12:56:22
Je mehr Platz man dem Autorouter lässt desto weniger muss man selbst Hand anlegen. Desweiteren ist bei einen großes PCB die Gefahr auf das Signalübersprechen geringer was die tests einfacher macht. ah so... hmm. das kann natürlich sein. so macht codas aussage dann auch sinn. aber wie siehts denn mit der kosten/nutzen relation aus? wäre nen optimiertes, kleineres pcb nicht günstiger?
mehr leiterbahnen? die müssen ja irgendwohin. glaube nicht, dass das pcb zusätzliche layer hat gegenüber der pcie version.Glaube ich kaum. PCIe ist extrem einfach zu routen (seriell) und AGP hat auch nie Probleme gemacht.
Die X800XL war eh schon viel zu spät. Man wollte nV nicht noch mehr in dem Marktsegment wildern lassen.
Demirug
2005-05-21, 13:03:59
ah so... hmm. das kann natürlich sein. so macht codas aussage dann auch sinn. aber wie siehts denn mit der kosten/nutzen relation aus? wäre nen optimiertes, kleineres pcb nicht günstiger?
Bei gleicher Layeranzahl natürlich. Da die PCB Kosten auch von der Fläche anhängen. Bei weniger Layer kann ein größeres PCB aber auch künstiger sein.
Sunrise
2005-05-21, 13:08:57
Beide Faktoren sind für ein Vorserienboard allerdings stark zu vernachlässigen. Allgemein gesprochen ist Demirugs Aussage natürlich richtig, jedoch sollte man von einem Vorserienboard nicht unbedingt auf die finale Version schließen. Das nur am Rande.
Demirug
2005-05-21, 13:12:34
Beide Faktoren sind für ein Vorserienboard allerdings stark zu vernachlässigen. Allgemein gesprochen ist Demirugs Aussage natürlich richtig, jedoch sollte man von einem Vorserienboard nicht unbedingt auf die finale Version schließen. Das nur am Rande.
Bei Vorserienboards fallen die Einrichtungskosten für die FAB dermassen stark ins Gewicht das man da für nahezu das gleiche Geld auch PCBs von der größe eines Motherboards bekommen kann.
Wenn es sich bei dem PCB aber nicht um die finale Version handelt muss man davon ausgehen das diese Karten noch ein Stück weg von einer öffentlichen kaufbarkeit sind.
Sunrise
2005-05-21, 13:20:41
Bei Vorserienboards fallen die Einrichtungskosten für die FAB dermassen stark ins Gewicht das man da für nahezu das gleiche Geld auch PCBs von der größe eines Motherboards bekommen kann.
Wenn es sich bei dem PCB aber nicht um die finale Version handelt muss man davon ausgehen das diese Karten noch ein Stück weg von einer öffentlichen kaufbarkeit sind.
Es geht eher darum, dass bei einem Vorserienboard der Preis eigentlich kaum eine Rolle spielt, denn wichtig ist es primär, die Partner und ISVs entsprechende Boards so früh als möglich zukommen zu lassen. Der R520 hat schon mehrere Revisionen hinter sich und solche Faktoren sind daher eher zu vernachlässigen.
----
Dass R520 auch noch einiges von der Marktreife entfernt ist, hat ATI auch von sich gegeben und daher wird - vor Juli - IMHO auch kein finales Board verfügbar sein. Das ist aber nur rein meine Spekulation.
reunion
2005-05-21, 13:43:34
Warum sollte der Chip nach rechts rutschen müssen, wenn die Bridge auf der Rückseite ist?
Naja, trozdem kannst du die Bridge nicht einfach gegenüber dem Grafikchip auf der Rückseite anlöten. Die Bridge braucht ja auch platz.
Also entweder der Chip wandern nach oben, oder eben nach rechts.
X800XL PCIe
http://www.tomshardware.fr/images/3d/20041216/x800xl-2.jpg
X800XL AGP
http://pics.computerbase.de/news/10356/5.jpg
nVidia schafft es doch auch ohne so ewig viel längere PCBs bei den 6600GTs.
Das Design ist auf jeden Fall nicht sehr optimiert, das sieht man einfach.
Mir ist das auch ziemlich piep egal. Ich brauch es ja nicht zu zahlen sondern ATi. Nur glaube ich das spätestens R520 auch so längere PCBs braucht um die entsprechenden Spannungswandler unterzubringen.
TheGood
2005-05-21, 14:14:42
jopp die neue ruby demo ist sehr geil :D Verstehe ned warum der PC Angst vor den Next Gen Konsolen haben sollte ;)
dildo4u
2005-05-21, 14:16:45
jopp die neue ruby demo ist sehr geil :D Verstehe ned warum der PC Angst vor den Next Gen Konsolen haben sollte ;)
Die demos sehen schon seid der 9700pro extrem Geil aus aber mit PC Spielen haben sie nicht so viel Gemein siehe auch 3DMark2005
Quasar
2005-05-21, 14:17:10
[...] wo immer es zu starker Shader-/AF-Last kommt setzt sich selbst eine X800XT@500MHz vor der NV40 (NV45 steht ja nur fuer PCI-E) durch eben die hoehere Taktrate und ueberhaupt in hohen Aufloesungen.
Nicht immer. Der Pixelshader-Test im 3DMark05 bsw. scheint den nV40-Shadern sehr gut zu liegen (im Gegensatz zum VS-Test...). IIRC kann da sogar eine 6800GT gegen eine X800 XT/PE anstinken.
DrumDub
2005-05-21, 14:37:31
Nicht immer. Der Pixelshader-Test im 3DMark05 bsw. scheint den nV40-Shadern sehr gut zu liegen (im Gegensatz zum VS-Test...). IIRC kann da sogar eine 6800GT gegen eine X800 XT/PE anstinken. wäre mal interessant die 6800er auf ps 2.b zu beschränken. ob dann immer noch ein vorteil besteht?
seahawk
2005-05-21, 16:50:33
Die Platine ist IMO viel zu lange für die Verkaufsversion, überragt ja fast das Mainboard, absolut untypisch für ATi.
Das PCB ist ja auch deutlich länger als der Kühler.
Quasar
2005-05-21, 16:51:39
wäre mal interessant die 6800er auf ps 2.b zu beschränken. ob dann immer noch ein vorteil besteht?
Sie kann kein PS2.B.
edit:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=184088
Demirug
2005-05-21, 16:53:08
Sie kann kein PS2.B.
Meine kann das. Oder meinst du jetzt das man es beim 3DMark nicht auswählen kann?
Quasar
2005-05-21, 16:54:23
Mein Fehler. Hatte das falsch in Erinnerung.
DrumDub
2005-05-21, 17:08:28
Sie kann kein PS2.B.
edit:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=184088
ah.. danke. kein unterschied zwischen 2.0 und 2.b. also ich komm mit ner x800xl auf 430/525 auf 127,7 fps bei 1024x768@default. ziemlich exakt der wert, den du mit der 6800@16/6 bei 380/400 mit 2.0/2.b hattest. wenn ich die x800xl auf 380/400 laufen lasse komm ich auf 106,5 fps. die 6800er sind also 20% effizienter unter ps 2.0/2.b bei der abarbeitung des tests.
TheGood
2005-05-21, 18:22:46
Die demos sehen schon seid der 9700pro extrem Geil aus aber mit PC Spielen haben sie nicht so viel Gemein siehe auch 3DMark2005
das wird bei deinen next gen konsolen nicht anders sein ;) das was du jetzt gesehen hast von der ps3 davon siehst du nichtmal 10% in den ersten spielen sehen. weil es auch nur Techdemos waren...
ah.. danke. kein unterschied zwischen 2.0 und 2.b. also ich komm mit ner x800xl auf 430/525 auf 127,7 fps bei 1024x768@default. ziemlich exakt der wert, den du mit der 6800@16/6 bei 380/400 mit 2.0/2.b hattest. wenn ich die x800xl auf 380/400 laufen lasse komm ich auf 106,5 fps. die 6800er sind also 20% effizienter unter ps 2.0/2.b bei der abarbeitung des tests.
Nice, denn das will was heißen. Denn die R3x0 galten ja bisher als sehr schnell unter SM2.0. nVidia hat bei 6800er-Serie richtig gute Arbeit geleistet und den auf dem Gebiet sehr lahmarschigen Teil der GeForceFX komplett ungekrempelt. So muss das sein!
MfG,
Raff
Quasar
2005-05-21, 18:39:27
Nice, denn das will was heißen. Denn die R3x0 galten ja bisher als sehr schnell unter SM2.0. nVidia hat bei 6800er-Serie richtig gute Arbeit geleistet und den auf dem Gebiet sehr lahmarschigen Teil der GeForceFX komplett ungekrempelt. So muss das sein!
MfG,
Raff
Komisch nur, daß soo viele sich geweigert haben, das mal zur Kenntnis zu nehmen. :)
Der Fred ist ja immerhin schon ein gutes halbes Jahr alt...
edit:
Allerdings hat sich der Score in diesem Sub-Test zwischen FW61.77 und FW66.93 doch etwas nach oben hin verschoben. Allerdings unabhängig vom Grad und von der Art der Filterung. FP16 scheint hier auch einiges zu bewirken.
Ailuros
2005-05-21, 19:51:21
Nicht immer. Der Pixelshader-Test im 3DMark05 bsw. scheint den nV40-Shadern sehr gut zu liegen (im Gegensatz zum VS-Test...). IIRC kann da sogar eine 6800GT gegen eine X800 XT/PE anstinken.
Ich bezog mich wohl nicht auf synthetische Applikationen.
Quasar
2005-05-21, 20:10:48
Ich bezog mich wohl nicht auf synthetische Applikationen.
Welche anderen Applikationen sind denn noch "Shaderlastig" IYHO?
Ailuros
2005-05-21, 20:34:07
Welche anderen Applikationen sind denn noch "Shaderlastig" IYHO?
SC3 (wo's dann zum SM1.1/SM3.0 Gewarkel wieder kommt), Far Cry, HL2 usw. Natuerlich relativ gemeint, aber auf jeden Fall "shaderlastiger" als UT2004 z.B.
Ein spezialisierter Test wie der PS Test in 3DMark2005 hat einen anderen Wert und Aussage als Spiel X in 1600*1200 mit 4xAA/16xAF...und ja IMHLO(tm). :D
Quasar
2005-05-21, 20:36:09
Ok, ich habe da dann wohl andere Einstufungen, was ich als Shaderlastig bezeichnen würde (wobei ich hier eigentlich Pixelshader meinte...).
Einige Innenbereiche von Far Cry würde ich durchgehen lassen, HL² generell eher nicht. Splinter Cell habe ich leider nicht - mag aber durchaus sein.
Shaderlastiger als UT2004 sind sie aber auf jeden Fall allesamt. ;D
UT2004 hat ja auch nur einen 1.4er Shader fürs Terrain. Sonst ist alles Multipass ;)
SC3 ist schon recht Shaderlastig. Die Parallax Shader sind z.B. nicht so kurz.
Quasar
2005-05-21, 21:23:21
Ja, wobei der SM1.x-Pfad aber vermutlich stärker die Füllrate belastet, während der SM3-Pfad eher "Shaderlastig" sein dürfte.
Von daher auch schlecht vergleichbar zwischen den Architekturen.
Ailuros
2005-05-22, 02:16:39
Ok, ich habe da dann wohl andere Einstufungen, was ich als Shaderlastig bezeichnen würde (wobei ich hier eigentlich Pixelshader meinte...).
Einige Innenbereiche von Far Cry würde ich durchgehen lassen, HL² generell eher nicht. Splinter Cell habe ich leider nicht - mag aber durchaus sein.
Shaderlastiger als UT2004 sind sie aber auf jeden Fall allesamt. ;D
Ich meinte eigentlich nur dass der spezialisierte PS-Test eben nur abgekapselt PS-Leistung misst. Als solcher ist er durchaus nutzvoll um eine Architektur zu analysieren, aber eben nur was ausschliesslich PS-Leistung betrifft.
Ich haette auch nichts dagegen wenn Du mir sagen wuerdest dass FC und HL2 eher CPU-limitiert insgesamt sind; sie sind aber trotz allem das "shaderlastigste" Zeug das wir momentan haben.
Ja, wobei der SM1.x-Pfad aber vermutlich stärker die Füllrate belastet, während der SM3-Pfad eher "Shaderlastig" sein dürfte.
Von daher auch schlecht vergleichbar zwischen den Architekturen.
SM1.1 vs. SM1.1, obwohl es natuerlich paradox ist, da wohl keiner (oder sehr wenige) mit einer NV4x das Spiel mit SM1.1 spielen wird.
Die hoehere Taktrate der R4xx ultra high end Modelle zeigt sich schon oefters ueberhaupt in hohen Aufloesungen mit AA/AF und natuerlich wo immer die Bandbreite am wenigsten begrenzt.
Quasar
2005-05-22, 11:31:52
SM1.1 vs. SM1.1, obwohl es natuerlich paradox ist, da wohl keiner (oder sehr wenige) mit einer NV4x das Spiel mit SM1.1 spielen wird.
Ok, aber da hast du wieder das "Problem", dass 1.x-Shader traditionell eher füllratenlastig sind, weil sie im Verhältnis zu den Texturzugriffen relativ wenig rechnen.
Die hoehere Taktrate der R4xx ultra high end Modelle zeigt sich schon oefters ueberhaupt in hohen Aufloesungen mit AA/AF und natuerlich wo immer die Bandbreite am wenigsten begrenzt.
Natürlich tun sie das - aber eben nicht mehr so stark in, und jetzt formuliere ich mal anders, damit wir uns vielleicht nicht mehr im Kreise drehen, rechenlastigen Situationen, wo ihr Füllratenvorteil von ihrem Rechenratennachteil wieder eingebremst wird.
Genau das Problem habe ich momentan (seit >12 Monaten), wenn es darum geht, "unterirdische Shaderleistung" zu definieren. Denn in den meisten Fällen (der aktuellen Generation) wird da eher Füllrate verglichen - und eben nicht Shaderfüllrate.
Genau das Problem habe ich momentan (seit >12 Monaten), wenn es darum geht, "unterirdische Shaderleistung" zu definieren. Denn in den meisten Fällen (der aktuellen Generation) wird da eher Füllrate verglichen - und eben nicht Shaderfüllrate.Das widerspricht sich aber mit den ganzen GeForce FX Ergebnissen. Weil Füllrate hat das Ding eigentlich genügend.
Exxtreme
2005-05-22, 17:54:43
jopp die neue ruby demo ist sehr geil :D Verstehe ned warum der PC Angst vor den Next Gen Konsolen haben sollte ;)
Ich hatte nie Angst vor den Next-Gen-Konsolen. =) Die angekündigten Zahlen sehen zwar beeindruckend aus, sind in der PRaxis meist nicht haltbar. Und ausserdem wenn so eine Konsole rauskommt, hat der PC die schon meist überholt.
xL|Sonic
2005-05-22, 18:02:09
Auf dem PC Markt ist es aber auch nicht viel anders.
Von den technischen Daten her den Konsolen haushoch überlegen aber nur die wenigsten Spiele können da auch unter Beweis stellen und das oftmals erst Jahre später.
Quasar
2005-05-22, 18:15:30
Das widerspricht sich aber mit den ganzen GeForce FX Ergebnissen. Weil Füllrate hat das Ding eigentlich genügend.
"...der aktuellen Generation..."
SKYNET
2005-05-22, 23:55:05
Ich hatte nie Angst vor den Next-Gen-Konsolen. =) Die angekündigten Zahlen sehen zwar beeindruckend aus, sind in der PRaxis meist nicht haltbar. Und ausserdem wenn so eine Konsole rauskommt, hat der PC die schon meist überholt.
zumal der PC einen riesen vorteil hat... man kann ihn aufrüsten!
Botcruscher
2005-05-23, 00:38:07
zumal der PC einen riesen vorteil hat... man kann ihn aufrüsten!
Was gleichzeitig optiemierungmässig ein rießen Nachteil ist.
Ailuros
2005-05-23, 02:46:56
Was gleichzeitig optiemierungmässig ein rießen Nachteil ist.
Es gibt schon einen relevanten Thread fuer das angebliche Aussterben des PC's uebrigens.
Nichts kommt umsonst. Fuer hoehere Ansprueche gibt es natuerlich auch einen Preis den man bezahlen muss. Wortwoertlich und auch metaphorisch was dann Optimierungen auch u.a. betrifft.
-error-
2005-05-23, 22:53:13
Ich habe eine Bestätigung dafür, dass die R520 über 24 extreme Pipelines verfügen soll, was dann 32 entsprechen wird, aber so neu ist das ja dann auch nicht.
robbitop
2005-05-23, 22:55:28
Ich habe eine Bestätigung dafür, dass die R520 über 24 extreme Pipelines verfügen soll, was dann 32 entsprechen wird, aber so neu ist das ja dann auch nicht.
Aha.. und von wo?
Demirug
2005-05-23, 22:57:40
Aha.. und von wo?
Hat Hellbinder das nicht mal erzählt?
Ronny145
2005-05-23, 23:03:23
Ich habe eine Bestätigung dafür, dass die R520 über 24 extreme Pipelines verfügen soll, was dann 32 entsprechen wird, aber so neu ist das ja dann auch nicht.
Was heißt Bestätigung? Wenn das so sein sollte, da sieht der G70 aber mächtig alt aus. Bleibt nur die Frage wann der R520 erscheint.
r3ptil3
2005-05-23, 23:05:08
Was heißt Bestätigung? Wenn das so sein sollte, da sieht der G70 aber mächtig alt aus. Bleibt nur die Frage wann der R520 erscheint.
Das wäre wirklich super! Dann noch mit etwa 600Mhz Core-Takt gegen G70 mit 24P. mit 430mhz Core-Takt.
Ronny145
2005-05-23, 23:07:14
Das wäre wirklich super! Dann noch mit etwa 600Mhz Core-Takt gegen G70 mit 24P. mit 430mhz Core-Takt.
Den Speichertakt nicht vergessen. Der könnte auch höher ausfallen.
Das wäre nur super wenn sie auch ein 512bit Speicherinterface dazu bauen, was recht unwahrscheinlich ist :rolleyes:
r3ptil3
2005-05-23, 23:08:43
Den Speichertakt nicht vergessen. Der könnte auch höher ausfallen.
Klar ja, wird sicherlich beim R520 bei 700 oder 800mhz liegen.
Quasar
2005-05-23, 23:09:27
Der G70 hat höchstwahrscheinlich ebenfalls 32 Pipelines, wenn auch weniger "extreme". :)
reunion
2005-05-23, 23:09:34
Hat Hellbinder das nicht mal erzählt?
Nicht ganz: :D
http://the-inquirer.com/?article=22202
Ronny145
2005-05-23, 23:10:20
Das wäre nur super wenn sie auch ein 512bit Speicherinterface dazu bauen, was recht unwahrscheinlich ist :rolleyes:
Ein bisschen Mehrleistung sollte das doch trotzdem bringen, oder?
Bei sehr Shaderintensiven Spielen ja. Aber nichts wofür man soviel mehr Silizium verballern würde.
Demirug
2005-05-23, 23:11:39
Nicht ganz: :D
http://the-inquirer.com/?article=22202
Hellbinder war IIRC aber noch früher damit.
dildo4u
2005-05-23, 23:11:42
Das wäre nur super wenn sie auch ein 512bit Speicherinterface dazu bauen, was recht unwahrscheinlich ist :rolleyes:
Ein 6800U SLI setup kommt auch bei sher Grafik intesiven Games auf bis zu 80% Mherleistung mit einem 256Bit interface.
reunion
2005-05-23, 23:11:54
Das wäre nur super wenn sie auch ein 512bit Speicherinterface dazu bauen, was recht unwahrscheinlich ist :rolleyes:
Das würde zumindest die riesige Platine auf der E3 erkären. :D
Ein 6800U SLI steup kommt auch bei sher Grafik intesiven Games auf bis zu 80% Mherleistung mit einem 256Bit interface.Das sind zwei 256bit Interfaces du Witzbold.
Das würde zumindest die riesige Platine auf der E3 erkären.Die Kartenpreise werde ich nicht bezahlen, falls es wirklich so kommt.
dildo4u
2005-05-23, 23:14:53
Das sind zwei 256bit Interfaces du Witzbold.
Sorry ich dachte die müssen sie sich wie den Grafikspeicher Teilen hab ich whol falsch gedacht sorry.
-error-
2005-05-23, 23:16:35
Die Info habe ich von einem, der mit dem Produktmanger Europas von ATI geschrieben hat, ich nehme den das aber ab, da er halt wo arbeitet, wo man an solche Infos kommt, das hat er mir schon bewießen ;)
Die Leistung soll in FarCry 50% höher sein, als die mit einer X800XT PE.
Crytek soll schon über R520-Karten verfügen.
Die Leistung soll in FarCry 50% höher sein, als die mit einer X800XT PE.Das klingt aber verdammt nach 16 Pipelines bei >600Mhz. Alles andere macht eh keinen Sinn bei der Speichersituation. Aber bitte, das ist ja ein Spekulationsforum...
r3ptil3
2005-05-23, 23:18:27
Die Info habe ich von einem, der mit dem Produktmanger Europas von ATI geschrieben hat, ich nehme den das aber ab, da er halt wo arbeitet, wo man an solche Infos kommt, das hat er mir schon bewießen ;)
Die Leistung soll in FarCry 50% höher sein, als die mit einer X800XT PE.
Crytek soll schon über R520-Karten verfügen.
:eek: 50%, ein SLI-Gespann mit 2x 6800 Ultra bringt fast nie 50%+ im Vergleich zu einer 6800 Ultra
mapel110
2005-05-23, 23:19:49
Der G70 hat höchstwahrscheinlich ebenfalls 32 Pipelines, wenn auch weniger "extreme". :)
Und wie zählst du da, dass du auf 32 kommst?
:eek: 50%, ein SLI-Gespann mit 2x 6800 Ultra bringt fast nie 50%+ im Vergleich zu einer 6800 Ultra
wenn AFR-Mode funzt, ist das sogar fast immer der Fall.
Blödsinn. Das kommt nur raus wenn man in 1280x960 mit MSAA bencht. Man muss schon 2058x1536 in 8xS benützen wenn man SLi ausschöpfen will. Die Leistung ist sonst einfach zuviel für die derzeitigen CPUs.
Frag Tombman wenn du es nicht glauben willst, der hat das hier schon mehrfach bestätigt. Vor allem im AFR Modus ist das völlig natürlich, weil die Bild einfach abwechselnd gerendert werden. In einer optimalen Versorgungssituation müsste man da eigentlich 100% Steigerung erreichen.
Ronny145
2005-05-23, 23:20:10
Die Leistung soll in FarCry 50% höher sein, als die mit einer X800XT PE.
Weißt du noch in welchen Settings? 50% scheller als die PE klingen nicht schlecht. Mehr sollte man nicht erwarten. Die Settings wären noch interessant zu wissen.
r3ptil3
2005-05-23, 23:20:33
Und wie zählst du da, dass du auf 32 kommst?
24PP. + 8VS. !?
Demirug
2005-05-23, 23:20:42
Das klingt aber verdammt nach 16 Pipelines bei >600Mhz. Alles andere macht eh keinen Sinn bei der Speichersituation. Aber bitte, das ist ja ein Spekulationsforum...
Oder 24 bei etwa gleichem Takt wie bsiher. ATI scheint aber wohl eher dem alten Intel Pfad zu folgen. Was in iherer Situation auch irgendwo logisch ist.
Weil sie 90nm benützen und somit extrem billige Chips mit 16 Pipelines und hohem Takt bauen können?
reunion
2005-05-23, 23:22:12
Das klingt aber verdammt nach 16 Pipelines bei >600Mhz.
Naja, da FarCry durch SM3.0 gegenüber SM2.b AFAIK keine Performancezuwächse erreicht, müsste R520 bei 16 Pipelines schon mit ca. 800Mhz takten um ~50% schneller zu sein als ein R420.
-error-
2005-05-23, 23:22:58
Das klingt aber verdammt nach 16 Pipelines bei >600Mhz. Alles andere macht eh keinen Sinn bei der Speichersituation. Aber bitte, das ist ja ein Spekulationsforum...
Ich kann dazu nichts sagen, das hat er mir ja geschrieben ;) Übrigends soll die R520 ohne DualSlot Kühlung auskommen.
Naja, da FarCry durch SM3.0 gegenüber SM2.b AFAIK keine Performancezuwächse erreichtTut es definitiv wenn man auf der gleichen Karte vergleicht. Es war nur so das SM 2.0b X800 vs. SM 3.0 6800 sich nicht viel nimmt.
Anders kann ich mir 50% bei der derzeitigen Speicherlage nicht erklären. Selbst wenn ATi 1024 Pipelines verbaut wird ihnen das nichts nützen.
Ich kann dazu nichts sagen, das hat er mir ja geschrieben Übrigends soll die R520 ohne DualSlot Kühlung auskommen.Kann sein. Ist mir aber auch egal. Hauptsache leise.
Demirug
2005-05-23, 23:25:49
Weil sie 90nm benützen und somit extrem billige Chips mit 16 Pipelines und hohem Takt bauen können?
Weil der Entwicklungsaufwand am geringsten ist wenn man bei gleicher Grundarchitektur bleibt. Da das Design mit dem R600 ja dann entgültig in der Tonne landet macht es keinen Sinn da mehr als notwendig zu ändern.
Du meinst wirklich sie haben R420 auf SM 3.0 geprügelt? Das ist ja schon ne Leistung für sich ;D
reunion
2005-05-23, 23:28:01
Tut es definitiv wenn man auf der gleichen Karte vergleicht. Es war nur so das SM 2.0b X800 vs. SM 3.0 6800 sich nicht viel nimmt.
Oh, dann ist meine Aussage natürlich Quatsch.
Und wieviel?
Du must ja auch den Bandbreitenvorteil mit einrechnen nicht nur den erhöhten Coretakt.
Inwiefern?
Es dürfte kaum möglich sein, die Bandbreite bei R520 im gleiche Maß steigern zu können wie die Füllrate, wodurch ich hier höchstens noch ein paar Prozent abziehen müsste.
r3ptil3
2005-05-23, 23:28:37
Du meinst wirklich sie haben R420 auf SM 3.0 geprügelt? Das ist ja schon ne Leistung für sich ;D
Du meinst SM 3.0 auf R420 geprügelt :biggrin:
-error-
2005-05-23, 23:28:39
low-cost (RV515)
-neue architektur
-90 oder 110nm bei TSMC
-4 oder 8 PixelPipelines
-128Bit Speicherinterface
-DX 9.0c, ShaderModel 3.0
-PCI-Express und AGP 8x
-ca. 150 Millionen Transistoren
mainstream (RV530)
-neue architektur
-90 oder 110nm bei TSMC
-16 PixelPipelines
-256Bit Speicherinterface
-DX 9.0c, Shade Model 3.0
-PCI-Express und AGP 8x
-ca. 220 Millionen Transistoren
high-end (R520)
-neue architektur
-90nm bei TSMC
-Chiptakt?
-24 Extreme Pixel Pipelines
-1.25 ns Speicher
-1400 - 1600 MHz Speichertakt
-256Bit Speicherinterface
-DX 9.0c, ShadelModel 3.0
-PCI-Express und AGP 8x
-über 300 Millionen Transistoren
Und wieviel?Maximal 10% würde ich schätzen. Ich denke die 50% Performancevorteil für R520 sind eher der Maximalwert.
Desire, wenn ich das "Extreme Pixelpipelines" schon lese weiß ich dass es mit ziemlicher Wahrscheinlichkeit ein Fake ist.
r3ptil3
2005-05-23, 23:30:04
WOW, Mainstream wird ja richtig sexy!
WOW, Mainstream wird ja richtig sexy!"könnte sexy werden" :rolleyes:
Vor allem 256bit Interface im Mainstream, wie unwahrscheinlich ist das denn bitte... :crazy:
Ihr nehmt solche Sachen viel zu ernst. Man muss sich nur mal dran erinnern was für ein Scheiß bei R420 im Umlauf war.
reunion
2005-05-23, 23:30:43
Desire, wenn ich das "Extreme Pixelpipelines" schon lese weiß ich dass es mit ziemlicher Wahrscheinlichkeit ein Fake ist.
Marketing. :D
Marketing. :Dhttp://the-inquirer.com/?article=22202
Um was wetten wir?
Du meinst SM 3.0 auf R420 geprügelt Das macht keinen Unterschied.
reunion
2005-05-23, 23:33:48
http://the-inquirer.com/?article=22202
Um was wetten wir?
War nur 'n Scherz, ich glaube das ebensowenig wie du.
Quasar
2005-05-23, 23:41:18
Am besten an der INQ-Meldung sind eigentlich die 17mm², die FUDO nur haben soll...
Dafür ist er dann wahrscheinlich 70mm hoch. :eek:
LOL, das ist mir noch gar nicht aufgefallen ;D
Die Info habe ich von einem, der mit dem Produktmanger Europas von ATI geschrieben hat, ich nehme den das aber ab, da er halt wo arbeitet, wo man an solche Infos kommt, das hat er mir schon bewießen ;)
Die Leistung soll in FarCry 50% höher sein, als die mit einer X800XT PE.
Crytek soll schon über R520-Karten verfügen.
das wäre zu schwach,von 9800pro auf x800 waren es 100%
deLuxX`
2005-05-24, 02:09:11
Ja und? Wer sagt, dass bei jeder neuen Generation Grafikkarten die Leistung verdopplet werden muss? :|
Ailuros
2005-05-24, 04:40:06
Die Leistung soll in FarCry 50% höher sein, als die mit einer X800XT PE.
Crytek soll schon über R520-Karten verfügen.
CryTek verfuegt tatsaechlich schon ueber R520 und G70 nach Angaben seit Maerz.
http://www.xbitlabs.com/articles/video/display/2004-27gpu2_9.html
1600*1200/ noAAnoAF
6800Ultra (SM3.0 path) = 76.4 fps @ 400MHz
83.6 fps (X800XT PE) + 50% = 125.4 fps
(Verkorkste Rechnung ich weiss...)
Wenn 76.4 fps mit 6400MPixels/s erreichbar sind, wieviel Fuellrate braeuchte ich fuer 125.4 fps? 10500MPixels/s / 16 = 656MHz.
1600*1200/ 4xAA/16xAF
6800Ultra (SM3.0 path) = 49.3 fps
53.8 fps (X800XT PE) + 50% = 80.7 fps
Diesmal kommt 655MHz raus, was aber keinen Unterschied macht. Vorraussetzung waere dass ein NV40 quad identisch mit einem R520 quad ist und deshalb ist die Rechnung auch wertlos; zum spekulieren hilft es aber.
Uebrigens:
http://www.xbitlabs.com/news/video/display/20050520045707.html
Specifications of ATI’s code-named R520 VPU are unclear at this time. Some sources suggest that the chip may have up to 32 pixel pipelines and up to 350 million transistors, which makes the processor extremely complex. However, given that a new fabrication process is to be used for the manufacturing of R520, it is unlikely that the visual processing unit will be tremendously large in terms of transistor count and complex in terms of the number of pipelines. Fabless semiconductor designers tend to balance complexity of their chips for new fabrication processes. For instance, since 2002, ATI has not launched manufacturing of high-end graphics chips using a new process technology unless the technology was tested on mainstream chips. Still, even on relatively new manufacturing processes, ATI has set pretty high clock-speeds for its VPUs.
Ailuros
2005-05-24, 04:41:41
Ja und? Wer sagt, dass bei jeder neuen Generation Grafikkarten die Leistung verdopplet werden muss? :|
R520/G70 sind ja nicht wirklich eine "neue" Generation.
robbitop
2005-05-24, 10:37:37
In letzter Zeit hauen IHV's eh mit Absicht Fehlinfos heraus, um Verwirrung zu stiften. Dann rechnen sie die Specs schön und nennen jeden Fatz "neue Architektur".
Die Specs klingen bei dem geplanten Release IMO in der Form etw. unwahrscheinlich (oder schöngerechnet).
Winter[Raven]
2005-05-24, 10:38:37
Also, hat R520 24 oder doch nur 16 Pipes?
Mir scheint an den 24 etwas faul zusein...
mapel110
2005-05-24, 10:44:54
In letzter Zeit hauen IHV's eh mit Absicht Fehlinfos heraus, um Verwirrung zu stiften. Dann rechnen sie die Specs schön und nennen jeden Fatz "neue Architektur".
Die Specs klingen bei dem geplanten Release IMO in der Form etw. unwahrscheinlich (oder schöngerechnet).
IMO ist das mehr Selbstdarstellung eines Einzelnen (http://www.heise.de/foren/go.shtml?read=1&msg_id=7874779&forum_id=7269);) als das geplante Machwerk eines Weltkonzerns.
Exxtreme
2005-05-24, 10:48:10
das wäre zu schwach,von 9800pro auf x800 waren es 100%
Naja, ich schätze, daß der R520 eher ein Shadermonster wird und weniger ein Monster bei einfachen DX8/DX9-Spielen wird. :)
seahawk
2005-05-24, 10:49:49
Naja, ich schätze, daß der R520 eher ein Shadermonster wird und weniger ein Monster bei einfachen DX8/DX9-Spielen wird. :)
Das denke ich nicht Tim.
reunion
2005-05-24, 10:51:04
CryTek verfuegt tatsaechlich schon ueber R520 und G70 nach Angaben seit Maerz.
http://www.xbitlabs.com/articles/video/display/2004-27gpu2_9.html
1600*1200/ noAAnoAF
6800Ultra (SM3.0 path) = 76.4 fps @ 400MHz
83.6 fps (X800XT PE) + 50% = 125.4 fps
(Verkorkste Rechnung ich weiss...)
Wenn 76.4 fps mit 6400MPixels/s erreichbar sind, wieviel Fuellrate braeuchte ich fuer 125.4 fps? 10500MPixels/s / 16 = 656MHz.
1600*1200/ 4xAA/16xAF
6800Ultra (SM3.0 path) = 49.3 fps
53.8 fps (X800XT PE) + 50% = 80.7 fps
Diesmal kommt 655MHz raus, was aber keinen Unterschied macht. Vorraussetzung waere dass ein NV40 quad identisch mit einem R520 quad ist und deshalb ist die Rechnung auch wertlos; zum spekulieren hilft es aber.
Das Problem bei deiner Rechnung ist erstens, dass Leistung nie linear mit dem Takt steigt, d.h. 50% mehr Takt bedeuten noch lange nicht 50% mehr fps, und zweitens, dass man wohl kaum die Speicherbandbreite im gleichen Maß wird steigern können.
Ronny145
2005-05-24, 10:52:22
IMO ist das mehr Selbstdarstellung eines Einzelnen (http://www.heise.de/foren/go.shtml?read=1&msg_id=7874779&forum_id=7269);) als das geplante Machwerk eines Weltkonzerns.
Ist das sicher mit dem Software emulierten Shader Modell 3.0?
Exxtreme
2005-05-24, 10:52:32
Das denke ich nicht Tim.
Warum nicht?
Demirug
2005-05-24, 10:57:47
Warum nicht?
Weil es IMHO sehr unwahrscheinlich ist das ATI die R420 Pipeline massive verändert hat. Die brachiale Rechenleistung wird wohl erst mit dem R600 kommen.
wuzetti
2005-05-24, 10:59:33
Weil es IMHO sehr unwahrscheinlich ist das ATI die R420 Pipeline massive verändert hat. Die brachiale Rechenleistung wird wohl erst mit dem R600 kommen.
du glaubst also nicht, dass es bei R520 mehr ALU's pro pipe geben wird?
robbitop
2005-05-24, 11:01:59
Man hat mit R400->R500->R600 eine recht neue Generation entwickelt. Nebenher bohrte man R3xx (eigentlich genaugenommen ja R2xx) immer wieder auf. Und man dementierte ja bereits, dass R500 etw mit R520 zu tun habe. Woher also noch eine dritte Designreihe nehmen? So viel R&D hat ATI nicht.
Ergo ist es wahrscheinlich, dass man R420 nochmals aufbohren musste. Was aber sicher nicht all zu einfach war.
Exxtreme
2005-05-24, 11:06:21
Weil es IMHO sehr unwahrscheinlich ist das ATI die R420 Pipeline massive verändert hat. Die brachiale Rechenleistung wird wohl erst mit dem R600 kommen.
Hmmm, ATi hatte aber seit dem R300 genug Zeit um das zu tun. Der R420 ist nur ein aufgebohrter R300. Da musste man wahrscheinlich nicht viel KnowHow zusätzlich reinstecken.
robbitop
2005-05-24, 11:09:22
Hmmm, ATi hatte aber seit dem R300 genug Zeit um das zu tun. Der R420 ist nur ein aufgebohrter R300. Da musste man wahrscheinlich nicht viel KnowHow zusätzlich reinstecken.
Aha und was ist mit R400 und R500? Die Entwicklung beider Chips hat sicher enorm Zeit und Geld verschlungen. R420 wurde auch nicht aus dem Hut gezaubert. RV410 ebenso. IMO wird hier viel unterschätzt.
NV geht es doch genauso. 2002 hat man CineFX vorgestellt und seit dem bis heute immer weiterentwickelt. Nebenher noch das WGF2 Design. Mehr als 2 Designentwicklungen sind einfach nicht drin.
seahawk
2005-05-24, 11:10:48
Warum nicht?
Weil sich ATI (nach allen mir bekannten Infos) einen gro0en Wechsel in der Struktur ihrer Chips für den WGF 2.0 Chip aufhebt.
R520 dürfte ein enger Verwandte des R420 werden.
wuzetti
2005-05-24, 11:12:53
Hmmm, ATi hatte aber seit dem R300 genug Zeit um das zu tun. Der R420 ist nur ein aufgebohrter R300. Da musste man wahrscheinlich nicht viel KnowHow zusätzlich reinstecken.
naja, da gibt es das R500 und das Crossfire bzw. MVPU projekt, die IMHO sicherlich viel manpower verschlungen haben bzw. das immer noch tun. und dann muss ja auch schon R600 seit einiger zeit in entwicklung sein, oder bin ich da auf dem holzweg?
von da her wird man sich IMO nicht zu viel änderungen im R520 erwarten können. aber ob hohe taktfrequenz alleine ausreichend sein wird, wage ich zu bezweifeln.
Exxtreme
2005-05-24, 11:25:32
Aha und was ist mit R400 und R500? Die Entwicklung beider Chips hat sicher enorm Zeit und Geld verschlungen. R420 wurde auch nicht aus dem Hut gezaubert. RV410 ebenso. IMO wird hier viel unterschätzt.
NV geht es doch genauso. 2002 hat man CineFX vorgestellt und seit dem bis heute immer weiterentwickelt. Nebenher noch das WGF2 Design. Mehr als 2 Designentwicklungen sind einfach nicht drin.
Dafür hat man das Knowhow des R500, welches man sicherlich beim R520 nutzen könnte. Klar kann mann's nicht direkt 1 zu 1 übernehmen. Naja, wie gut der R520 sein wird, das wird die Zukunft zeigen. Und es wäre komisch wenn ATi es nicht schaffen würde die Performance in vielen Bereichen zu verdoppeln.
robbitop
2005-05-24, 11:36:17
Dafür hat man das Knowhow des R500, welches man sicherlich beim R520 nutzen könnte. Klar kann mann's nicht direkt 1 zu 1 übernehmen. Naja, wie gut der R520 sein wird, das wird die Zukunft zeigen. Und es wäre komisch wenn ATi es nicht schaffen würde die Performance in vielen Bereichen zu verdoppeln.
Das sind 2 verdammt verschiedene Designs. Ich glaube nicht, dass man viel benutzen können wird. Verdoppeln wäre dank 90nm gar kein Problem, jedoch müßte man ein 512 Bit DDR Interface einbauen und 6-8 SM3 Quads.
G70/R520 werden eher Performancerefreshes (wobei ATI nun auch SM3 umzusetzen scheint). Eine richtige Verdopplung gibt es nicht jedes Jahr.
Ist das sicher mit dem Software emulierten Shader Modell 3.0?Nein, das ist garantiert Blödsinn.
Weil sich ATI (nach allen mir bekannten Infos) einen gro0en Wechsel in der Struktur ihrer Chips für den WGF 2.0 Chip aufhebt.
R520 dürfte ein enger Verwandte des R420 werden.
warum sollte es auch "revolutionen" geben die chips sind doch immer nur noch dx 9.x
Da es noch nicht gepostet wurde, werde ich es tun.
Im Teletext des ORF steht auf der Seite 461, dass Sapphire die neuen Grafikkarten von ATI(Blizzardserie) mit Metall kühlen wird.
http://teletext.orf.at/
pF3NG
2005-05-24, 15:05:01
Der G70 hat höchstwahrscheinlich ebenfalls 32 Pipelines, wenn auch weniger "extreme". :)
sry für dumme Frage aber hab nich ganz mitgekrisgt was "extreme" Pipelines sind :confused:
pF3NG
2005-05-24, 15:20:24
R520/G70 sind ja nicht wirklich eine "neue" Generation.
Dann war R420 auch keine wirklich "neue" Architktur...
R420 ist noch viel weniger eine neue Architektur gewesen als R520 vermutlich sein wird. Da wurde ja wirklich nur minimalst was verändert vom R300 aus.
r3ptil3
2005-05-24, 15:33:37
Da es noch nicht gepostet wurde, werde ich es tun.
Im Teletext des ORF steht auf der Seite 461, dass Sapphire die neuen Grafikkarten von ATI(Blizzardserie) mit Metall kühlen wird.
http://teletext.orf.at/
Gerade auch gelesen. Finde ich super!!
Und die Karten sollen nicht vor August verfügbar sein.
Was soll das heißen "mit Metall kühlen"? Also ich hab keine Kühler im PC die nicht aus Metall sind :rolleyes:
Was soll das heißen "mit Metall kühlen"? Also ich hab keine Kühler im PC die nicht aus Metall sind :rolleyes:
metallische flüssigkeit :O
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.