PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 6


Seiten : [1] 2 3 4 5

reunion
2007-03-14, 18:58:19
RV630 wäre 1/3 R600, 128Bit, Ringbus, hoch getaktet.

Wenn RV630 nur 1/3 des R600 wäre, hätte er in 65nm (wenn ich jetzt mal von perfekter Skalierung ausgehe, real dürfte es natürlich mehr sein) eine Die-Fläche von unter 100mm² - kaum vorstellbar.

btw.
Die 8600GTS soll einen durchschnittlichen Verbrauch von 71W haben. ;)


Durchschnittlichen Verbrauch vs. TDP. Alles, was ich momentan sehe, ist, dass beide nur beim kleinen Modell auf den ext. Stromanschluss verzichten können. Also dürfte es beim Stromverbrauch keine riesigen Unterschiede geben.

War es nicht so, dass Nvidia zumindest bei der GF7 die Transistoren auch dichter packen konnte als ATI bei R5x0?

Das scheint es bei dieser Generation in der Form offenbar nicht mehr zu geben. Sonst würde R600 bei >=700mio Transistoren nicht auf ~420mm² Die-Fläche kommen.

----------------------------------------------------------
DK777:
Da es nicht viel Neues gab, gibt's nur eine Zusammenfassung:
Wie es aussieht, kommt der R600 mit 64 Shader-Einheiten (5D: Vec4+1), mit 32 oder 16 TMUs (Xbit (http://www.xbitlabs.com/news/video/display/20060525104243.html)), auf der CeBIT werden einige Hersteller hinter verschlossenen Türen die neue Generation zeigen.
Zu RV630/RV610 gibt es hier eine schöne Zusammenfassung: http://www.dailytech.com/article.aspx?newsid=6451
Wobei man anmerken muss, dass die Watt-Angaben TDP sind und nicht maximaler Stromverbrauch der Grafikkarte an sich.

AMD möchte die gesamte Familie aufeinmal samt Hard-Launch vorstellen.
Teil fünf: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350593
Letztes Posting: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5326504#post5326504

AnarchX
2007-03-14, 19:36:46
Wenn RV630 wirklich genau so groß wie G84 ist, dann bedeutet das, dass diese deutlich mehr Transistoren wie G84 haben wird, also im Vergleich zum Highend-Chip weniger stark abgespeckt wurde.

Stellt sich die Frage an welchen Stellen man abgespeckt hat und welchen Einfluss dies auf die Leistung haben könnte. ;)
Zudem kann man zwischen 80nm und 65nm nicht so einfach rechnen, da es ja kein optischer Shrink ist.

reunion
2007-03-14, 19:49:49
Zudem kann man zwischen 80nm und 65nm nicht so einfach rechnen, da es ja kein optischer Shrink ist.

Was verstehst du unter einem "optischen Shrink"? Die Strukturbreite sinkt auf 65nm, und damit hat ein Transistor theoretisch nur mehr ~66% der Fläche eines Transistors in 80nm. Dass es in der Praxis immer ein bisschen mehr ist, ist klar.

puntarenas
2007-03-14, 19:57:03
Ich hatte noch immer die Hoffnung, dass die Spekulationen nicht bestätigt würden und sich der Stromverbrauch entgegen aller Annahmen doch in erträglichen Regionen bewegt, aber dieses Kühlermonster (http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/maerz/arctic_cooling_r600_g80-kuehlung/) macht mich depressiv :(

Wo ist denn der Thread zum R700 ;)

Gast
2007-03-14, 19:59:38
Wobei ich da keinen Zusammenhang zum Stromverbrauch erkennen kann...

Würde ich eine Kühlung bauen müssen, so wäre sie groß, weil sie so effektiver sein kann.

Denn warum kleine Heatpipes oder Lüfter verwenden, wenn größere die Wärme besser verteilen und größere Lüfter langsamer drehen dürfen und leiser sind?

Erstmal abwarten!

AnarchX
2007-03-14, 20:04:01
Was verstehst du unter einem "optischen Shrink"?
Das man den Floorplan einfach übernehmen kann, wie es beim Shrink von 90 auf 80nm ist.


Die Strukturbreite sinkt auf 65nm, und damit hat ein Transistor theoretisch nur mehr ~66% der Fläche eines Transistors in 80nm. Dass es in der Praxis immer ein bisschen mehr ist, ist klar.
Da es nunmal kein optischer Shrink ist, kann man eben nicht wirklich abschätzen wie groß nun der R600 in 65nm wäre und wieviel Transistoren nun der RV630 hat.
(Wobei ich auch auf eine höhere Zahl als beim G84 schätzen würde.)
Aber so einfach lassen sich aktuell eben solche Aussagen noch nicht machen


Wenn man Ailuros Andeutung aufgreift und die von CJ aus dem B3D, das der RV630 eher Lower-Mainstream(Midrange) und er möglichweiser mit X2400 bezeichnet werden könnte und der Einschätzung etwas über X1900GT, würde mich momentan beim RV630 von 4ROPs/8TMUs/32ALUs bei recht hohem Takt ausgehen.
Als Zusatzkarte für Crossfire Physics wäre sie auf Grund der hohen arithmetischen Leistung ja recht brauchbar.

reunion
2007-03-14, 20:15:06
Da es nunmal kein optischer Shrink ist, kann man eben nicht wirklich abschätzen wie groß nun der R600 in 65nm wäre und wieviel Transistoren nun der RV630 hat.
(Wobei ich auch auf eine höhere Zahl als beim G84 schätzen würde.)
Aber so einfach lassen sich aktuell eben solche Aussagen noch nicht machen

Durch die Strukturbreite wird genau definiert, wie groß ein Transistor ist, ich verstehe deshalb nicht, warum es sich hier anders verhalten soll, nur weil man nicht mehr die gleichen Libraries wie bei 80/90nm nehmen kann. Natürlich ist das immer nur eine Überschlagsrechnung, da viele Faktoren nicht berücksichtigt werden, aber das gilt genauso beim Shrink von 90nm zu 80nm.

Wenn man Ailuros Andeutung aufgreift und die von CJ aus dem B3D, das der RV630 eher Lower-Mainstream(Midrange) und er möglichweiser mit X2400 bezeichnet werden könnte und der Einschätzung etwas über X1900GT, würde mich momentan beim RV630 von 4ROPs/8TMUs/32ALUs bei recht hohem Takt ausgehen.
Als Zusatzkarte für Crossfire Physics wäre sie auf Grund der hohen arithmetischen Leistung ja recht brauchbar.

Auch R600 wird je nach zählweise höchstwahrscheinlich nur 16 TMUs und 64 ALUs haben, das wäre also bis auf das SI ein halber R600.

AnarchX
2007-03-14, 20:30:50
Auch R600 wird je nach zählweise höchstwahrscheinlich nur 16 TMUs und 64 ALUs haben, das wäre also bis auf das SI ein halber R600.

Na sagen wir dann eben ein 1/4er R600 bis auf die ALUs.
Aber 16 TMUs selbst wenn es Extreme-TMUs sind, könnten etwas wenig sein gegen die 32 Doppel-TMUs des G80, auch wenn sie auf 800MHz+ takten.
Ich glaube eher an 32 TMUs.

Gast
2007-03-14, 20:41:22
Na sagen wir dann eben ein 1/4er R600 bis auf die ALUs.
Aber 16 TMUs selbst wenn es Extreme-TMUs sind, könnten etwas wenig sein gegen die 32 Doppel-TMUs des G80, auch wenn sie auf 800MHz+ takten.
Ich glaube eher an 32 TMUs.

Es werden auf jedenfall mehr als 16 TMU sein. Wenn AMD das Xenos Konzept aufgreift, dann können sie TMU - Arrays und ALU - Arrays jeweils unabhängig hinzufügen.
Mit 16 TMUs können sie sich die Karte gleich sparen.

reunion
2007-03-14, 21:17:06
IMHO wird ATi auch "Doppel-TMUs" verbauen, nur eben nur halb so viel wie nV. Mir >800Mhz wäre das gar nicht mehr so wenig.

Na sagen wir dann eben ein 1/4er R600 bis auf die ALUs.


Das wäre faktisch ein zweiter RV530. Daran glaube ich nicht, da dieser nur aus der ALU-Erhöhung des R580 und der relativ großen Die-Size entstanden ist, welche ein zweites Quad verhinderte. IMHO wird sich das ALU/TMU-Verhältnis zwischen R600/RV630 und RV610 nicht, oder nur geringfügig ändern. Eine so krasse Änderung halte ich für ausgeschlossen.

LovesuckZ
2007-03-14, 21:38:50
IMHO wird ATi auch "Doppel-TMUs" verbauen, nur eben nur halb so viel wie nV. Mir >800Mhz wäre das gar nicht mehr so wenig.

Weißt du es oder glaubst du nur daran, weil es nVidia gemacht hat?
nVidia ging einige andere Wege beim G80. Und plötzlich soll ATi ebenfalls so handeln? :rolleyes:
Ich glaube eher an ein Design mit mehr als 16 TMUs, jedoch keine "Doppel-TMUs". Dazu die physikalische Trennung von TMU - Arrays und ALU - Arrays. Ich schätze, es werden 6 oder 8 TMUs - Quads und 4 SIMD - Arrays mit je 16 Recheinheiten sein.

reunion
2007-03-14, 21:47:35
Weißt du es oder glaubst du nur daran, weil es nVidia gemacht hat?


Ich glaube es zu wissen.


nVidia ging einige andere Wege beim G80. Und plötzlich soll ATi ebenfalls so handeln? :rolleyes:

Das wäre nicht das erste mal, dass beide Hersteller mit der selben Generation dieselben Neuerungen einführen. Aber das ist nicht meine Intention dahinter.


Ich glaube eher an ein Design mit mehr als 16 TMUs, jedoch keine "Doppel-TMUs". Dazu die physikalische Trennung von TMU - Arrays und ALU - Arrays. Ich schätze, es werden 6 oder 8 TMUs - Quads und 4 SIMD - Arrays mit je 16 Recheinheiten sein.

Theoretisch natürlich ebenfalls möglich.

LovesuckZ
2007-03-14, 22:52:43
Ich glaube es zu wissen.

Und woher?


Das wäre nicht das erste mal, dass beide Hersteller mit der selben Generation dieselben Neuerungen einführen. Aber das ist nicht meine Intention dahinter.

In welcher Generation ist dies aufgetreten?
Das ganze mit "Skalare" und "DoppelTMUs" werden doch nur gedacht, weil es nVidia getan hat.
Wieso sollte ATi, welche mit Xenos schon ein Design mit USA und "normalen" TMUs entwickelt hat, plötzlich Wege einschlagen, welche vom Konkurrenzprodukt kommen?

horn 12
2007-03-14, 23:04:59
http://www.k-hardware.de/news.php?s=c&news_id=6364



.... Zitat von HIS:
Leider dürfen wir diese außergewöhnlich leistungsstarken Grafikkarten noch nicht frei in der Öffentlichkeit zeigen.

Jepp, dies lässt uns dennoch hoffen, und ich denke manch einer wird für viel viel Geld einige Infos irgendwie durchsickern lassen.
Dies wird dem einem oder anderem wohl Wert sein, auch wenn es nur die tech. Daten des R600, Jedoch OHNE Benchmarks sind!
Idela wäre auch mal die Lüfterlautstärke und der Stromverbrauch.
Hoffe morgen abend lässt sich ein vorerst gültiges Bild des R600 schaffen....
Nakai, hoffst wohl auch darauf, wie viele andere

StefanV
2007-03-14, 23:25:43
Die 'kleinen deutschen Seiten' brauchst idR nicht zu verlinken, da es, bevors dadrauf zu lesen ist, in solchen Threads wie diesen schon mehrmals zu lesen ist ;)

Zum Thema TMUs:
Hm, abwarten udn Tee rauchen, obs Tri TMUs sind oder was auch immer...

Gast
2007-03-15, 12:12:39
siehe auch:
http://www.golem.de/0703/51101.html

Rick

seahawk
2007-03-15, 12:15:40
Also diese Rumgeier versteht doch keiner mehr. Als ob NV jetzt den R600 nicht kennen würde.

Gmax
2007-03-15, 12:24:14
Ich verstehe dieses Geheimhaltungstheater einfach nicht.
Wenn ATI die Karte im Mai verkaufen will, dann können sie sie auch (endlich) zeigen.
Verständlicher ist hingegen das Ganze, wenn eine nochmalige Verspätung vorliegt. Juni? :|

Gast
2007-03-15, 12:24:34
Also wenn die Hersteller es gerne ausgestellt hätten spricht das für wirklich was ganz ganz gutes.

Ich hoffe die GTX wird nicht zu MidRange degradiert wenn r600 erscheint.

deekey777
2007-03-15, 12:32:37
Eher passiert, dass ein R600 zur GT/GTO degradiert wird, um auf dem Midrange-Sektor mitzhalten.
Fies: Wenn die RV630XT schneller als die X1900GT ist und die 8600GTS schneller als die 7950GT in 3D 2006, welche von den beiden Grafikkarten ist schneller?:biggrin:

Gast
2007-03-15, 12:36:48
Dann nehmen sie sich nicht viel. :tongue:

Erstmal abwarten. Die ganzen Spekulationen nützten niemanden was. Es gab schon bei der letzten Architektur deutliche Unterschiede, nämlich das ATI mit steigender Auflösung und Qualität zulegen konnte, während nV bei Standardsettings und ohne AA gut war...

Sollte es auch wieder dazu kommen, wäre es ohne Testen der Settings unmöglich ein Fazit zu ziehen.

paul.muad.dib
2007-03-15, 12:40:24
R600 ähnelt vom Aussehen X1950 XTX und hat keine Überlänge. Bilder der Tech Demo: http://www.pcgameshardware.de/?article_id=571567

Gast
2007-03-15, 12:55:14
Sieht auf jeden Fall bunter aus wie die bideren Cascades DX10 demo von Nvidia.

James Ryan
2007-03-15, 13:04:49
Respekt an ATi, es gibt 26 unscharfe und nix aussagende Bilder einer Techdemo! :up:
Absolut geniales Marketing, da muss sich NVIDIA einiges von abgucken. :weg:

MfG :cool:

Gast
2007-03-15, 13:06:29
Respekt an ATi, es gibt 26 unscharfe und nix aussagende Bilder einer Techdemo! :up:
Absolut geniales Marketing, da muss sich NVIDIA einiges von abgucken. :weg:

MfG :cool:

Das sieht mit Bewegungsunschärfe von vornherein besser aus wie die ganzen DX10 NV Demos in 1600x1200.

puntarenas
2007-03-15, 13:06:49
R600 ähnelt vom Aussehen X1950 XTX und hat keine Überlänge. Bilder der Tech Demo: http://www.pcgameshardware.de/?article_id=571567
Oh weh, schon wieder schlechte Vorzeichen: Ruby sieht jetzt aus wie Prinzessin Diana. Blos gut, dass ATI nicht auch Spiele im Angebot hat.
Ansonsten lässt sich ja leider eher wenig sagen, in Bewegung wäre das schon aussagekräftiger...

Gast
2007-03-15, 13:08:13
was haben die bilder von der presse mit ati marketing zu tun. jungchen es nervt

puntarenas
2007-03-15, 13:10:28
was haben die bilder von der presse mit ati marketing zu tun. jungchen es nervt
Einfach alles?!

AnarchX
2007-03-15, 13:17:48
Auch lustig:
Auf der Jagd nach dem R600 (http://www.pcgameshardware.de/?article_id=571523)

Schade das in den Kartons kein R600-Sample herumlag, welches Carsten vielleicht unaufällig mal mitgehen lassen hätte können. ;)

paul.muad.dib
2007-03-15, 13:17:50
Respekt an ATi, es gibt 26 unscharfe und nix aussagende Bilder einer Techdemo! :up:
Absolut geniales Marketing, da muss sich NVIDIA einiges von abgucken. :weg:

MfG :cool:

Die Techdemo scheint wieder ziemlich gut zu sein. Seit Ruby macht ATI die besseren Tech-Demos. Außer Naulu, die war auch gut.

Die Fotos sind wohl eher inoffiziel und wahrscheinlich schon grenzwertig für das NDA. Ich finde es lächerlich, jetzt darauf herumzuhacken, dass sie unscharf sind.
Hallo, R600 ist nocht nicht vorgestellt! Gab es von Nvidia irgendwelches Marketingmaterial vor der offiziellen Vorstellung des G80? Eben.

Dass der R600 später kommt ist ein anderes Thema und hat wenig mit der Qualität der Marketing-Abteilung zu tun.



Eines verstehe ich nur bei der Geschichte nicht. Die Presse darf nun die Karten sehen, darf die Tech-Demo sehen und darüber berichten. Diese Artikel werden natürlich von der Öffentlichkeit nicht gelesen, daher dürfen sie die Karten auch nicht sehen.

James Ryan
2007-03-15, 13:23:28
Seit Ruby macht ATI die besseren Tech-Demos. Außer Naulu, die war auch gut.


Definiere "bessere Techdemos"?! IMO ist Ruby ziemlich hässlich, könnte daran liegen dass ich keine rothaarigen Frauen mag.
Oder meinst du die Technik? Da könntest du Recht haben, wobei "besser" auch sehr schwer zu belegen ist und alles sehr subjektiv ist.
Die Toyshop-Demo des R520 fand ich schon sehr beeindruckend und es war für mich persönlich bisher die schönste Techdemo.

@AnarchX
Sehr schöner Link! Interessant ist dass Gigabyte auf ihrem P35-Board ein R600 Sample laufen lassen wird und das dieses Sample auf GDDR4 setzt.

MfG :cool:

EDIT:
Eines verstehe ich nur bei der Geschichte nicht. Die Presse darf nun die Karten sehen, darf die Tech-Demo sehen und darüber berichten. Diese Artikel werden natürlich von der Öffentlichkeit nicht gelesen, daher dürfen sie die Karten auch nicht sehen.

Siehst du, genau das meine ich! Anstatt dem Publikum welches auch am R600 interessiert ist die Karte einfach mal zu zeigen werden solche dämlichen Aktionen gemacht. Da kann man nur mit dem Kopf schütteln und fragen "Was soll das ATi?"

Superheld
2007-03-15, 13:24:54
ist dann bestimmt Directx10 oder ?

Gast
2007-03-15, 13:27:51
Also ich weis nicht.. die alte Ruby hat mir besser gefallen. Bei der neuen sieht das Gesicht irgendwie extrem lang gezogen aus :(

seahawk
2007-03-15, 14:08:48
Also wenn die Hersteller es gerne ausgestellt hätten spricht das für wirklich was ganz ganz gutes.

Ich hoffe die GTX wird nicht zu MidRange degradiert wenn r600 erscheint.

Nein, wenn Du nur ATI verkaufst (Sapphire und auch HIS und GeCube überwiegend), dann willst Du einen Konkurrenten zur G80, egal ob der schneller, gleich schneller oder langsamer ist. ATI Partner haben momentan keine DX10 Karte für den Retailmarkt im Angebot.

up¦²
2007-03-15, 14:34:06
R600 sorgt für Unmut (http://www.k-hardware.de/news.php?s=K318002b636e5a8c7e84869802fb04d41&news_id=6395)

... :rolleyes:

Gast
2007-03-15, 14:38:10
R600 sorgt für Unmut (http://www.k-hardware.de/news.php?s=K318002b636e5a8c7e84869802fb04d41&news_id=6395)

... :rolleyes:
Der Link hat es aber in sich:

- innerhalb der nächsten 16 Tage einen AMD/ATI Tech-Day
- Präsentation des Chips innerhalb der nächsten 6 Wochen
- von Anfang an in 65nm

Thomas Anderson
2007-03-15, 14:40:40
R600 != 65nm!!! Erst in 80 und dann als Refresh in 65 ..!

Gast
2007-03-15, 14:44:27
Nein. Die Ausbeute ist zu schlecht in 80nm Prozess deshalb gleich 65nm.

Das ist krass wenn der in 65nm hergestellt wird. Ich meine damit leistungstechnisch "krass" :)

Gast
2007-03-15, 14:44:48
Gingen wir bisher davon aus, dass der R600 in 80 nm kommen würde, wurden wir in der exklusiven Runde eines besseren belehrt. Wie es scheint, will AMD den Chip von Anfang an in 65 nm bringen. Grund hierfür seien Probleme bzw. die schlechte Ausbeute des 80 nm Prozesses, der wohl nicht unerhebliche Schwierigkeiten mit Leckströmen haben soll. Gefertigt wird der R600 übrigens weiterhin bei TSMC.
Aus dem Link "R600 sorgt für Unmut"...

Gast
2007-03-15, 14:52:22
Ohje... ich hoffe bloß, das die ihren Plan geändert haen und von 80 auf 65nm umgesattelt sind und nicht von Anfang an auf 65nm gesetzt haben.

Denn dann wäre der Stromverbrauch ziemlich krass, denn ich sehe kurzfristig keine Ablösung. :)

Mr Power
2007-03-15, 14:53:02
Bilder und Infos zu RV630:

http://www.pcgameshardware.de/?article_id=571589

Edit: RV610 is auch dabei.

Spasstiger
2007-03-15, 14:53:18
Wenn die Leckströme in 80 nm zu groß sind, dann wird wohl tatsächlich der hohe Stromverbrauch letztendlich für die Verschiebung gesorgt haben.
Hoffen wir mal, dass der R600 in 65 nm nicht mehr schluckt als der G80 und dennoch mindestens genausoviel 3D-Leistung zusammenbringt.

paul.muad.dib
2007-03-15, 14:54:59
Definiere "bessere Techdemos"?! IMO ist Ruby ziemlich hässlich, könnte daran liegen dass ich keine rothaarigen Frauen mag.
Oder meinst du die Technik? Da könntest du Recht haben, wobei "besser" auch sehr schwer zu belegen ist und alles sehr subjektiv ist.
Die Toyshop-Demo des R520 fand ich schon sehr beeindruckend und es war für mich persönlich bisher die schönste Techdemo.


Ok, ist natürlich subjektiv. Aber ich fand die Ati Demos mit Ruby halt interessanter anzusehen, weil sie eine Geschichte erzählt haben und das immer mit jeweils imposanter Grafik. Man kann sich irgendwie besser vorstellen, dass Spiele so aussehen.

Bei NVidia geht es ja eher darum, dass einzelne Effekte demonstriert werden und der Versuch, eine Geschichte zu erzählen ("Mad Modd Mike") wurde zu einem ziemlich lächerlichen Werbefilm.

Technisch geben sich die Demos wahrscheinlich nicht viel, aber bei Ati wirkt es natürlicher.

Alte NV Demos wie "werevolf", "toy soldier" waren imo besser.

Coda
2007-03-15, 15:03:18
65nm ist eine neue Node im Herstellungsprozess. Das heißt andere Tools, andere Libraries etc.

Entweder ATI hat von vornherein 65nm im Auge gehabt oder nicht in diesem Fall. Kurzfristig umsteigen is nicht. Das geht maximal von 90 auf 80 nm.

Gast
2007-03-15, 15:04:22
Naja, von kurzfristig kann ja auch irgendwie nicht die Rede sein. Der R600 scheint sein eigener Refresh zu werden und das ist vermutlich auch gut so.

Coda
2007-03-15, 15:05:51
Das wäre natürlich eine Möglichkeit. Dann wären sie mit diesem im Zeitplan aber ziemlich früh dran.

Spasstiger
2007-03-15, 15:10:44
Das wäre natürlich eine Möglichkeit. Dann wären sie mit diesem im Zeitplan aber ziemlich früh dran.
Mit dem R600 in der ursprünglichen Version wären sie aber ein halbes Jahr zu spät. Vielleicht haben sie frühzeitig gemerkt, dass das Biest in 80 nm nicht vernünftig mit Luftkühlung zu bändigen ist und haben sich dann umso stärker auf die 65-nm-Version konzentriert.

Nakai
2007-03-15, 15:10:48
Vll hat sich der Zeitplan nicht geändert. Siehe den R580 als R520-Refresh.

mfg Nakai

Mr. Lolman
2007-03-15, 15:26:07
Hat jemand die Screenshots gespeichert? Auf PCGH gibts die nichtmehr...

up¦²
2007-03-15, 15:29:06
Hat jemand die Screenshots gespeichert? Auf PCGH gibts die nichtmehr...
Die werden sich gewundert haben über den traffic... :biggrin:
Aber: Bitte an alle!
Sowieso ratsam sowas gleich zu kopieren...

w0mbat
2007-03-15, 15:30:43
http://img149.imageshack.us/img149/3951/imgp5505yf4.jpg

James Ryan
2007-03-15, 15:33:20
Ok, wenn der "R600" (wohl eher R650) in 65nm kommt, muss er aber verdammt einschlagen, weil danach hat ATi kaum noch Konterchancen.
Wird der 65nm R600 nur ca ~15% schneller sein als eine Gf 8800 GTX, ist es ein leichtes für NVIDIA mit einer 90nm Gf 8800 Ultra schneller zu sein.
Warten wir es ab, interessant wird es allemal!

MfG :cool:

crux2005
2007-03-15, 15:39:04
Hat jemand die Screenshots gespeichert? Auf PCGH gibts die nichtmehr...

ja:

http://img6.picsplace.to/img6/27/thumbs/Imgp5304.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5304.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5492.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5492.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5493.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5493.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5494.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5494.jpg)

http://img6.picsplace.to/img6/27/thumbs/Imgp5496.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5496.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5497.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5497.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5498.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5498.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5499.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5499.jpg)

crux2005
2007-03-15, 15:39:41
und:

http://img6.picsplace.to/img6/27/thumbs/Imgp5509.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5509.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5510.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5510.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5511.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5511.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5512.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5512.jpg)

http://img6.picsplace.to/img6/27/thumbs/Imgp5513.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5513.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5514.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5514.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5515.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5515.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5516.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5516.jpg)

Spasstiger
2007-03-15, 15:40:09
Was verbirgt sich eigentlich hinter dem Funktionsblock, den ich auf dem folgenden Bild umrahmt habe?

http://img127.imageshack.us/img127/4706/imgp55411ny1mk0.jpg

crux2005
2007-03-15, 15:40:10
die letzten:


http://img6.picsplace.to/img6/27/thumbs/Imgp5518.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5518.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5519.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5519.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5520.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5520.jpg) http://img6.picsplace.to/img6/27/thumbs/Imgp5521.jpg (http://img6.picsplace.to/img.php?file=img6/27/Imgp5521.jpg)

Toppas:-)
2007-03-15, 15:44:04
Ich glaube es gab einige Gründe für die Verschiebung:
1. Massiver Stromverbrauch der 80nm-Version, es ist davon auszugehen das sie auf die Architektur des Refresh-Chips gesetzt haben dann.
2. die 80nm inkl. Stromverbrauch passte nicht in die Cool&Quiet - Strategie von AMD (stromsparende CPUs aber eine Graka mit >200Watt = ????)
3. der Refresh vom Refresh wird evtl auch stromspartechniken enthalten,
die aus Erfahrungen von AMD stammen
4. Amd schluck die bittere Pille von der Verspätetenden Ankündigung um auch/bzw. auf jeden fall die OEM-Partner zufriedenzustellen (da spiel auch der Stromverbrauch und kosten einen Rolle gerade) , Der R6xx würde so wie er war durch die Größe und Kühllösung einfach zu teuer.

Armaq
2007-03-15, 15:47:00
Tja damit ist das Rätsel wohl gelöst. R600 war in der Urform nicht tragbar und auch nicht konkurrenzfähig gegenüber G80. Vll. waren die Roten sogar stark überrascht vom G80 und haben nachträglich an der Clock gedreht...

Gast
2007-03-15, 15:50:33
Irgendwie sehen diese Tech-Shots jedes Jahr gleich aus... ;D

Naja, die Verschiebung hat für ATI mehrere Vorteile:
Durch den späteren Launch wird sich nochmal die Verfügbarkeit von GDDR4 leicht verbessern.

Außerdem haben sie mehr Zeit um an den Treibern zu feilen und müssen nicht wie nVidia von Anfang an sich mit den Kinderkrankheiten von Vista rumschlagen.

James Ryan
2007-03-15, 15:50:42
Tja damit ist das Rätsel wohl gelöst. R600 war in der Urform nicht tragbar und auch nicht konkurrenzfähig gegenüber G80. Vll. waren die Roten sogar stark überrascht vom G80 und haben nachträglich an der Clock gedreht...

Nicht dass das jetzt DIE Überraschung wäre. :D
Aber ein 65nm R650 aka R600 wäre schon ziemlich krass, weil 700 Mio. Transistoren in 65nm im Mai diesen Jahres... Hut ab!

MfG :cool:

Toppas:-)
2007-03-15, 15:51:15
Kann sein das Sie etwas überrascht waren, da aber eigendlich immer fast Gleichstand in der Performance war, kann ich mir das vielleicht für die letzten 2-5% denken an Performance. Ich glaube eher daran das ATI beim Aufbau des Chips anders ran gegangen ist als Nvidia (das gezieht sich gerade auf die Größe des Chips) und daher die massiven Probleme hat. Vermutlich wird, aufgrund der Größe des Die, die eine oder andere Überraschung noch warten auf uns.

reunion
2007-03-15, 15:51:49
Was verbirgt sich eigentlich hinter dem Funktionsblock, den ich auf dem folgenden Bild umrahmt habe?

http://img127.imageshack.us/img127/4706/imgp55411ny1mk0.jpg


Sieht nach Spannungswandler/Stromversorgung aus. Ziemlich ausgefuchst dir dort so schräg hineinzulöten. Das macht die Platine für einen Midragechip extrem kurz, aber in dieser Disziplin war ATi immer schon führend.

Tja damit ist das Rätsel wohl gelöst. R600 war in der Urform nicht tragbar und auch nicht konkurrenzfähig gegenüber G80. Vll. waren die Roten sogar stark überrascht vom G80 und haben nachträglich an der Clock gedreht...

Dass R600 bereits in 65nm kommt, halte ich für arg unrealistisch. TSMC gibt an, dass selbst noch 80nm Probleme mit hoch komplexen Chips hat, ATi wird froh gewesen sein, dass man wenigstens bei RV610 und RV630 auf 65nm umswitchen konnte.

James Ryan
2007-03-15, 15:54:42
Sieht nach Spannungswandler/Stromversorgung aus. Ziemlich ausgefuchst dir dort so schräg hineinzulöten. Das macht die Platine für einen Midragechip extrem kurz, aber in dieser Disziplin war ATi immer schon führend.

Wurde bei der X1650 auch schon so gemacht, garnix besonders. ;)

MfG :cool:

Coda
2007-03-15, 15:55:31
Was verbirgt sich eigentlich hinter dem Funktionsblock, den ich auf dem folgenden Bild umrahmt habe?
Was schon. Power-Circuit. Ist halt schräg angeordnet um Platz zu sparen ;)

Spasstiger
2007-03-15, 15:57:46
Ok, wurde bei der X1650 tatsächlich schon in genau der gleichen Form eingesetzt:
http://pics.computerbase.de/1/6/8/4/0/18.jpg

Nur fehlen bei der X1650 XT gegenüber der RV630-Karte zwei von den schwarzen kleinen Bauteilen (die ich jetzt zu meiner Schande nicht näher bezeichnen kann :redface:).

James Ryan
2007-03-15, 16:00:48
Dass R600 bereits in 65nm kommt, halte ich für arg unrealistisch. TSMC gibt an, dass selbst noch 80nm Probleme mit hoch komplexen Chips hat, ATi wird froh gewesen sein, dass man wenigstens bei RV610 und RV630 auf 65nm umswitchen konnte.

Naja, vielleicht kommt der R600 in 65nm... und AMD verschiebt ihn dann noch zweimal! ;D

MfG :cool:

reunion
2007-03-15, 16:01:59
Bilder und Infos zu RV630:

http://www.pcgameshardware.de/?article_id=571589

Edit: RV610 is auch dabei.


Sehr schön. Vernünftige Kühler, die die heiße Luft nach außen befördern, und hoffentlich schön leise sind, dazu äußerst kurze Platinen, und relativ kleine Dies. Wenn jetzt auch noch die Leistung stimmt,...

James Ryan
2007-03-15, 16:04:03
Nur hat die Karte mit dem Kühler drauf ein relativ langes PCB, viel länger als die Karten ohne Kühler... ist daher auch IMO keine RV630 sondern eher ein R600-XL. :D

MfG :cool:

up¦²
2007-03-15, 16:04:41
Ok, wurde bei der X1650 tatsächlich schon in genau der gleichen Form eingesetzt:
http://pics.computerbase.de/1/6/8/4/0/18.jpg

Nur fehlen bei der X1650 XT gegenüber der RV630-Karte zwei von den schwarzen kleinen Bauteilen (die ich jetzt zu meiner Schande nicht näher bezeichnen kann :redface:).

Naja - garnicht so dumm gedacht, das dir das auffällt:
Die Karte sieht irgendwie "unfinished" aus - hat nebenbei keinen externen Anschluß!
Hat die schon Pci-e2 oder was?

reunion
2007-03-15, 16:05:17
Nur hat die Karte mit dem Kühler drauf ein relativ langes PCB, viel länger als die Karten ohne Kühler... ist daher auch IMO keine RV630 sondern eher ein R600-XL. :D

MfG :cool:


Ja, ist mir auch gerade aufgefallen. Seltsam. Vermutlich bekommt nur das kleine Modell die kleine Platine ohne ext. Stromanschluss, und die höher getakteten Modelle die längere.

Black-Scorpion
2007-03-15, 16:07:40
Naja - garnicht so dumm gedacht, das dir das auffällt:
Die Karte sieht irgendwie "unfinished" aus - hat nebenbei keinen externen Anschluß!
Hat die schon Pci-e2 oder was?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5322104&postcount=927

reunion
2007-03-15, 16:09:37
Naja - garnicht so dumm gedacht, das dir das auffällt:
Die Karte sieht irgendwie "unfinished" aus - hat nebenbei keinen externen Anschluß!
Hat die schon Pci-e2 oder was?

PCIe2 liefert kein Watt mehr über den Bus.

Gast
2007-03-15, 16:10:57
Einfach alles?!

nein nichts experte,wenn man es verschlossen zeigt,will man garnicht das was davon bekannt wird.

crux2005
2007-03-15, 16:23:53
AMD roadmap update on R600 - details confirmed!

http://www.tweaktown.com/news/7193/amd_roadmap_update_on_r600_details_confirmed/index.html

http://img6.picsplace.to/img6/27/news_amdr600update_03.jpg

http://img6.picsplace.to/img6/27/news_amdr600update_02.jpg (http://img6.picsplace.to/img6/27/news_amdr600update_02l.jpg)

reunion
2007-03-15, 16:27:41
Also was dort unter Availability geführt wird, gilt mal definitiv nicht für die Endkunden. :rolleyes:
Auch lustig, dass man für die Retail-XTX einen max. Stromverbauch von 240W angibt, aber unter "required power supply connectors" nur zweimal den 6-Pin-Anschluss aufführt, womit man diese 240W nichtmal theoretisch versorgen könnte. Hier zeigt sich also schon, dass die TDP-Angaben wenig mit der Praxis zu tun haben.

Gast
2007-03-15, 16:44:48
Die "großen" rv630 Karten machen einen richtig angst, wenn man sie mit der 8600GTS vergleicht.
Oder wurde hier einfach eine X1950XTX fotografiert?

Mr. Lolman
2007-03-15, 16:48:18
ja:

[...]

Thx :up:

Gmax
2007-03-15, 16:56:30
Nur hat die Karte mit dem Kühler drauf ein relativ langes PCB, viel länger als die Karten ohne Kühler... ist daher auch IMO keine RV630 sondern eher ein R600-XL. :D

MfG :cool:

*Zustimm* Sieht mehr nach einem R600 Derivat aus, zumal diverse Leute schon bestätigt haben, daß die Retail R600er Karte wie eine X1950XTX aussieht.

http://666kb.com/i/amndcnrl8aiwjq0ms.jpg

Armaq
2007-03-15, 17:01:17
So sieht sie geil aus.

Gast
2007-03-15, 17:02:46
Für mich siehts bei AMD/ATI mehr und mehr nach Missmanagement aus. Als ob sich all die Schlipsträger und andere Puffis sich gegenseitig im Glauben an die Luftschlösser der anderen Seite gewiegt haben.
Nun werden Konstrukte ala A380 an den Start geschoben und wir dürfen die harte Landung in der Realität beobachten.

AnarchX
2007-03-15, 17:14:02
Der RV630-Kühler sieht imo aber schon aus nach der berichteten TDP, aber was solls, solang der Kühler und der 2D-Verbrauch stimmt, sollte das für den Desktop-User kein Problem sein.

@65nm R600 im Mai mit Hardlaunch:
Das wäre schon sehr nah einem Wunder...

reunion
2007-03-15, 17:19:30
Der RV630-Kühler sieht imo aber schon aus nach der berichteten TDP, aber was solls, solang der Kühler und der 2D-Verbrauch stimmt, sollte das für den Desktop-User kein Problem sein.

Wenn man sich den Kühler mal genau ansieht, sieht man, dass nur über der GPU ein kleiner Kupferblock mit ca. 5cm breite sitzt, und links davon nur ein Hohlraum ist. Der Kühler scheint also auf keinen Fall überfordert zu sein. Ganz im Gegenteil, ATi scheint endlich eingesehen zu haben, dass so ein kleiner Dreckskühler wie auf den X1300/1600-Karten niemanden interessiert. Auf jeden Fall besser so ein hochwertiger Derivat, als ein Single-Slot-Teil mit einem kleinen 40mm-Lüfter, der unter Umständen mächtig aufdreht.

Nakai
2007-03-15, 17:21:29
*Zustimm* Sieht mehr nach einem R600 Derivat aus, zumal diverse Leute schon bestätigt haben, daß die Retail R600er Karte wie eine X1950XTX aussieht.

http://666kb.com/i/amndcnrl8aiwjq0ms.jpg

Ist auch der R600 oder ein Derivat davon.

Grund:
http://img329.imageshack.us/img329/3264/r600xtxretailnp0.jpg

Sieht mir etwas zu ähnlich aus.

€: Also der R600 wird wohl den gleichen Kühler haben, aber mit wesentlich mehr Kupfer und mit einer oder mehreren Heatpipes.

mfg Nakai

Gmax
2007-03-15, 17:27:29
Ist auch der R600 oder ein Derivat davon.

Grund:
http://img329.imageshack.us/img329/3264/r600xtxretailnp0.jpg

Sieht mir etwas zu ähnlich aus.

mfg Nakai

LoL ist euch aufgefallen, daß die RV630 Platine ohne Kühler Singleslot ist und die mit Kühler Dualslot ist?
Herzlichen Glückwunsch PCGH, ihr habt Bilder des R600
am NDA von ATI vorbeigeschleust ;D

Gast
2007-03-15, 17:28:08
Wenn man sich den Kühler mal genau ansieht, sieht man, dass nur über der GPU ein kleiner Kupferblock mit ca. 5cm breite sitzt, und links davon nur ein Hohlraum ist. Der Kühler scheint also auf keinen Fall überfordert zu sein. ATi scheint endlich eingesehen zu haben, dass so ein kleiner Dreckskühler wie auf den X1300/1600-Karten niemanden interessiert. Auf jeden Fall besser so ein hochwertiger Kühler, als ein Single-Slot-Teil mit einem kleinen 40mm-Lüfter, der unter Umständen mächtig aufdreht.
Denke mal das ist einfach billiger in der Fertigung, das selbe Kühlgerüst zu nehmen. Bei leistungsstärkeren Karten wird dann einfach der Kühlblock im Kanal vergrößert und evtl. noch mit Heatpipes ausgestattet. Allerdings ist der Kühlkörper für die Karte immer nocht recht groß, wenn man bedenkt, dass sie angeblich nur eine Leistung einer X1900GT erbringt. Wer soll die eigentlich für 200 € kaufen und vor allem warum, nur wegen D3D10 Features?

reunion
2007-03-15, 17:29:47
Die "großen" rv630 Karten machen einen richtig angst, wenn man sie mit der 8600GTS vergleicht.
Oder wurde hier einfach eine X1950XTX fotografiert?

Du kannst auch soetwas haben, wenn dir das lieber ist:

http://img354.imageshack.us/img354/245/11048165vq4.th.jpg (http://img354.imageshack.us/my.php?image=11048165vq4.jpg)

Lautstärke: >5 Sone.

Nakai
2007-03-15, 17:31:47
LoL ist euch aufgefallen, daß die RV630 Platine ohne Kühler Singleslot ist und die mit Kühler Dualslot ist?
Herzlichen Glückwunsch PCGH, ihr habt Bilder des R600
am NDA von ATI vorbeigeschleust ;D

Hehe...PCGH hat was nettes gemacht. Jedenfalls handelt es sich hierbei um den R600.
Nun würde ich noch gerne die Speicheranordnung sehen^^

mfg Nakai

Daredevil
2007-03-15, 17:39:47
LoL ist euch aufgefallen, daß die RV630 Platine ohne Kühler Singleslot ist und die mit Kühler Dualslot ist?
Herzlichen Glückwunsch PCGH, ihr habt Bilder des R600
am NDA von ATI vorbeigeschleust ;D
Jetzt wo du es sagst, Geil ! ;D

Gandharva
2007-03-15, 17:40:49
LoL ist euch aufgefallen, daß die RV630 Platine ohne Kühler Singleslot ist und die mit Kühler Dualslot ist?
Herzlichen Glückwunsch PCGH, ihr habt Bilder des R600
am NDA von ATI vorbeigeschleust ;D

Hehe...PCGH hat was nettes gemacht. Jedenfalls handelt es sich hierbei um den R600.
Nun würde ich noch gerne die Speicheranordnung sehen^^

mfg Nakai

Mit der Aussage wäre ich noch vorsichtig an eurer Stelle denn...

Bei der Karte ohne Kühler wird noch ein anderes Platinenlayout verwendet.

ne Blende ist schnell mal gewechselt.

Daredevil
2007-03-15, 17:51:23
Hm stümmt, dafür is wohl auch zu wenig Kupfer in dem Lufttunnel, der Ram wird ja noch nimma mitgekühlt wenn ich das richtig sehe.

AnarchX
2007-03-15, 17:57:46
LoL ist euch aufgefallen, daß die RV630 Platine ohne Kühler Singleslot ist und die mit Kühler Dualslot ist?
Herzlichen Glückwunsch PCGH, ihr habt Bilder des R600
am NDA von ATI vorbeigeschleust ;D

Ich seh da aber nur einen 6Pin-Stromstecker, der selbst wenn man optimistisch ist doch etwas zu wenig für einen R600 ist.

Das wird imo schon die 128W TDP RV630XT sein. ;)

Gandharva
2007-03-15, 18:00:04
Hm stümmt, dafür is wohl auch zu wenig Kupfer in dem Lufttunnel, der Ram wird ja noch nimma mitgekühlt wenn ich das richtig sehe.


Nach genauer Betrachtung der Bilder bin ich mir ziemlich sicher das es keine R600 XL ist. Zum einen ist der Kühler wie du auch grade geschrieben hast sehr mickrig und zum anderen erkennt man hier (http://www.pcgameshardware.de/screenshots/original/Imgp5526.jpg) das die Karte wohl nur 4 Plätze für Rambausteine besitzt. Für ne 512MB Karte ein bissl wenig.

Ich seh da aber nur einen 6Pin-Stromstecker, der selbst wenn man optimistisch ist doch etwas zu wenig für einen R600 ist.

Das wird imo schon die 128W TDP RV630XT sein. ;)


Laut der AMD Roadmap hat die R600 XL nur einen 6pin Anschluss.

Nakai
2007-03-15, 18:05:45
Ist mir auch schon aufgefallen, naja man sieht ja nichts da alles vom Kühler verdeckt wird.
Mag sein das es nicht direkt der R600, aber er könnte ein sehr ähnliches PCB haben. Ebenso wird wohl derselbe Kühler mit mehr Kupfer benutzt.

Ich verweise auf diese Bild hier:
http://img329.imageshack.us/img329/3264/r600xtxretailnp0.jpg

Das PCB des R500 wird dann nur etwas länger sein, aber der Kühler wird ein sehr Ähnlicher sein, da er auch die gleichen Schraubverschlüsse hat.

mfg Nakai

reunion
2007-03-15, 18:07:51
Allerdings ist der Kühlkörper für die Karte immer nocht recht groß, wenn man bedenkt, dass sie angeblich nur eine Leistung einer X1900GT erbringt. Wer soll die eigentlich für 200 € kaufen und vor allem warum, nur wegen D3D10 Features?

Wie immer hilft nur Abwarten. Niemand weiß, ob dieses target >X1900GT-Speed überhaupt je korrekt war, und selbst wenn, dieses heute noch so ist. Zum zweiten kann man vom Kühler sicherlich nicht auf die Verlustleistung schließen. Der für diese Konstruktion sehr kleine Kühlkörper deutet jedenfalls schonmal an, dass auch ein Single-Slot-Design gereicht hätte. Nur hätte man halt dann nicht den Vorteil, dass die heiße Luft nach außen befördert wird - mir ist es so lieber.

Ich seh da aber nur einen 6Pin-Stromstecker, der selbst wenn man optimistisch ist doch etwas zu wenig für einen R600 ist.


Wenn man jetzt daran glauben würde, könnte man behaupten, dass du den zweiten gar nicht sehen kannst, sofern dieser links von ersten platziert ist.

/Edit: Sehe gerade, dass es da ja auch noch andere Perspektiven gibt. :redface:


Das wird imo schon die 128W TDP RV630XT sein. ;)

So wie beim R600-XTX, wo man mit zwei 6-Pin-Anschlüssen 240W TDP angibt.

deekey777
2007-03-15, 18:16:17
Auf der Cebit gelang es uns, 28 Screenshots von der neuen Ati-Technologie-Demo zu erstellen. Hinter verschlossenen Türen und unter Ausschluss der Presse werden R600-Systeme mit dieser Technologie-Demo vorgeführt. Die Demo benötigt ca. 680 MByte an Video-Speicher - 500 MByte werden alleine für Texturen reserviert. Außerdem nutzt die Demo soft particles und self-shadowing. Insgesamt kommen 375 Shaders zum Einsatz. Der Standard-Pixel-Shader nutzt dabei 430 Instruktionen.
Nur 375 Shader?
Bei der Toyshop-Demo wurde geprallt, dass mithilfe des 3Dc und 1010102 der Texturenverbrauch auf 150 MB (von 400 MB) gesenkt wurde, und jetzt das: 500 MB nur für Texturen?:biggrin:

Den R600@65 nm könnt ihr euch gleich aus dem Kopf schlagen, das wird der R650 oder R680 sein.

Gast
2007-03-15, 18:42:23
Naja ist die Verwendung von 3Dc denn DX10 konform? Kann gut sein das das beim R600 rausgefallen ist, weil unter OpenGL werden sies sicher nicht anbieten ^^

deekey777
2007-03-15, 18:44:03
Naja ist die Verwendung von 3Dc denn DX10 konform? Kann gut sein das das beim R600 rausgefallen ist, weil unter OpenGL werden sies sicher nicht anbieten ^^
3Dc ist ein Teil des D3D10. :)

Edit: Wie sicher ist, dass es eine D3D10-Demo war?

Gast
2007-03-15, 19:20:29
Hat jemand die PC Games Hardware Seite in seinem Browser Cache mit den Bildern? Die Bilder wurden wieder entfernt, also wer noch was hat, immer zu RapidShare damit ;)

BTW bei einer TecDemo zum R600 kann man sicher davon ausgehen das man "DX10" Techniken einsetzt.

AnarchX
2007-03-15, 19:28:27
[CeBIT : RV630XT, RV630 & RV610 Cards Spotted] (http://www.vr-zone.com/index.php?i=4795)
[...]There are some misconceptions that the top card is a R600XT card, which is in fact a RV630XT card.
It has 128-bit memory interface and supports GDDR4 in 256/512MB configurations. It requires an additional 6-pin power. RV630 on the other hand has 128-bit memory interface as well and supports 256MB GDDR2 memories. No additional power is required. As our sources revealed that RV630XT will score over 12K in 3DMark05 which is in fact faster than a X1900 XTX card.[...]


Das lässt hoffen...=)

randy
2007-03-15, 19:34:10
Hat jemand die PC Games Hardware Seite in seinem Browser Cache mit den Bildern? Die Bilder wurden wieder entfernt, also wer noch was hat, immer zu RapidShare damit ;)


die sind doch weiter oben schon gepostet worden :rolleyes:

Ailuros
2007-03-15, 19:44:28
Naja, von kurzfristig kann ja auch irgendwie nicht die Rede sein. Der R600 scheint sein eigener Refresh zu werden und das ist vermutlich auch gut so.

Und wozu soll dann der eigentliche Refresh noch gut sein? Mal sehen was diese These beinhaltet: ein high end chip der schon fast ein Jahr vergebens mit 80nm herumfurzt (wobei "nur" 3 respins kann glauben wer will...), der dann nochmal verdammt optimistich 6 Monate braucht um in 65nm aufgelegt zu werden und kommt dann fast zeitgleich mit dem Rx0 Refresh auf Regalen an.

Falls das obrige stimmen sollte, dann wird R600 der teuerste Grafikchip aller Zeiten.

Ganz nebenbei ich hoerte lediglich von einer zusaetzlichen Taktsteigerung durch eine neue Maske aber keinen Pieps von einem neuen Herstellungsprozess.

***edit:

reunion,

Du hast doch gefragt, warum RV530 nicht so gut wie R580 war. Und ich habe geantwortet, dass RV530 eben nur 1/4 R580 ist, da das Die sonst zu groß geworden wäre, da beide in 90nm gefertigt werden mussten. Dieses Problem hat man aber mit RV630 nicht mehr, da hier ein kleinerer Herstellungsprozess wie bei R600 zum Einsatz kommt, und man den Midragechip deshalb wohl nicht so weit abspecken muss wie RV530.

R580@90nm = 352mm^2
RV530@90nm = 150mm^2
R600@80nm = 420mm^2 (?)
RV630@90nm = 160mm^2 (?)

Um wieviel groesser waere denn genau RV630 wenn er auf 80nm gekommen waere?

Die Taktraten sind auch nicht gerade unerheblich höher. Aber das man auf 65nm nicht verzichtet, wenn es möglich ist, sollte klar sein.

65nm war eine absolut notwendige Design-Entscheidung um den Stromverbrauch zu reduzieren. 80nm fuer RV610/630 haette NV noch einen weiteren Vorteil fuer den Schlepptopp Markt genehmigt.

Wenn RV630 wirklich genau so groß wie G84 ist, dann bedeutet das, dass diese deutlich mehr Transistoren wie G84 haben wird, also im Vergleich zum Highend-Chip weniger stark abgespeckt wurde.

Oder RV630 unterstuetzt ausserhalb von 3D etwas was im R600 unterstuetzt wird und NV im G84 gestrichen hat.

Gast
2007-03-15, 20:22:37
falls er schnell genug sein sollte, um den refresh des g80 klar zu übertrupfen, dann interressieren imo die produktionskosten den endverbraucher nur noch am rande. und falls der r600 tatsächlich einen neuen fertigungsprozeß oder was auch immer erfahren hat, dann heißt es nach dem release, 80nm vs. 65nm - wayne... hauptsache die performance+bq passen.

Gast
2007-03-15, 20:31:03
falls er schnell genug sein sollte, um den refresh des g80 klar zu übertrupfen, dann interressieren imo die produktionskosten den endverbraucher nur noch am rande.

Nur dumm wenn er dann einen Verfügbarkeit hat, die gegen Null geht, wegen der guten Yieldraten die man momentan wohl bei 700M in 65nm haben wird.

Gast
2007-03-15, 20:36:48
[CeBIT : RV630XT, RV630 & RV610 Cards Spotted] (http://www.vr-zone.com/index.php?i=4795)


Das lässt hoffen...=)
Das sind wirklich erfreuliche Nachrichten. Die Karte könnte die gute X1900 Reihe in die wohlverdiente Rente schicken. Bei etwas gesunkenem Verbrauch könnte das wirklich eine für Games taugliche D3D10 Einstiegskarte mit Top Preis-Leistungsverhältnis werden. Dazu kommt noch der solide Kühler. Bleibt nur noch zu hoffen, dass sie auch bei aktiviertem AA und AF schneller als eine X1900 oder sogar X1950 XTX ist und nicht die Speicherbandbreite da zur Achillesferse wird.

w0mbat
2007-03-15, 20:42:51
12883 Pkt. in 3DMark05 @ default (mit einem 3GHz C2D).

Ronny145
2007-03-15, 20:53:28
12883 Pkt. in 3DMark05 @ default (mit einem 3GHz C2D).


Und nun? RV630XT sicherlich, oder welche Karte meinst du? Was dann schon VR-Zone geschrieben hätte.

reunion
2007-03-15, 20:56:23
Sieht stark nach einem halben R600 aus bis auf das SI.

Gast
2007-03-15, 20:58:24
Sieht stark nach einem halben R600 aus bis auf das SI.

Oder die Werte sind frei erfunden.
Über 12k im 05? Ein Abkömmling des R600 vielleicht, aber bestimmt kein rv630.

Die_Allianz
2007-03-15, 21:03:05
12883 Pkt. in 3DMark05 @ default (mit einem 3GHz C2D).

hast du den bench gemacht oder warum gibst du keine quelle an?
und auch sonst fehlen an paar infos, um einen sinnvollen post zu ergeben, denkst du nicht?

Nakai
2007-03-15, 21:04:01
Es soll aber der Rv630XT sein...

mfg Nakai

reunion
2007-03-15, 21:05:57
Über 12k im 05? Ein Abkömmling des R600 vielleicht, aber bestimmt kein rv630.


Warum? Nur weil die Karte vorher mit dem verweiß auf RV530 heruntergemacht wurde? Durch 65nm hat man genügend Transistor- und Taktreserven, alles andere, als ein halber R600, wäre fast schon unlogisch. Dazu noch hohe Taktraten bei der XT, und schon erscheint das durchaus möglich.

laser114
2007-03-15, 21:08:47
Oder die Werte sind frei erfunden.
Über 12k im 05? Ein Abkömmling des R600 vielleicht, aber bestimmt kein rv630.

Wieso denn nicht? Die XTX-Karten der X19x0-Serie kommen doch auch auf 11k+. Da ist das für die schnellste Variante des Midprice-Chip der neuen Generation durchaus machbar.

reunion
2007-03-15, 21:13:27
Um wieviel groesser waere denn genau RV630 wenn er auf 80nm gekommen waere?


Rechnerisch ziemlich genau ~51% größer. Aber das weiß du sicher auch selbst, warum also die Frage?


Oder RV630 unterstuetzt ausserhalb von 3D etwas was im R600 unterstuetzt wird und NV im G84 gestrichen hat.

Ich kann mir nicht vorstellen, dass das so viel kostet. Ein Transistor in 65nm braucht gegenüber einem in 80nm nur mehr ~66% der ursprünglichen Fläche.

AnarchX
2007-03-15, 21:14:38
Sieht stark nach einem halben R600 aus bis auf das SI.

Oder die Shaderleistung pusht hier das Ergebnis, wie es auch bei RV530 teilweise war und hier im Falle das es die Hälfte der ALUs des R600 wären noch stärker auftretten könnte.

Momentan ist es doch noch etwas unklar, auf der einen Seite Andeutungen, dass er kein halber R600 wäre und wohlmöglich in X2400 umbenannt wird und anderseits ein erstaunliches 3DM-Ergebnis und eine TPD/Kühler die eher nicht zur Gegenseite passen.

Ich hoffe nun aber auch, dass der RV630 ein halber R600 ist und es ATi endlich wieder geschaft hat eine ansprechende Midrange-Lösung auf die Beine zu stellen.

reunion
2007-03-15, 21:22:16
Oder die Shaderleistung pusht hier das Ergebnis, wie es auch bei RV530 teilweise war und hier im Falle das es die Hälfte der ALUs des R600 wären noch stärker auftretten könnte.


Was hast du immer mit deiner Shaderleistung? Ich habe schon weiter hinten angemerkt, dass das mit RV530 eine einmalige Situation war, da man mit R580 die ALU-Anzahl verdreifacht hat. Ich sehe nicht den geringsten, nachvollziehbaren Grund, warum man bei der R600-Generation das ALU/TEX-Verhältnis ändern sollte.


Momentan ist es doch noch etwas unklar, auf der einen Seite Andeutungen, dass er kein halber R600 wäre und wohlmöglich in X2400 umbenannt wird und anderseits ein erstaunliches 3DM-Ergebnis und eine TPD/Kühler die eher nicht zur Gegenseite passen.


IMHO ist ein 3dmark-Ergebnis doch ein stärkerer Anhaltspunkt als irgendwelche womöglich falschen Gerüchte, die irgend ein User bei B3D gestreut hat, der noch dazu auch schon bei R600 Performanceangaben den Fehlinformationen von ATi erlegen ist. Zumindest bei diesen Generationen haben sich Dinge von VR-Zone soweit ich mich erinnern kann eigentlich immer als korrekt heraus gestellt.

LovesuckZ
2007-03-15, 21:25:05
IMHO ist ein 3dmark-Ergebnis doch ein stärkerer Anhaltspunkt als irgendwelche womöglich falschen Gerüchte, die irgend ein User bei B3D gestreut hat, der noch dazu auch schon bei den R600 Performanceangaben den Fehlinformationen von ATi erlegen ist.

Ein "3dmark-Ergebnis" von Wombat sollte ein "stärkerer Anhaltspunkt als irgendwelche womöglich falschen Gerüchte" sein?
Na, lass dir Kirche im Dorf stehen. ;)

reunion
2007-03-15, 21:28:21
Ein "3dmark-Ergebnis" von Wombat sollte ein "stärkerer Anhaltspunkt als irgendwelche womöglich falschen Gerüchte" sein?
Na, lass dir Kirche im Dorf stehen. ;)

Wir werden ja bald sehen. ;)
w0mbat ist zumindest schon desöfteren mit "Insiderinfos" im Bezug auf AMD aufgefallen.

Ronny145
2007-03-15, 21:30:26
Ein "3dmark-Ergebnis" von Wombat sollte ein "stärkerer Anhaltspunkt als irgendwelche womöglich falschen Gerüchte" sein?
Na, lass dir Kirche im Dorf stehen. ;)


Der postet immer Sachen ohne Quelle, kann genauso von woanders sein, daher lege ich da nicht viel Wert drauf. Genauso kann er sich das ausdenken.

Nakai
2007-03-15, 21:33:43
Nicht wirklich.^^:rolleyes:

Wombat weiß viel...:eek: ;D


Nicht umsonst sind schon 2 seiner Gerüchte im INQ aufgetaucht bzw. Infos...

mfg Nakai

reunion
2007-03-15, 21:33:45
Der postet immer Sachen ohne Quelle, kann genauso von woanders sein, daher lege ich da nicht viel Wert drauf. Genauso kann er sich das ausdenken.

Bei einem Gast würde ich dir recht geben. w0mbat hat zumindest seinen Ruf zu verlieren. Und ich kann mir auch kaum vorstellen, dass VR-Zone irgendwelche Zahlen ohne jeglichen Nachweis einfach so auf die Hauptseite stellt.

horn 12
2007-03-15, 21:36:20
@All

Und was ist mit dem A/A Pic, wo die XTX schon im März zu haben soll sein, und die XT(X) 512 GDDR3 und die XL schon im April.

reunion
2007-03-15, 21:37:23
Entweder sind die Zahlen alt, oder es bezieht sich nicht auf die Endkunden.

w0mbat
2007-03-15, 21:39:11
Nicht wirklich.^^:rolleyes:

Wombat weiß viel...:eek: ;D


Nicht umsonst sind schon 2 seiner Gerüchte im INQ aufgetaucht bzw. Infos...

mfg Nakai

Danke Nakai. Netter Versuch mich zu unterstützen, aber da der INQ selber nicht gerade für seine Top-Infos bekannt ist hilft das wohl wenig. Ich weiß nicht viel mehr als die Meisten hier. Nur mit ein paar Extra-Infos versuche ich dann die Wahrheit zu finden :biggrin:

Alles wissen A, B und C. Jetzt bekomme ich das D und muss schauen was ich damit mache.

Ronny145
2007-03-15, 21:41:23
Bei einem Gast würde ich dir recht geben. w0mbat hat zumindest seinen Ruf zu verlieren. Und ich kann mir auch kaum vorstellen, dass VR-Zone irgendwelche Zahlen ohne jeglichen Nachweis einfach so auf die Hauptseite stellt.


Den VR-Zone Wert bezweifle ich auch gar nicht. Aber wie gesagt, er postet auch eine Menge Zeug von anderen Seiten und gibt dann keine Quelle an. Daher schlecht einzuordnen, woher er jetzt den Wert hat.



Nicht umsonst sind schon 2 seiner Gerüchte im INQ aufgetaucht bzw. Infos...

mfg Nakai


Top Argument muss ich sagen lol.

Nakai
2007-03-15, 21:44:23
Nun natürlich kannst du nicht alles wissen, das hab ich schon gemerkt.
(Kann sein, dass du mit manchen Specs nichts anfangen kannst^^)
Aber trotzdem bist du eine zuverlässige Infoquelle...;D

Achja wer will denn nicht die Wahrheit finden...

Und was ist mit dem A/A Pic, wo die XTX schon im März zu haben soll sein, und die XT(X) 512 GDDR3 und die XL schon im April.

Erhältlich aber für wen?

Ich geh mittlerweile von einem sehr starken R600 aus, leider schaffen bis jetzt nur die wenigsten Modelle diese Taktraten.
Das mit 65Nm wäre zwar interessant, aber wie viele hier schon gesagt haben, wird das nicht der Fall sein.
Es wurde was an der Fertigung geändert, wie es Ail so schön gesagt hat.

mfg Nakai

€:

Top Argument muss ich sagen lol.

Ich weiß^^ ;)

deekey777
2007-03-15, 21:53:10
Und nun? RV630XT sicherlich, oder welche Karte meinst du? Was dann schon VR-Zone geschrieben hätte.
Lies mal die News:
http://www.vr-zone.com/index.php?i=4795
w0mbat in our forums has something nice for us again and this time round he brought us RV630 and RV610 cards. ... As our sources revealed that RV630XT will score over 12K in 3DMark05 which is in fact faster than a X1900 XTX card. As for RV610, you can check out our previous article for its details and performance
In einem Forum kann man schon interessante Infos bekommen, wenn man auch was tut.
Wen interessiert eigentlich 3D 2005? 3D 2006 wäre etwas interessanter (wegen GT3&4).

Armaq
2007-03-15, 21:59:50
Sehr stark muss er sein. Wenn Nvidia eine 8800 Ultra bringt mit 160 Shadereinheiten bringt wirds gleich wieder richtig fies. Vll. sogar 192 O.o
2x 8800GTS -> Leistung aus Leidenschaft. ;)

Insgesamt wünscht sich glaube ich jeder was ordentliches von AMD. Eigentlich ist alles andere auch unvernünftig für alle ausser Nvidia.

Ronny145
2007-03-15, 22:05:04
Lies mal die News:
http://www.vr-zone.com/index.php?i=4795

In einem Forum kann man schon interessante Infos bekommen, wenn man auch was tut.
Wen interessiert eigentlich 3D 2005? 3D 2006 wäre etwas interessanter (wegen GT3&4).


Er hat dort Bilder von der pcgh im Forum gepostet. Das
As our sources... kann vieles bedeuten.

deekey777
2007-03-15, 22:11:18
Er hat dort Bilder von der pcgh im Forum gepostet. Das
As our sources... kann vieles bedeuten.
VR-Zone gibt nur over 12K an, ich rate mal blind, dass w0mbat seine Info von den VR-Leuten bekommen hat (als Dankeschön).

Gast
2007-03-15, 23:09:42
http://www.k-hardware.de/news.php?s=c&news_id=6399

Gast
2007-03-15, 23:18:46
Nun sind wir schon bei Teil 6.....
Langsam wirds peinlich :)

Moralelastix
2007-03-15, 23:22:02
Wow also scheinbar wirklich 65nm.

*staun*

Könnten das zwei R600 sein?
http://pics.krawall.de/2/amdpk_r6007.jpg

LovesuckZ
2007-03-15, 23:26:34
Wow also scheinbar wirklich 65nm.
*staun*

Abwarten.
Es kann auch sein, dass K-Hardware einfach etwas verwechselt. Kann vorkommen.

BlackBirdSR
2007-03-15, 23:29:31
Da steht nur was von 65nm für Mobile Parts in den Slides.. aber nichts über einen Launch des R600 mit 65nm. Oder habe ich etwas überlesen?

deekey777
2007-03-15, 23:30:11
Wow also scheinbar wirklich 65nm.

*staun*

Könnten das zwei R600 sein?
http://pics.krawall.de/2/amdpk_r6007.jpg

Das sind zwei R600 OEM bzw. Stream Processors. :) Ist schon uralt das Bild (ist von der Präsentation, wo 1 TFLOP/s geknackt wird).

Aber irgendwie glaube ich nicht, dass der R600@65 nm R650 kommen wird.
Da steht nur was von 65nm für Mobile Parts in den Slides.. aber nichts über einen Launch des R600 mit 65nm. Oder habe ich etwas überlesen?
Überlesen:
Nicht nur bestätigte die kalifornische Chipschmiede uns gegenüber, dass der R600 in 65 nm kommen wird

AnarchX
2007-03-15, 23:43:45
Der "R600" in den Folien sieht mir aber verdächtig nach einem R580 aus, zudem ist er auch nicht so gedreht wie auf den letzten Bildern (http://img114.imageshack.us/img114/1827/atigt9.jpg).

Moralelastix
2007-03-15, 23:45:03
Das sind zwei R600 OEM bzw. Stream Processors. :) Ist schon uralt das Bild ....


Dies ist also das einzigste Bild vom R600?

deekey777
2007-03-15, 23:46:59
Dies ist also das einzigste Bild vom R600?
Nein, von der OEM-Version gibt's jede Menge Bilder (das ist die sehr lange Grafikkarte). Von der Retail-Version gibt es nur Beschreibungen (siehe PCGH).

AnarchX
2007-03-15, 23:50:51
Nein, von der OEM-Version gibt's jede Menge Bilder (das ist die sehr lange Grafikkarte). Von der Retail-Version gibt es nur Beschreibungen (siehe PCGH).

Diese Skizze (http://www.theinquirer.net/default.aspx?article=37588) gab es noch, welche auch zu einer anderen Beschreibung passt, dass die Retailkarte den GF8 ähnelt.

dargo
2007-03-16, 00:38:17
[CeBIT : RV630XT, RV630 & RV610 Cards Spotted] (http://www.vr-zone.com/index.php?i=4795)


Das lässt hoffen...=)
Ist da immer noch was dran, dass der RV630 1/3 der Performance des R600 haben soll? Dann wäre der R600 aber ziemlich schnell. :naughty:

deekey777
2007-03-16, 00:40:57
CeBIT 2007 - AMD reveal RV6xx is a sound card too (http://www.beyond3d.com/content/news/127)

Rick revealed that to provide full audio over RV6xx's HDMI support, the ASICs implement a HD Audio controller as well as the rendering core, allowing the board to pass out protected path audio along with video on any HDMI ports the final products might sport
Irgendwie riecht das nach PR-Müll. Eher wird die Tonspur von dem HD-Medium (zB DTS-HD oder DD+ oder PCM) ohne Umweg direkt an die Grafikkarte bzw. deren HDMI weitergeleitet, die Decodierung übernimmt dann der HD-Receiver.
Trotzdem nett. :smile:

Gast
2007-03-16, 08:37:59
wahrscheinlich schon bekannt oder:
http://pic.xfastest.com/sxs112/AMD/R600/pic4.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic1.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic3.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic5.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic6.jpg

T86
2007-03-16, 08:47:40
ungewöhnlich das der radial lüfter auf der anderen seite ansaugt
unten währe doch besser gewesen - luft vom forderen gehäuselüfter
und bei oem's halt aus den lüftungschiltzen in der front...

aber is schon nen monster - kann man net anders sagen :D

James Ryan
2007-03-16, 08:54:57
wahrscheinlich schon bekannt oder:
http://pic.xfastest.com/sxs112/AMD/R600/pic4.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic1.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic3.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic5.jpg
http://pic.xfastest.com/sxs112/AMD/R600/pic6.jpg

Das ist die OEM-Variante, werden wir "Normalo-Kunden" eh niemals zu Gesicht bekommen bzw. normal im Handel kaufen können.

MfG :cool:

Zocker_28
2007-03-16, 09:07:05
haben wir doch von der 7900GX2 auch gedacht, also mal sehen:smile:

kampfwurst@work
2007-03-16, 11:31:24
der GX2 vergleich hinkt, da es diese lösung bisher nicht im retail markt gab.
die GX2 7950 war ja dann direkt für den retail markt entworfen, die 7900 allerdings nicht.

die r600 pics, sind schon so ziemlich alte schinken.
und jetzt keine ausrede mit "ich lese doch nicht dne ganzen thread durch"

Nakai
2007-03-16, 13:56:26
VR-Zone gibt nur over 12K an, ich rate mal blind, dass w0mbat seine Info von den VR-Leuten bekommen hat (als Dankeschön).

Also die VR-Typen sind bestimmt nicht seine Quelle.
Ob es als Dankeschön gedacht ist, kann ich nicht sagen.;)

Wenn die 12K Punkte stimmen und der RV630 ein halber R600, dann sollte der R600 etwa 28K Punkte schaffen. Das wäre eine Zuwachsrate von etwa 60%.
Dann muss der G81 natürlich schon 25% mehr Shader und einen höheren Takt haben.
(3DMark05 ist natürlich nicht aussagekräftig.)


mfg Nakai

Anarchy-HWLUXX
2007-03-16, 14:01:46
Das hört sich nicht doll an was neue Pics der R600 angeht ...

AMD is keeping a close watch on their partners over at CeBIT making sure nothing is leaked to the media. We saw some R600 cards but they are all marked with the respective AIB company name all over the card. As such, no one is allowed to take any photos. However, nothing escape from us as usual so here's a side view for your viewing pleasure. More later if there is enough interests around here.


Zum glück hat VR-Zone aba eh scho Pics ...

http://forums.vr-zone.com/showthread.php?t=136434

... schlecht ist das se die Leser unnötig teasen :rolleyes:

Gast
2007-03-16, 14:04:07
Also die VR-Typen sind bestimmt nicht seine Quelle.
Ob es als Dankeschön gedacht ist, kann ich nicht sagen.;)

Wenn die 12K Punkte stimmen und der RV630 ein halber R600, dann sollte der R600 etwa 28K Punkte schaffen. Das wäre eine Zuwachsrate von etwa 60%.
Dann muss der G81 natürlich schon 25% mehr Shader und einen höheren Takt haben.
(3DMark05 ist natürlich nicht aussagekräftig.)


mfg Nakai
Das muss nur erstmal technisch praxistauglich umgesetzt werden, was anscheinend für ATi mit den bisherigen Fertigungsprozessen eben nicht möglich ist. Da kann also noch einige Zeit ins Land vergehen.

foenfrisur
2007-03-16, 14:27:45
irgendjemand hier fragte doch, ob audiosignale durch den hdmi-anschl. gehen oder??

ja, das wird der r600 sogar können und das finde ich genial, weil man dann kein extra-kabel benötigt.


mfg

desert
2007-03-16, 14:32:00
Also die VR-Typen sind bestimmt nicht seine Quelle.
Ob es als Dankeschön gedacht ist, kann ich nicht sagen.;)

Wenn die 12K Punkte stimmen und der RV630 ein halber R600, dann sollte der R600 etwa 28K Punkte schaffen. Das wäre eine Zuwachsrate von etwa 60%.
Dann muss der G81 natürlich schon 25% mehr Shader und einen höheren Takt haben.
(3DMark05 ist natürlich nicht aussagekräftig.)


mfg Nakai

Also ich persönlich halte 28.000 punkte in 3dmark05 für höchst unwahrscheinlich. Meine gf 8800gts mach bei 1280 * 1024, gerade mal ca 13.000 Punkte. Eine 8800 gtx schafft in 1280 x 1024, ungefähr 14.000 Punkte. Eine x1950xtx etwa 10.000 punkte. So und nun kommt also die midrange karte und soll 12.000 punkte machen? und die r600 28.000 punkte lt. deiner meinung.

die frage ist doch wohl eher in welcher auflösung, und solange wir die nicht wissen ist diese punkteanzahl einfach wertlos, sonst müsste die r600 ca. 180 % schneller als die x1950xtx sein in 1280 x 1024. Halte ich wie gesagt für höchst suspekt.

Vielleicht wurden die ja in 1024 * 768 gemacht, oder in 800 * 600,wer weiss

DrumDub
2007-03-16, 14:37:57
Vielleicht wurden die ja in 1024 * 768 gemacht, oder in 800 * 600,wer weiss ich denk mal, falls die daten stimmen, es war die standardeinstellung, also 1024x768 ohne aa/af.

Gast
2007-03-16, 14:40:54
3dMark 2005 ist im normalen Durchlauf CPU - limitiert.

Nakai
2007-03-16, 14:44:36
Hey natürlich sind 28000 Punkte sehr unlogisch, aber wenn der RV630Xt schon 12K macht...wer weiß wie schnell der R600 dann ist?

Naja ansonsten ist mir der Kühler zu rot...:rolleyes:

Das muss nur erstmal technisch praxistauglich umgesetzt werden, was anscheinend für ATi mit den bisherigen Fertigungsprozessen eben nicht möglich ist. Da kann also noch einige Zeit ins Land vergehen.

Wenn es tatsächlich 65Nm ist, wird natürlich einiges an der Zeit vergehen...;)

mfg Nakai

Gast
2007-03-16, 15:01:23
Wenn es tatsächlich 65Nm ist, wird natürlich einiges an der Zeit vergehen...;)

mfg Nakai
Der RV630XT muss demnach auch recht flott sein, da es so aussieht, dass er auf längere Zeit wohl die stärkste Karte von ATi sein wird, bis er dann endlich vom R600/650 oder was auch immer abgelöst wird.

James Ryan
2007-03-16, 15:02:21
Also ich persönlich halte 28.000 punkte in 3dmark05 für höchst unwahrscheinlich. Meine gf 8800gts mach bei 1280 * 1024, gerade mal ca 13.000 Punkte. Eine 8800 gtx schafft in 1280 x 1024, ungefähr 14.000 Punkte. Eine x1950xtx etwa 10.000 punkte. So und nun kommt also die midrange karte und soll 12.000 punkte machen? und die r600 28.000 punkte lt. deiner meinung.

die frage ist doch wohl eher in welcher auflösung, und solange wir die nicht wissen ist diese punkteanzahl einfach wertlos, sonst müsste die r600 ca. 180 % schneller als die x1950xtx sein in 1280 x 1024. Halte ich wie gesagt für höchst suspekt.

Vielleicht wurden die ja in 1024 * 768 gemacht, oder in 800 * 600,wer weiss

Standard beim 3DMark05 ist aber 1024*768! Verwechselst du vielleicht den 3DMark05 mit dem 06er?

MfG :cool:

w0mbat
2007-03-16, 15:02:44
Also ich persönlich halte 28.000 punkte in 3dmark05 für höchst unwahrscheinlich. Meine gf 8800gts mach bei 1280 * 1024, gerade mal ca 13.000 Punkte. Eine 8800 gtx schafft in 1280 x 1024, ungefähr 14.000 Punkte. Eine x1950xtx etwa 10.000 punkte. So und nun kommt also die midrange karte und soll 12.000 punkte machen? und die r600 28.000 punkte lt. deiner meinung.

die frage ist doch wohl eher in welcher auflösung, und solange wir die nicht wissen ist diese punkteanzahl einfach wertlos, sonst müsste die r600 ca. 180 % schneller als die x1950xtx sein in 1280 x 1024. Halte ich wie gesagt für höchst suspekt.

Vielleicht wurden die ja in 1024 * 768 gemacht, oder in 800 * 600,wer weiss

Meine X1900 XT@default macht zusammen mit einem 2,8GHz K8 schon an die 11,5k Pkt. Da wird eine X1950 XTX oder gar 8800GTX mit einem Core2 wohl ziemlich viel mehr machen. Der RV630XT wird etwa auf dem Niveau einer X1900 XTX liegen, aber mit weniger Power bei höheren Auflösungen und AA/AF.

desert
2007-03-16, 15:12:59
also meine 8800 gts macht bei 1024 x 768 etwas über 16.000 Punkte und eine gf 8800 gtx folgenden wert

18 224

E6600@3.6GHz
2GB RAM 800MHz - 5-5-5-12
MIS 8800GTX @default
Gigabyte GA-965P-DQ6
ForceWare 96.89 - Hohe Quali

Also müsste der r600 ca. 60 % schneller ohne aa/af sein. Immer noch zuviel, also ich rechne so mit 15 % - 20 %, 60 % daran kann ich einfach nicht glauben.

AnarchX
2007-03-16, 15:21:35
B3D hat die exakte Die-Size von RV610 und RV630 ermittelt:
http://www.beyond3d.com/content/news/129 - RV610 is 7.7x10.7mm, or ~82mm².
http://www.beyond3d.com/content/news/130 - RV630 is 13.3x11.5mm, or ~153mm².


Nicht verwunderlich warum NV unruhig im Bezug auf den RV610 ist, ihr Gegenpart G86 ist immerhin 115mm² groß.

deekey777
2007-03-16, 15:39:51
Jetzt soll auch noch eine AGP-Version kommen...
http://www.pcgameshardware.de/?article_id=571646
Es liegt also nach wie vor in der Hand von Atis Boardpartnern, AGP-Designs zu entwickeln und auf den Markt zu bringen
Was soll der Quatsch?
Andererseits wäre eine kleine RV610 AGP nicht verkehrt.

Nakai
2007-03-16, 15:42:37
Wieso eine kleine Rv610?^^:biggrin:

mfg Nakai

deekey777
2007-03-16, 15:50:08
Wieso eine kleine Rv610?^^:biggrin:

mfg Nakai
Eine kleine RV610 samt UVD, dazu noch ein DVB-Tuner.

Ach, keine Ahnung, vielleicht weil die RV630XT schon zwei 12-V-Anschlüsse haben wird? Oder drei?

Nakai
2007-03-16, 15:57:39
Mhh wenn ich wüsste wieviel Watt ein Molexstecker hat?

Ich habe jedenfalls von mehr als einen RV610 gehört.

mfg Nakai

Anarchy-HWLUXX
2007-03-16, 16:04:37
Jetzt soll auch noch eine AGP-Version kommen...
http://www.pcgameshardware.de/?article_id=571646

Was soll der Quatsch?
Andererseits wäre eine kleine RV610 AGP nicht verkehrt.

Das heisst das AGP möglich ist - wenn aba kein OEM eine AGP Version bestellt (und die entwicklung bezahlt) wird wohl auch keine entwickelt ...




Interview mit AMD :

http://forums.vr-zone.com/showthread.php?t=136455

-> Launch im Mai, wenn es also mitte Mai wird hat nV abartige 6 Monate vorsprung ... da kann die Leistung vom R600 noch so gut sein - nV hat da den nachfolger der G80 scho fast fertig ...

Pirx
2007-03-16, 16:24:04
Na, wenn er (und die Mainstream-Chips) schnell genug ist, kann man es auch so sehen, daß ATi jetzt Vorsprung hat. Und wenn er wirklich schnell wird, könnte nV mit ihrem Refresh auch Probleme bekommen. Ma sehen.

Gast
2007-03-16, 16:24:58
Das bedeutet noch lange nicht das dieser schneller sein wird als der R600. Wer weiss wie schnell der R600 jetzt wirklich wird, evtl ist er so schnell das nv ja das Refresh definitiv braucht. Lassen wir uns überraschen, aber zu sagen iihh 6 Monate später und dies oder jenes ist Mist bzw beim Mitbewerber ist besser bringt uns hier nicht weiter da kaum jemand die Daten von beiden hat.

puntarenas
2007-03-16, 16:34:42
Ich gebe zu, absolut keine Ahnung zu haben, aber neugierig bin ich trotzdem. Warum wird eigentlich die Möglkichkeit, dass der r600 bereits in 65nm kommt und somit in Wirklichkeit gleich der Refresh unter diesem Namen veröffentlicht wird, so rigeros abgetan?

Auch im neuen Artikel zu D3D10-Chips wird diese Spekulation nicht erwähnt. Immerhin hat man mit AMD und damit indirekt IBM jede Menge Know-How hinzugewonnen, das natürlich im ursprünglichen ATI-Design noch keinen Einzug halten konnte. Wenn der "ursprüngliche" R600 wirklich so ein Stromverbrauchsmonster ist, dann wäre ihn vor seiner Geburt zu beerdigen und alle Ressourcen in den frühen Refresh zu setzen doch ein guter Weg. Damit wären dann die ganzen Insiderinfos und frühen "OEM-Fotos" natürlich Geschichte und bezögen sich allesamt auf einen Chip, der nie das Licht der Öffentlichkeit erblicken wird, während AMD mit dem neuen R600 doch noch ein Knüllereinstand gelingen könnte.

Natürlich ist hier der Wunsch Vater des Gedanken, aber Argumente warum 65nm absolut ausgeschlossen ist, würden mich doch interessieren.

seahawk
2007-03-16, 16:59:07
Ich gebe zu, absolut keine Ahnung zu haben, aber neugierig bin ich trotzdem. Warum wird eigentlich die Möglkichkeit, dass der r600 bereits in 65nm kommt und somit in Wirklichkeit gleich der Refresh unter diesem Namen veröffentlicht wird, so rigeros abgetan?

Auch im neuen Artikel zu D3D10-Chips wird diese Spekulation nicht erwähnt. Immerhin hat man mit AMD und damit indirekt IBM jede Menge Know-How hinzugewonnen, das natürlich im ursprünglichen ATI-Design noch keinen Einzug halten konnte. Wenn der "ursprüngliche" R600 wirklich so ein Stromverbrauchsmonster ist, dann wäre ihn vor seiner Geburt zu beerdigen und alle Ressourcen in den frühen Refresh zu setzen doch ein guter Weg. Damit wären dann die ganzen Insiderinfos und frühen "OEM-Fotos" natürlich Geschichte und bezögen sich allesamt auf einen Chip, der nie das Licht der Öffentlichkeit erblicken wird, während AMD mit dem neuen R600 doch noch ein Knüllereinstand gelingen könnte.

Natürlich ist hier der Wunsch Vater des Gedanken, aber Argumente warum 65nm absolut ausgeschlossen ist, würden mich doch interessieren.

Ich glaube mal das AMD nicht viel know-how hinsichtlich der Fertigung bei TSMC haben dürfte.

puntarenas
2007-03-16, 17:01:45
Guter Punkt, aber warum sollte TSMC (mithilfe von AMD/IBM?) die Probleme nicht in den Griff kriegen, mit den kleineren Chips geht es ja scheinbar auch und das Zeitfenster wurde ja immer größer, jetzt sind wir schon bei Mai bis zum Release.

reunion
2007-03-16, 17:02:29
Das hat weniger mit dem "know-how" von ATi, als viel mehr mit der Fertigung von TSMC zu tun. Ich denke bis auf Intel ist momentan niemand in der Lage, eine >700mio Transistoren-Chip in einem High-Performance Prozess auf 65nm Strukturbreite bei akzeptablen Yields herzustellen.

deekey777
2007-03-16, 17:04:56
Das heisst das AGP möglich ist - wenn aba kein OEM eine AGP Version bestellt (und die entwicklung bezahlt) wird wohl auch keine entwickelt ...

Wenn sich das PCB der RV630 (Pro?) kaum vom PCB der X1650XT unterscheidet, dann kann man auch annehmen, dass das PCB für AGP der X1650XT auch für den RV630 mit wenigen Modifikationen passen kann.
GeCube seine X1950XT AGP im Alleingang fertiggestellt, auch gibt weitere Hersteller, die eigene PCBs für die X1950Pro PCIe herstellen/nutzen (zB Palit).
http://www.hisdigital.com/html/product_ov.php?id=276&view=yes
Eine RV610Pro AGP würde mich nicht überraschen, genau wie eine RV630 Sefadu mit DDR2 (auch von der X1600Pro gab es nur DDR2-Versionen, die X1600XT kam viel später).


(Vielleicht ist es auch kein Zufall, dass seit Kurzem eine X1650XT mit DDR2 ("X1650XL") verkauft wird. Diese Platine wäre für die RV630 Sefadu ideal.)

reunion
2007-03-16, 17:07:22
Lies mal die News:
http://www.vr-zone.com/index.php?i=4795

In einem Forum kann man schon interessante Infos bekommen, wenn man auch was tut.
Wen interessiert eigentlich 3D 2005? 3D 2006 wäre etwas interessanter (wegen GT3&4).

Vorallem auch interessant, dass nun die Videosignale nicht mehr über die Shader, sondern separat über eine dezidierten Videoprozessor berechnet werden. Dazu noch die schon bekannte HDMI-Sound-Unterstützung. In dieser Hinsicht ist man der Konkurrenz deutlich voraus. Aber schön langsam wäre auch man die Leistung interessant.

B3D hat die exakte Die-Size von RV610 und RV630 ermittelt:


Nicht verwunderlich warum NV unruhig im Bezug auf den RV610 ist, ihr Gegenpart G86 ist immerhin 115mm² groß.

Das zeigt zumindest schonmal, dass RV630 deutlich mehr als RV610 ist. Also nicht mehr so wie bei RV515/RV530. Und in 153mm² auf 65nm bringt man doch einiges an Transistoren hinein.

foenfrisur
2007-03-16, 17:46:21
ist es nicht in zukunft möglich, das amd/ati seine chips selber fertigt?
oder sind die verfahren so extrem unterschiedlich zwischen cpu und gpu?

und fertigt nv nicht auch bei tsmc? (nv besticht tsmc bestimmt :) damit die den 65nm prozess nicht hinbekommen dürfen^^ )

mfg

Nakai
2007-03-16, 17:48:09
GPU besteht aus 90% Logik und 10% und eine CPU etwa aus 70% Cache und 30% Logik.
Außerdem ist die Transistorzahl deutlich höher...

mfg Nakai

AnarchX
2007-03-16, 17:50:01
ist es nicht in zukunft möglich, das amd/ati seine chips selber fertigt?
oder sind die verfahren so extrem unterschiedlich zwischen cpu und gpu?


Einmal dies und auf der anderen Seite hat AMD dafür keine Kapazitäten, immerhin müssen sie ja schon aktuell bei Chatered fremdfertigen lassen und auch Fusion wird wohl nicht in den AMD-Fabs gefertigt werden.

StefanV
2007-03-16, 18:06:53
ist es nicht in zukunft möglich, das amd/ati seine chips selber fertigt?

Ja, aber nicht in Naher Zukunft.


oder sind die verfahren so extrem unterschiedlich zwischen cpu und gpu?

Ja, das auch.
u.A. weil 'normale' CPUs fast nur aus Cache bestehen, GPUs aber ausschließlich aus Logik...

w0mbat
2007-03-16, 18:11:33
Wie viel vom R600 ist der RV630 nochmal? Weil die 12k für den RV630 sind ja nicht so viel weniger als die 18k für den R600.

dildo4u
2007-03-16, 18:14:18
Wie viel vom R600 ist der RV630 nochmal? Weil die 12k für den RV630 sind ja nicht so viel weniger als die 18k für den R600.
CPU Limit?Ohne wirklich starke CPU kommt man nicht so leicht über 20k beim 05.Von daher würde ich die Werte nicht als Grundlage zum Leistungsvergleich nehmen.

Sterem
2007-03-16, 18:15:26
Wie viel vom R600 ist der RV630 nochmal? Weil die 12k für den RV630 sind ja nicht so viel weniger als die 18k für den R600.

Ich glaube du bist nur ein dummschwätzer genau so wie der Dominator18 im Luxx Forum.Du Arbeitest sicherlich genau so wie D18 auch nicht bei ATI.Du weist von nichts,genau so wie andere.Du brauchst nur aufmerksamkeit mehr nicht....

w0mbat
2007-03-16, 18:18:12
Nein, die Werte sind von OC-Workbench himself.

RV630 (X2600 XT): 12k+ 3DMark05
R600 (X2900 GT): ~18k 3DMark05

Ronny145
2007-03-16, 18:25:08
Nein, die Werte sind von OC-Workbench himself.

RV630 (X2600 XT): 12k+ 3DMark05
R600 (X2900 GT): ~18k 3DMark05



Höchstpersönlich von ihm erfahren oder wie? ;D
Du wirst immer unseriöser.
17xxx Punkte im übrigen: http://forums.ocworkbench.com/bbs/showthread.php?t=60799

Und lass es einfach sein dieses ohne Quellen geposte. Du willst nur den Anschein erwecken, dass du Infos hast. In Wirklichkeit weißt du nicht mehr als andere und behilfst dich von öffentlichen Infos. Das geht in anderen Foren gut, hier klappt das aber nicht.

Gandharva
2007-03-16, 18:25:39
Langsam macht AMD/ATI sich echt lächerlich. Nun soll der R600 gar nicht auf der Cebit gezeigt werden und stattdessen gibt es einen "Tech-Day" innerhalb der nächsten 3 Wochen an dem er dann präsentiert wird. Mal sehen ob der auch wieder abgesagt/verschoben wird...

w0mbat
2007-03-16, 18:28:14
Höchstpersönlich von ihm erfahren oder wie? ;D
Du wirst immer unseriöser.
17xxx Punkte im übrigen: http://forums.ocworkbench.com/bbs/showthread.php?t=60799

Und lass es einfach sein dieses ohne Quellen geposte. Du willst nur den Anschein erwecken, dass du Infos hast. In Wirklichkeit weißt du nicht mehr als andere und behilfst dich von öffentlichen Infos. Das geht in anderen Foren gut, hier klappt das aber nicht.

Nein, "himself" heißt daß sie nicht einfach aus seinem Forum, sonder von ihm sind.

Ronny145
2007-03-16, 18:32:11
Nein, "himself" heißt daß sie nicht einfach aus seinem Forum, sonder von ihm sind.


Und die genaue Punktzahl hat er dir persönlich mitgeteilt, natürlich.

w0mbat
2007-03-16, 18:33:27
Nein, er hat sie geschrieben. Du bist irgendwie komisch. Habe ich doch nie geschrieben.

deekey777
2007-03-16, 18:35:26
Seid ihr jetzt fertig?
-----------------
Hm, X2900 GT? Die Abkürzung kommt mir irgendwie bekannt vor.

Nakai
2007-03-16, 18:35:36
oO Ronny flamt...:|
(ich würde das unterlassen...)
(€: Mod ist dazwischen gegangen^^)
Naja dann muss der G81 schon einiges bringen um den R600 zu schlagen, eine Geforce 8800Ultra wird das nämlich nicht schaffen.

mfg Nakai

crux2005
2007-03-16, 18:40:42
Hm, X2900 GT? Die Abkürzung kommt mir irgendwie bekannt vor.

:| einmal steht da X2900GT und dann:

Our news correspondent spoke to some peolpe at CeBIT and was told that the scores of the upcoming AMD DX10 card X2900XT will come close to the following :

3Dmark05 - 17xxx
3Dmark06 - 11xxx

It is probably some predictions. We will know when we receive the cards for tests in the coming weeks.

deekey777
2007-03-16, 18:45:42
Tja, so einen Verschreiber muss man schon hinkriegen.
Ich will ehrlicherweise keine GT sehen. Sonst gibt's wieder das Theater wie vorher mit der X1800GTO, deren Aufgabe war, mit der 7600GT irgendwie mitzuhalten, da es keine vergleichbare Grafikkarte gab.
Andererseits würde es mich nicht wundern, wenn es eine X2900GT oä geben wird, wenn die RV630XT mit der 8600GTS nicht mithalten kann.

|MatMan|
2007-03-16, 19:04:22
Vorallem auch interessant, dass nun die Videosignale nicht mehr über die Shader, sondern separat über eine dezidierten Videoprozessor berechnet werden.
Wo ist denn darin der Vorteil? Gerade die Wiederverwendung vorhandener Transistoren macht doch Sinn. Leistung zähle ich nicht als Argument, die haben alle Karten, bis evtl. aufs absolute Lowend, genug.


Außerdem wäre ich mir nicht mehr so sicher, ob die 8600 GTS gegen eine RV630XT wirklich so stark aussieht... durch die vergleichbare Die-Größe bei kleinerem Fertigungsprozess (= mehr Transistoren) und die höhere Leistungsaufnahme (wozu hat ATI sonst einen Dualslot Kühler?) sieht das für mich eher für einen leistungsmäßigen Sieg für ATI aus...

AnarchX
2007-03-16, 19:05:08
Jetzt soll auch noch eine AGP-Version kommen...
http://www.pcgameshardware.de/?article_id=571646

Was soll der Quatsch?
Andererseits wäre eine kleine RV610 AGP nicht verkehrt.

Da scheint wohl etwas dran zu sein:

Both product manager and PR rep told us the firm "will not abandon AGP users".

We asked about the continuing contraction of the AGP market, but were told that the demand for AGP is still very strong. In fact, AGP accounts for the lion's share of some markets.

So for those users that want a AGP perfromance part this company will offer DirectX 10 boards based on RV610 and RV630. In fact, there will even be an overclocked version of the RV630XT, which could even end up cooled by a combined heat-pipe peltier cooler.
http://www.theinquirer.net/default.aspx?article=38288

Wobei ich mich frage wie man letzere Version versorgen will...

Ailuros
2007-03-16, 19:07:07
Rechnerisch ziemlich genau ~51% größer. Aber das weiß du sicher auch selbst, warum also die Frage?
Ich kann mir nicht vorstellen, dass das so viel kostet. Ein Transistor in 65nm braucht gegenüber einem in 80nm nur mehr ~66% der ursprünglichen Fläche.

Was fuer ein Transistor aber? Ich uebersehe mal die merkwuerdige Generalisierung oben und frage dann eben gleich nochmal wie gross G84 Deiner Meinung nach unter 90nm gewesen waere.

Ailuros
2007-03-16, 19:09:07
http://www.theinquirer.net/default.aspx?article=38288

Wobei ich mich frage wie man letzere Version versorgen will...

Man ueberschreitet eben wieder gewisse Vorraussetzungen und wird mittelfristig dazu gezwungen das Ding unter den Teppich zu kehren (und ja es ist eindeutiger Sarkarsmus LOL).

reunion
2007-03-16, 19:31:25
Ich will ehrlicherweise keine GT sehen. Sonst gibt's wieder das Theater wie vorher mit der X1800GTO, deren Aufgabe war, mit der 7600GT irgendwie mitzuhalten, da es keine vergleichbare Grafikkarte gab.
Andererseits würde es mich nicht wundern, wenn es eine X2900GT oä geben wird, wenn die RV630XT mit der 8600GTS nicht mithalten kann.

Eine X2900GT wird es sicher geben. Und das unabhängig davon, wie es mit den Konkurrenzprodukten aussieht, da man logischerweise auch tw. defekte Chips verkaufen will.

Was fuer ein Transistor aber? Ich uebersehe mal die merkwuerdige Generalisierung oben und frage dann eben gleich nochmal wie gross G84 Deiner Meinung nach unter 90nm gewesen waere.

Was willst du sagen?

Gast
2007-03-16, 20:24:09
"All AMD R6xx chips are 65 nanometre"
http://uk.theinquirer.net/?article=38292

puntarenas
2007-03-16, 20:34:07
Sowas wollte ich lesen, auch wenn es nur vom Inquirer kommt.

Danke!

Nakai
2007-03-16, 20:57:49
Wird er doch soviel verbrauchen wie der G80...naja mal schauen...;D

mfg Nakai

Hauwech
2007-03-16, 21:06:46
R600 in 80nm canceled im Januar und schon ab Mitte März Massenproduktion in 65nm? :|

Gast
2007-03-16, 21:26:53
kann man das Gerücht mit Ailuros Posting:http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5300380&postcount=543
in einen Zusammenhang bringen?

Gast
2007-03-16, 21:33:15
R600 in 80nm canceled im Januar und schon ab Mitte März Massenproduktion in 65nm? :|

Niemals, 65mn Produktion ist doch erst am Sampln, vor July gibts da gar nichts auf dem Markt.

deekey777
2007-03-16, 21:39:00
http://forum.beyond3d.com/showthread.php?t=39676
Das sind die Kopfschmerzen: 82 mm² gegen 115 mm².

Gast
2007-03-16, 21:40:19
Höchstpersönlich von ihm erfahren oder wie? ;D
Du wirst immer unseriöser.
17xxx Punkte im übrigen: http://forums.ocworkbench.com/bbs/showthread.php?t=60799


Die Zahl bringt mal gar nichts hrhr...
Ohne AA/AF zu benchen ist ja total Hirnrissig, da dreht doch jede Graka Däumchen.
Wäre es ein Custom Setting ala 1280*1024 4xAA/16xAF wäre es wohl auf einer GTX grade so immer noch CPU Limitiert.
Richtige Benchmarks sollten in 1600*1200 4xAA/16xHQAF ohne EATM/TSSAA durchgeführt werden. Und genau da werden die "Mainstream" GPUs wie 8600GTS und X2600XTX (lol?) einbrechen, und nur die Highend Grakas werden weiter skalieren.

Außerdem kann mir keiner erzählen den 3DMark durchlaufen zu lassen würde länger dauern als ne Timedemo in Oblivion, FEAR oder Prey...

Gast
2007-03-16, 21:42:28
Wenn sich das PCB der RV630 (Pro?) kaum vom PCB der X1650XT unterscheidet, dann kann man auch annehmen, dass das PCB für AGP der X1650XT auch für den RV630 mit wenigen Modifikationen passen kann.


dass R(V)5xx und R(V)6xx pinkompatibel sind halte ich für verdammt unwahrscheinlich.

Gast
2007-03-16, 21:43:46
Vorallem auch interessant, dass nun die Videosignale nicht mehr über die Shader, sondern separat über eine dezidierten Videoprozessor berechnet werden. Dazu noch die schon bekannte HDMI-Sound-Unterstützung. In dieser Hinsicht ist man der Konkurrenz deutlich voraus. Aber schön langsam wäre auch man die Leistung interessant.
.

inwiefern? bei nvidia gibt es seit dem NV40 einen dezidierten videoprozessor der kontinuierlich verbessert wurde.

Gast
2007-03-16, 21:45:58
http://forum.beyond3d.com/showthread.php?t=39676
Das sind die Kopfschmerzen: 82 mm² gegen 115 mm².

Frage ist wann RV610 auf den Markt kommt, G86 sollte ja 1Monat lang schon in der Massenproduktion sein. Außerdem sollte er noch "günstiger" in der Produktion sein, auch wenn er größer ist.

Ist der einzige Chip bei dem ATI diesmal "vorerst" eine kleinere DIE bietet oder? Macht man mit den LowCost Teilen eigentlich gut Umsatz? In den meisten OEMs sind doch eher X1600 und G7600(G7900) verbaut.
Also ist RV630 + G84 der interessanteste Markt?

Gast
2007-03-16, 21:47:53
Was macht man mit HDMI Soundunterstützung? Onboard Sound tuts doch schon seit Jahren, auch im Wohnzimmer *g
Der "lag" an PCI-E Soundkarten und VISTA tut sein übriges um den Soundmarkt weiter in den "Low-Cost" Onboard Chip Bereich zu treiben.

StefanV
2007-03-16, 21:54:28
dass R(V)5xx und R(V)6xx pinkompatibel sind halte ich für verdammt unwahrscheinlich.
Genauso wie RV200, RV250, RV350 usw...

Warum soll das Unwahrscheinlich sein, spart doch schließlich Kosten!

deekey777
2007-03-16, 21:57:24
Was macht man mit HDMI Soundunterstützung? Onboard Sound tuts doch schon seit Jahren, auch im Wohnzimmer *g
Der "lag" an PCI-E Soundkarten und VISTA tut sein übriges um den Soundmarkt weiter in den "Low-Cost" Onboard Chip Bereich zu treiben.
Du brauchst keine wietere Verbindung zur Soundkarte, die Grafikkarte greift den Sound selbst ab und leitet diesen (Datenstrom) über HDMI weiter.
Frage ist wann RV610 auf den Markt kommt, G86 sollte ja 1Monat lang schon in der Massenproduktion sein. Außerdem sollte er noch "günstiger" in der Produktion sein, auch wenn er größer ist.

Ist der einzige Chip bei dem ATI diesmal "vorerst" eine kleinere DIE bietet oder? Macht man mit den LowCost Teilen eigentlich gut Umsatz? In den meisten OEMs sind doch eher X1600 und G7600(G7900) verbaut.
Also ist RV630 + G84 der interessanteste Markt?
Keine Ahnung, welche Grafikkarten am meisten in OEM-Rechnern stecken, gibt's eine Quelle?

Laut iXBT bzw. einer anonymen Quelle aus China soll der RV630 mit 540 MHz/700 MHz etwa 3000 3DMarks in 2006 und 5000 in 2005 schaffen.

Gouvernator
2007-03-16, 22:02:20
Niemals, 65mn Produktion ist doch erst am Sampln, vor July gibts da gar nichts auf dem Markt.

Na und? Dann haben alle mehr Leistung pro € =)

Gast
2007-03-16, 22:14:58
Das interessiert doch keinen OEM, die greifen ab was grade auf dem Markt ist und nicht was "as soon as build" verfügbar ist...

dargo
2007-03-16, 23:00:16
"All AMD R6xx chips are 65 nanometre"
http://uk.theinquirer.net/?article=38292
Ui. :eek:
Falls das stimmen sollte, was meint ihr wie weit man mit der ursprünglichen TDP von 240W runtergehen könnte?
Wäre mit 65nm vs. 80nm ~180W machbar? Denn dann würde man die TDP der G8800GTX erreichen.

Daredevil
2007-03-16, 23:11:29
Wieso sollte er die TPD der GTX erreichen?
Darf ruhig schon mehr verbrauchen, ist ja schließlich auch schneller ;O

Ne Spaß ^^
Ich bin auch schon rattig auf das Teil und will mal mehr Infos grrr :(

dargo
2007-03-16, 23:12:32
Wieso sollte er die TPD der GTX erreichen?

Ich hätte nichts dagegen wenn er sogar drunter liegen würde. :D

Gast
2007-03-16, 23:21:14
Warum soll das Unwahrscheinlich sein, spart doch schließlich Kosten!

weil das R(V)6xx-design ein komplett neues ist?

StefanV
2007-03-16, 23:24:41
weil das R(V)6xx-design ein komplett neues ist?
Was hat das damit zu tun?!

Man kanns trotzdem Pinkompatibel machen, hat man ja früher auch gemacht, auf den Hinweis von RV200, RV250, RV350 bist ja auch nicht eingegangen.
Was hat ein RV350 mit einem RV200 zu tun, außer das er zu eben jenem Pinkompatibel ist?!

Warum macht mans?!
Weil spart kosten (sagte ich ja schon)...

Gerade bei Notizbüchern ist sowas ganz praktisch, da braucht man nur einen anderen Chip draufpacken, ev. noch die Spannung anpassen, feddisch.

Gast
2007-03-16, 23:35:24
Man kanns trotzdem Pinkompatibel machen, hat man ja früher auch gemacht, auf den Hinweis von RV200, RV250, RV350 bist ja auch nicht eingegangen.
Was hat ein RV350 mit einem RV200 zu tun, außer das er zu eben jenem Pinkompatibel ist?!


R2xx-R4xx sind das stammen vom selben design, pinkompatibilität sollte also nicht so schwer zu erreichen sein.

Ailuros
2007-03-16, 23:55:10
http://forum.beyond3d.com/showthread.php?t=39676
Das sind die Kopfschmerzen: 82 mm² gegen 115 mm².

Sagt aber nichts ueber die Leistung aus (obwohl zugegeben in dem Marktsegment eigentlich multimedia Schnickschack wichtiger ist als Leistung).

AnarchX
2007-03-17, 00:47:48
Laut iXBT bzw. einer anonymen Quelle aus China soll der RV630 mit 540 MHz/700 MHz etwa 3000 3DMarks in 2006 und 5000 in 2005 schaffen.

Selbst mit GDDR4 muss der RV630XT wohl weit jenseits der 900MHz liegen, wenn die 12k von VR-Zone stimmen sollten.
Zudem sieht das ja nach einen schlechteren Pro-MHz-Leistung aus, als bei G73 oder RV560, was mich diese Werte doch sehr anzweifeln lässt.

Headman
2007-03-17, 01:16:12
Laut iXBT bzw. einer anonymen Quelle aus China soll der RV630 mit 540 MHz/700 MHz etwa 3000 3DMarks in 2006 und 5000 in 2005 schaffen.

Dann wäre die Karte ja langsamer als eine x1600xt.
Stammen die Werte nicht vielleicht doch eher vom rv610?

Gast
2007-03-17, 08:07:25
"All AMD R6xx chips are 65 nanometre"Wenn das stimmt, sieht es ja fast so aus, als sei der ursprüngliche R600 nicht konkurrenzfähig gewesen im Vergleich mit der 8800-Serie. Allerdings habe ich irgendwie so meine Zweifel ob man im Mai schon einen High-End-Chip in 65 nm bringen kann. Gibt es eine weitere Verschiebung oder ist die News vom Inq doch Schwachsinn?

Ailuros
2007-03-17, 09:21:14
Wenn das stimmt, sieht es ja fast so aus, als sei der ursprüngliche R600 nicht konkurrenzfähig gewesen im Vergleich mit der 8800-Serie. Allerdings habe ich irgendwie so meine Zweifel ob man im Mai schon einen High-End-Chip in 65 nm bringen kann. Gibt es eine weitere Verschiebung oder ist die News vom Inq doch Schwachsinn?

Ich hab um ehrlich zu sein aufgehoert zu fragen, aber eine andere These die von einer Vorstellung mit extrem begrenzter Verfuegbarkeit unter 80nm und irgend eine merkwuerdige "herumschleicherei" bis man mit 65nm mit voller Pulle nachladen kann koennte vielleicht schon stimmen.

Macht aber dann eben genauso viel Sinn wie die "Terraflop in a box" Bildchen.

reunion
2007-03-17, 09:49:38
Ist der einzige Chip bei dem ATI diesmal "vorerst" eine kleinere DIE bietet oder?

Nein, jeder Chip von ATi ist "vorerst" kleiner als das Konkurrenzprodukt:
R600: ~420mm² vs. 484mm² auf G80
RV630: 153mm² vs. ~160mm² auf G84
RV610: 82mm² vs. 115mm² auf G86
Man hat allerdings auch überall die kleinere Strukturbreite, also vermutlich mehr Transistoren.

Laut iXBT bzw. einer anonymen Quelle aus China soll der RV630 mit 540 MHz/700 MHz etwa 3000 3DMarks in 2006 und 5000 in 2005 schaffen.

Selbst ein RV530 erreicht bei gleicher Taktfrequenz deutlich mehr, und dieser ist nur 1/4 R580. Das ist mehr als unwahrscheinlich.

"All AMD R6xx chips are 65 nanometre"
http://uk.theinquirer.net/?article=38292

Das ist doch totaler Blödsinn. Entweder bewusst gestreute Fehlinformationen, oder einfach nur eine Abschreibübung vom INQ. Schon alleine die Begründung dahinter, dass man mit 80nm zu schlechte Yields hatte, und deshalb gleich auf 65nm ging. :hammer:

Gast
2007-03-17, 10:45:18
Bin auf die Karte mit den Dualcore gespannt

StefanV
2007-03-17, 10:56:56
Das ist doch totaler Blödsinn. Entweder bewusst gestreute Fehlinformationen, oder einfach nur eine Abschreibübung vom INQ. Schon alleine die Begründung dahinter, dass man mit 80nm zu schlechte Yields hatte, und deshalb gleich auf 65nm ging. :hammer:
Den Link hast aber schon gesehen, oder? ;)

http://uk.theinquirer.net/?article=38292

Oder anders gesagt: das IST der INQ ;)

Nakai
2007-03-17, 10:59:09
Nun ja, falls es tatsächlich 65Nm ist, dann wäre die Verschiebung begründet.
Selbst Ail hat gemeint, dass 65Nm früher kommt als erwartet.

mfg Nakai

deekey777
2007-03-17, 11:05:13
Selbst mit GDDR4 muss der RV630XT wohl weit jenseits der 900MHz liegen, wenn die 12k von VR-Zone stimmen sollten.
Zudem sieht das ja nach einen schlechteren Pro-MHz-Leistung aus, als bei G73 oder RV560, was mich diese Werte doch sehr anzweifeln lässt.

Ich habe in meinem Posting extra angemerkt, dass es nicht klar ist, um welchen Speicher es sich handelt. iXBT nimmt es da nicht sehr ernst, schreiben meist den "DDR-Takt", oder den realen Takt und dann den doppelten "effektiv".
Es wäre auch vorstellbar, dass es sich um die DDR2-Version handelt.
Es wäre auch vollstellbar, dass es sich um eine Fehlinfo handelt, und die Werte der RV630 nicht stimmen. Und auch die 12.000 der RV630XT sind auch alles andere als im Stein gemeißelt.

Gast
2007-03-17, 11:05:19
Hi,
zum Thema 65nm..
http://translate.google.com/translate?u=http%3A%2F%2Fxdiy.com.cn%2Fn7643c78.aspx&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Hi noch ein paar Infos von AMD-R600 zur Cebit:
http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://www.enet.com.cn/article/2007/0317/A20070317486666.shtml&prev=/language_tools

schon mal eine Ersatz Cooling Lösung für G80 + R600
http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://www.enet.com.cn/article/2007/0317/A20070317486662.shtml&prev=/language_tools

Rick

horn 12
2007-03-17, 11:18:17
@Nakai

Der 600 soll ja nun in 65nm kommen, daran zweifle ich nicht mehr.
Wie enorm stark wird der R600 in diesem Verfahren nun werden, und der Stomverbrauch soll nur ca. ein Drittel von 80nm Verfahren werden.
Somit sollten auch hohe Taktraten >800 leicht erreicht werden.
Die Prophezeiung unseres "Flagship" könnte also durchaus stimmen, wenn er ca. 50% Mehrperformance des R600 gegenüber der 8800 GTX voraussagt.
Dieser wird wohl ein Vorserienmodell haben um zu testen udg.
Dann könnte bereits eine X2900 XL ca. die Performance einer 8800 GTX in etwa besitzen, echt Geil:eek: :cool:

Nakai
2007-03-17, 11:27:08
Ich zweifle immer diese hohen Taktraten an, da diese auch mit einem höheren Stromverbrauch verbunden sind.
Ob es tatsächlich ein Drittel ist hängt vom Herstellungsprozess ab und wie weit dieser ausgereft ist.

Ansonsten, einfach abwarten...

mfg Nakai

Gast
2007-03-17, 11:28:47
Wenn ein Vorserienmodel schon bis zu 50% schneller in Spielen ist,dann freu ich mich auf Karte,die endlich mal nen guten Leistungsschub bringt.
Und dazu noch die bessere Bildqualität von ATI.

Godmode
2007-03-17, 11:37:31
Wenn ein Vorserienmodel schon bis zu 50% schneller in Spielen ist,dann freu ich mich auf Karte,die endlich mal nen guten Leistungsschub bringt.
Und dazu noch die bessere Bildqualität von ATI.

Hast du den G80 verschlafen?:wink:

Gast
2007-03-17, 11:37:36
und der Stomverbrauch soll nur ca. ein Drittel von 80nm Verfahren werden.Wie kommst du denn auf sowas? Warum sollte der Stromverbrauch nur noch ein Drittel betragen?
Dann könnte bereits eine X2900 XL ca. die Performance einer 8800 GTX in etwa besitzen, echt GeilJa Horn, echt geil, was du dir alles aus der Nase ziehst. ;)

Raff
2007-03-17, 11:39:53
Wenn ein Vorserienmodel schon bis zu 50% schneller in Spielen ist,dann freu ich mich auf Karte,die endlich mal nen guten Leistungsschub bringt.
Und dazu noch die bessere Bildqualität von ATI.

Welche "bessere BQ" soll das sein? Der G80 ist einem R580 hier in allen Belangen überlegen oder ebenbürtig.

MfG,
Raff

foenfrisur
2007-03-17, 11:42:05
...und der Stomverbrauch soll nur ca. ein Drittel von 80nm Verfahren werden....

nein, es heisst, er soll 1/3 weniger als das 80nm verfahren haben ;)
also 2/3 des 80nm prozesses, das ist noch ein unterschied

mfg

Gast
2007-03-17, 11:46:11
Und dazu noch die bessere Bildqualität von ATI.Willst du trollen oder bist du wirklich nicht ganz auf dem neuesten Stand? Die aktuellen NV-Karten (8800-Serie) sind den ATIs in Sachen Bildqualität sowohl beim AA als auch beim AF überlegen.

Nakai
2007-03-17, 12:04:49
Willst du trollen oder bist du wirklich nicht ganz auf dem neuesten Stand? Die aktuellen NV-Karten (8800-Serie) sind den ATIs in Sachen Bildqualität sowohl beim AA als auch beim AF überlegen.

Okay, aber ein Laie wird da wohl kaum einen Unterschied sehen. Wenn der R600 einen besseren AF und AA-Modus bietet ist alles in Ordnung.

mfg Nakai

puntarenas
2007-03-17, 12:09:22
Das HQAF der r5xx würde mir schon reichen, Hauptsache ATI verzichtet auf Filtertricks. Andererseits kann es natürlich auch passieren, dass beide Hersteller diese "Optimierungen" wieder vorantreiben, wenn der R600 (also sein eigener Refresh in 65nm!) einschlägt wie eine Bombe und Nvidia nachlegen muss.

Ich hoffe, der Druck auf Nvidia ist groß genug, bei der jetztigen Bildqualität zu bleiben und wenn ATI diese nicht ebenfalls bietet, dann wird eben mit den Füßen abgestimmt.

Gast
2007-03-17, 12:17:41
Okay, aber ein Laie wird da wohl kaum einen Unterschied sehen. Wenn der R600 einen besseren AF und AA-Modus bietet ist alles in Ordnung.G80 hat beim AA den enormen Vorteil der Hybridmodi, die bei der Performance der 8800er auch in neueren Spielen nutzbar sind. Dazu kommt, dass es beim G80 keine AI-Sauerein gibt.
Das HQAF der r5xx würde mir schon reichenMir nicht. Zumindest nicht solange sie diesen AI-Mist beibehalten. Unter AI-Off ist die BQ bei ATI in Ordnung, aber da man aus vielerlei Gründen (u.a. Crossfire) zu AI gezwungen ist, ist die BQ nicht konkurrenzfähig im Vergleich mit G80. Das AI-Geflimmer muss ich mir bei derart teuren Karten nicht geben.

horn 12
2007-03-17, 12:17:41
@foenfrisur

Ja, Sorry. Habe mich falsch ausgedrückt.
Aber die Sache mit "Flagship" wird mir immer vertrauter, mal sehen ob er dann doch schlussendlich Recht behalten hat!!

foenfrisur
2007-03-17, 12:27:33
Das AI-Geflimmer muss ich mir bei derart teuren Karten nicht geben.

wo lebst du denn?? habe kein flimmern...selbst auf advanced, nutze aber normalerweise standard...und in diversen tests ist auch belegt, das durch ai:standard kein bildqualitätsverlust "wahrnehmbar" ist (auch wenn er wohl vorhanden ist)...
also spar dir deine märchenstunde...
dennoch hat der g80 die bessere/optimalere bildquali im moment ;)

das is echt totaler humbug, was du da erzählst...flimmern auf ein cf-system wegen ai...

mfg

Gast
2007-03-17, 12:37:51
...und in diversen tests ist auch belegt, das durch ai kein bildqualitätsverlust wahrnehmbar istMeinst du das jetzt ernst? Natürlich leidet die Bildqualität unter AI und das ist nicht nur wahrnehmbar, sondern sogar äußerst störend.
also spar dir deine märchenstunde...Das hat mit Märchenstunde nichts zu tun. AI-Standard flimmert definitiv auf R5x0 und das nicht zu knapp.

Gast
2007-03-17, 12:40:02
Übrigens bin ich nicht der einzige, dem das Bri-Flimmern von AI-Standard störend auffällt. Wenn du einem dahergelaufenem Gast nicht glaubst, frag mal Raff. Der hatte damals sogar einen Thread zu diesem Thema eröffnet.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291789

foenfrisur
2007-03-17, 12:52:11
Meinst du das jetzt ernst? Natürlich leidet die Bildqualität unter AI und das ist nicht nur wahrnehmbar, sondern sogar äußerst störend.
Das hat mit Märchenstunde nichts zu tun. AI-Standard flimmert definitiv auf R5x0 und das nicht zu knapp.

beim cat 5.1 vielleicht ;)

cb schreibt zu ai:
"liefern höhere Einstellungen bei nVidia eine deutlich schlechtere Bildqualität, welche nicht mehr zu empfehlen ist und bei uns das Grauen hervorriefen. Die Optimierungsfunktion Catalyst A.I. von ATi dagegen konnte regelrecht begeistern.

Die Bildqualität nimmt zwischen der vollständigen Deaktivierung und der Standardeinstellung („Low“) sichtbar nicht ab, erzeugt aber einen deutlichen Gewinn an Geschwindigkeit. Hier muss man ATi klar ein großes Lob aussprechen. Der Filteralgorithmus ist diesbezüglich dem von nVidia überlegen."

unter adv. kann ich es auch nicht wahrnehmen...

danke
mfg

Gast
2007-03-17, 12:56:29
unter adv. kann ich es auch nicht wahrnehmen...Das ist schön für dich - ehrlich. Aber das ändert nichts daran, dass AI die Bildqualität massiv verschlechtert. Das Flimmern liegt definitiv am AI, da mit AI-Off alles in bester Ordnung ist.

Sicher, dass der Text von CB schon aus R5x0-Zeiten stammt? Die R4x0er hatten die Flimmerprobleme nämlich noch nicht in dieser Intensität.

foenfrisur
2007-03-17, 12:59:00
damals
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291789

das triffts ganz gut

ich denke dein wissen ist überholt...wenn ich bei meinem brother die bildquali auf seinem cf-system anschauen, nenne ich das fast perfekt ;)
(noch besser wäre sie wohl auf einer g80)
aber das kannst du schlecht beurteilen, wenn du auf threads von vor einem jahr verweist...

es hat sich hier einiges getan...

mfg

puntarenas
2007-03-17, 13:04:39
es hat sich hier einiges getan...

Leider herrscht aber noch immer Verwirrung, besonders inwiefern HQAF (Area-AF) in Verbindung mit AI-Standard die Flimmerproblematik beeinflusst würde mich doch mal abschließend interessieren, denn wenn AI-Standard tatsächlich noch immer die Qualität versaut, dann macht das Zuschalten von Area-AF doch keinen Sinn?!

An den Treibern für die r5xx-Generation dürfte sich ja nichtmehr allzu viel ändern, vielleicht erbarmt sich jemand aus der Crew und liefert doch noch eine erschöpfende Analyse der x19x0er, Millionen Nutzer würden es ihm danken!

Gast
2007-03-17, 13:07:58
es hat sich hier einiges getan...Eben nicht. Die Bri-Sauerein sind immer noch im Treiber drin und bei angeschaltetem AI auch aktiv. Nur AI-Off liefert gute Bildqualität, dafür bricht die Performance aber massiv ein und auch Crossfire funktioniert nicht mehr wie es soll.

Gast
2007-03-17, 13:10:22
denn wenn AI-Standard tatsächlich noch immer die Qualität versaut, dann macht das Zuschalten von Area-AF doch keinen Sinn?!Doch, natürlich macht das noch Sinn, da man AI ja auch einfach ausschalten kann. Aber auch so ist zwar flimmerndes, aber dafür fast winkelunabhängiges AF immer noch besser als flimmerndes und dazu winkelabhängiges.
An den Treibern für die r5xx-Generation dürfte sich ja nichtmehr allzu viel ändern, vielleicht erbarmt sich jemand aus der Crew und liefert doch noch eine erschöpfende Analyse der x19x0er, Millionen Nutzer würden es ihm danken!Ja, das wäre fein. Raff, wolltest du nicht mal einen AI-Artikel schreiben?

Zocker_28
2007-03-17, 13:19:28
Welche "bessere BQ" soll das sein? Der G80 ist einem R580 hier in allen Belangen überlegen oder ebenbürtig.

MfG,
Raff

Was hier manche sagen ist echt lustig " hast du den G80 verpennt":|
Ich würd nie abstreiten das der G80 nen besseres AA hat, aber in sachen AF ist er sicher nicht besser, ich hatte auch nen x1950XTX Crossfire gespann(auch einzlne Karte) und ich kann (konnte) kein unterschied sehen zwischen den beiden beim AF.
Jetzt beim G80 ist AF sehr gut so wie bei ATI, aber sicher nicht besser)
Bei AA stimm ich da völlig zu, grad die Hybriden AA sieht sehr gut aus und fast Perfekt, aber was nützt mir nen Perfektes Bild wenn ich nur 10 FPS habe?
Ist zwar ne nette Spielerei aber eigentlich nicht zu gebrauchen.

Gast
2007-03-17, 13:27:47
Bei AA stimm ich da völlig zu, grad die Hybriden AA sieht sehr gut aus und fast Perfekt, aber was nützt mir nen Perfektes Bild wenn ich nur 10 FPS habe?
Ist zwar ne nette Spielerei aber eigentlich nicht zu gebrauchen.HL2 z.B. läuft selbst auf ner "alten" 7800GTX/256 mit 8xS einwandfrei. Mit G80 ist es in sehr viel mehr Situationen nutzbar. Riddick zum Beispiel ist ein Fall wo man SSAA sehr gut gebrauchen kann und mit einer 8800 ist es wohl auch nutzbar, wenn man nicht gleich 4x4 haben will.