PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 3 (der letzte?)


Seiten : [1] 2 3 4

deekey777
2007-01-10, 19:14:47
Tja, leider hat das Splitten nicht geklappt (der Datenbankfehler geht wohl auf mein Konto), wird die Diskussion knallhart abgewürgt und hier fortgesetzt. Und da auch noch die Sufu nicht funktioniert, werden einige Links manuell nachgereicht, habt also Mitleid mit mir, wenn was fehlt.
----------------------------------------------------
Was allgemeines: Postings wie "R600 ist Müll" oder "R600 macht alles platt" sind sehr unerwünscht, auch unerwünscht sind Postings mit Kaufabsichten ohne weiteres. Bleibt sachlich, hier geht es nicht um Wünsche, sondern um unbestätigte Infos.
Weiterhin: Verzichtet aufs OT. Das ist sehr störend und zerstört den Thread. Ein kleiner Ausflug in die Geschichte ist unproblematisch, um die heutigen Probleme zu erklären, mehr ist nur störend.
Über die Leistung der aktuellen 8800 gibt es einen eigenen Thread im Grafikchips-Forum, hier haben Diskussionen über diese im Bezug auf die X1950 nichts zu suchen.
"Specs" (http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187):
Der R600 ist ein Hybrid aus dem R520/R580 und dem Xenos
96 ALUs (hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4946911#post4946911)), Unified Shader Architektur :|
sehr flexibel
höherer Verbrauch als beim G80 (bis zu 50 W)
80 nm gefertigt
Der R600 hat mit dem Xenos weniger gemeinsam, als man denkt. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4951196#post4951196)
Die Diskussion ab hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4945285#post4945285).
ATI dives into stream computing (http://www.techreport.com/etc/2006q4/stream-computing/index.x?pg=1)
The next generation, he said, could potentially have 96 shader processors and will exceed half a teraflop of computing power.
ATI has R600 silicon out: Game developers and special customers have it (http://www.theinquirer.net/default.aspx?article=35614)
ATis R600 setzt auf PCIe 2.0? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/)
[ATi R600 Card Re-Design In Progress] (http://www.vr-zone.com/?i=4293)
Nicht uninteressant:
From China with Love [G80, R600 and G81 info] (http://forums.anandtech.com/messageview.cfm?catid=31&threadid=1949593)
Bilder des R600? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5022261#post5022261)
750 MHz und keine Taktdomains? (http://www.beyond3d.com/forum/showpost.php?p=885260&postcount=1226)
Neue Infos? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5070847#post5070847)
Develop Conference 2006 - D3D10 (http://www.beyond3d.com/articles/develop-d3d10/)
Moving on to D3D10, Richard mentioned that the first D3D10 drivers under Vista won't be heavily optimised, and that using existing ATI D3D9 hardware on Vista, or the upcoming new part, will show modest improvements because of the new runtime. But given that developers currently code around a flawed runtime and driver model, performance differences won't be huge.
512-bit-Speicherinterface. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5084861#post5084861)
Sind es nur 64 oder doch mehr ALUs? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5130890#post5130890)
Latest ATI "R600," "RV610" and "RV630" Details (http://dailytech.com/article.aspx?newsid=5630)
Zeichnung des PCB des R600 und Spekulationen. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5144554#post5144554)
Was vergessen:
Mit dem Valentinstag wird wohl nichts, aber mit dem chinesischen Neujahr soll das Feiern beginnen.
Ein bestimmter "Test" wird hier mit voller Absicht nicht verlinkt! :D
Wie immer: Wenn irgendwas fehlt, schreibt mir eine PM. Und bevor ihr etwas fragt, schaut unbedingt in den ursprünglichen Thread rein.
R600 schon im dritten Quartal 2006? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=273969)
Letztes Posting. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4975480#post4975480)
Teil 1.
Teil 2.

seahawk
2007-01-10, 20:05:12
Carsten,

klar kann es zwie OCBs für unterschiedliche Varianten geben - wie XT und XL. Nur sagt die Meldung eben, dass es eine OEM und eine Retailversion gibt - der gleichen Karte vermute ich mal.

Nakai
2007-01-10, 22:18:38
Das wird wahrscheinlich, wie der G80, in Shaderclusters gesplittet sein.
Wahrscheinlich in 4 Clusters...^^:rolleyes:

deekey777
2007-01-10, 23:02:42
Das wird wahrscheinlich, wie der G80, in Shaderclusters gesplittet sein.
Wahrscheinlich in 4 Clusters...^^:rolleyes:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5123064#post5123064
;)

Gast
2007-01-11, 00:27:14
mal ne frage: warum werden immmer neue threads gemacht?
dürfen die nur eine bestimmte länger erreichen?

Coda
2007-01-11, 01:17:00
Du hast es erfasst. Ist für die Datenbank besser.

Ailuros
2007-01-11, 05:51:26
Uebrigens etwas OT: Vista scheint nun doch >512MB onboard ram "richtig" behandeln zu koennen im Gegensatz zu winXP:

http://www.theinquirer.net/default.aspx?article=36858

"Total available graphics memory" = 1535MB

In XP sind es nur 1009MB (768+247); eigentlich ziemlich nebensaechlich fuer XP denn es ist stets besser so viel wie moeglich im onboard Speicher zu halten. Wie effektiv ist im Gegensatz eigentlich die Virtualisierung des Speichers in Vista? (ehrliche Frage).

reunion
2007-01-11, 18:09:36
Auch wenn es nicht wirklich einen Überraschung ist: R600 heißt X2000 - Linux-Treiber verrät Namen
http://www.computerbase.de/news/hardware/chipsaetze/ati/2007/januar/r600_x2000_linux-treiber_namen/

TheGoD
2007-01-11, 18:16:52
Naja, anscheinend X2xxxHD :D

horn 12
2007-01-12, 00:10:19
Meine Meinung und viell. sogar mehr:tongue: :tongue:
Sagte ja bereits schon mal, R600 ca. 20-25% Über der 8800 GTX,
und wenn nun einer kommt.... NV bringt ja die 320MB 8800 GT/O nächsten Monat raus um die 250 Euro ca. .... .. dann Oh Weh AmdATI:mad:
ATI wird gewappnet sein, IHRE Poliden werden heissen und zeitgleich verfügbar sein:
X2000 XTX 1GB ?
X2000 XT 768 MB ?
X2000 XL 384/512 MB ??

Preislich wird diesmal aber NV vorne liegen, aber sooo weit entfernt ist ATI auch wieder nicht.

Die XT wird auch schneller als die 8800 GTS, die XL wird schneller als die Neu rauskommende 8800 GT/O werden.
so ca. 15-25% über den Nvidia Modellen würde ich alle 3 Varianten des R600 sehen, und da wird NV mit dem G81 Refresh zu kämpfen haben!

Odal
2007-01-12, 00:39:58
der R600 ist in einem spiel knapp 60% schneller als der G80...aber in einem bestimmten "wichtigen" Benchmark ist er ca. 15% langsamer ;)

boxleitnerb
2007-01-12, 06:24:54
Quelle, oder spekulierst du auch so gegenstandslos wie horn12 es andauernd tut?

The_Invisible
2007-01-12, 09:32:48
der R600 ist in einem spiel knapp 60% schneller als der G80...aber in einem bestimmten "wichtigen" Benchmark ist er ca. 15% langsamer ;)

ja, vielleicht mit >1ghz gpu/mem takt

mfg

horn 12
2007-01-12, 12:30:46
Die Spekulationen .... muss sich erst zeigen:eek:
Bisher hatte ich ja meistens Recht,- nur das mit der X1800 XT zögerte sich gut ein Jahr hinaus. Aber dafür kann ich nichts.
Wollte dies nur mal klarstellen.:smile:

Gmax
2007-01-12, 12:57:57
Meine Meinung und viell. sogar mehr:tongue: :tongue:
Sagte ja bereits schon mal, R600 ca. 20-25% Über der 8800 GTX,
und wenn nun einer kommt.... NV bringt ja die 320MB 8800 GT/O nächsten Monat raus um die 250 Euro ca. .... .. dann Oh Weh AmdATI:mad:
ATI wird gewappnet sein, IHRE Poliden werden heissen und zeitgleich verfügbar sein:
X2000 XTX 1GB ?
X2000 XT 768 MB ?
X2000 XL 384/512 MB ??

Preislich wird diesmal aber NV vorne liegen, aber sooo weit entfernt ist ATI auch wieder nicht.

Die XT wird auch schneller als die 8800 GTS, die XL wird schneller als die Neu rauskommende 8800 GT/O werden.
so ca. 15-25% über den Nvidia Modellen würde ich alle 3 Varianten des R600 sehen, und da wird NV mit dem G81 Refresh zu kämpfen haben!

Ich tipp mal eher

X2800 XTX 1GB DDR4
X2800 XT 1GB DDR3 (?)
X2800 XL 512MB DDR3

und im Mainstreambereich dann vielleicht eine
X2600 XT 512 MB DDR3
und eine
X2600 Pro 256 MB DDR3

AnarchX
2007-01-12, 13:01:27
Ich tipp mal eher

X2800 XTX 1GB DDR4
X2800 XT 1GB DDR3 (?)
X2800 XL 512MB DDR3


Das halte ich auch eher für realistisch, den "Ringbus" wird man wohl nicht so einfach beschneiden können.

RV610 scheint laut einige Gerüchten aus China mit 128Bit SI daherzukommen, mal sehen wie es bei RV630 aussieht und hoffentlich wird dieser nicht wieder eine GPU wie der RV530.

Gast
2007-01-12, 14:43:07
Wann ist denn der Launch?

AnarchX
2007-01-12, 14:47:30
Wann ist denn der Launch?
The R600, ATI's ultra-high-end Radeon X1950 successor, has a production date scheduled for February 2007. The card will launch at or around the Cebit 2007 convention in mid-March. Shipments will follow shortly after.
http://dailytech.com/article.aspx?newsid=5630

Also wird es wohl für ganzen Redaktionen recht stressig werden: mit Cebit, R600-Launch, nV-Midrange/Lowend-Launch. ;)

deekey777
2007-01-12, 14:53:39
Darum kriegen die ganzen Redakteure die R600 Mitte Februar (chinesisches Neujahrfest), mit der Fertigung der neuen Generation soll man schon angefangen haben, um eine sofortige Verfügbarkeit zu gewährleisten.
Es ist auch denkbar, dass die neue Generation vor der CeBIT veröffentlicht wird.

Ailuros
2007-01-12, 16:07:57
ja, vielleicht mit >1ghz gpu/mem takt

mfg

Bei dem Stromverbrauch bei der wahren Taktrate, wuerde ich von allem in der Naehe von 1GHz abraten.

Iwan
2007-01-12, 17:00:57
http://dailytech.com/article.aspx?newsid=5630

Also wird es wohl für ganzen Redaktionen recht stressig werden: mit Cebit, R600-Launch, nV-Midrange/Lowend-Launch. ;)

und G81 ? dürfte wohl auch in den Zeitrahmen fallen...

AnarchX
2007-01-12, 17:42:56
und G81 ? dürfte wohl auch in den Zeitrahmen fallen...

Der kommt vorrausichtlich im Q3 2007 (http://vr-zone.com/index.php?i=4477).

Gast
2007-01-12, 18:40:37
Darum kriegen die ganzen Redakteure die R600 Mitte Februar (chinesisches Neujahrfest), mit der Fertigung der neuen Generation soll man schon angefangen haben, um eine sofortige Verfügbarkeit zu gewährleisten.
Es ist auch denkbar, dass die neue Generation vor der CeBIT veröffentlicht wird.

Dann kanns ja nicht mehr lange dauern bis wir richtige News zum Thema R600 bekommen. Ich verlass mich da auf die Chinesischen Foren und das geleakte dort, Bilder und 3DMark Scores waren ca. 4 Wochen vor Release einer GPU dort langsam anzutreffen.
Klar ist da kein verlass drauf, aber wenn dann kommen innerhalb einer Woche mindestens 3 Personen mit unterschiedlichen Bildern da herum und das ist für mich "glaubwürdiger" als eine ausm Boden gestampfte Webseite, deren Ergebnisse niemand nichtmal ein Rumor bestätigt.

deekey777
2007-01-12, 18:44:54
Was mich interessiert, ist, wie die meisten reagieren, wenn die Specs geleakt werden. Beim G80 wußte keiner so recht, was das Zeug soll. :biggrin:
CES 2007: MSI Notebooks with Crystals and New ATI X2600 and Nvidia NB8P Graphics Cards (http://www.notebookreview.com/default.asp?newsID=3440&article=ATI+X2600)
[...]

This implies that the chip is already sampling with notebook manufacturers, and that it will be ready in time to compete for design wins in the upcoming Santa Rosa platform notebooks. It remains to be seen, however, what codename this chip corresponds to (RV630?), and what process it will be manufactured on.
Interessant. :)

Hvoralek
2007-01-12, 18:52:59
Du hast es erfasst. Ist für die Datenbank besser.In Erinnerung an den R520- Thread bin ich nicht so ganz überzeugt, dass 70 Seiten am Stück schon bedenklich wären :D

Ailuros
2007-01-12, 18:56:02
Der kommt vorrausichtlich im Q3 2007 (http://vr-zone.com/index.php?i=4477).

Da steht G81M(obile) :P

AnarchX
2007-01-12, 19:51:24
Da steht G81M(obile) :P

Soviel Zeit wird sicherlich nicht zwischen dem Desktop G81 und der mobilen Version liegen.
Oder willst du damit andeuten, dass der G81 wohl schon im Q2(Ende) kommen könnte? ;)

Ailuros
2007-01-12, 20:25:07
Soviel Zeit wird sicherlich nicht zwischen dem Desktop G81 und der mobilen Version liegen.
Oder willst du damit andeuten, dass der G81 wohl schon im Q2(Ende) kommen könnte? ;)

Mobile GPUs sind stets weniger kompliziert als ihre PC Gebrueder. Falls nicht alles nach Plan laufen sollte mit G81 hat es keinen Einfluss auf G81M. Vor Q3 erwarte ich G81 eigentlich nicht.

AnarchX
2007-01-12, 20:30:09
Mobile GPUs sind stets weniger kompliziert als ihre PC Gebrueder.

Das aber nur im Bezug auf Taktrate/aktive Einheiten, im Endeffekt bleibt es die gleiche GPU(siehe Go7900-Serie/M X1800).

Sunrise
2007-01-12, 23:24:23
Das aber nur im Bezug auf Taktrate/aktive Einheiten, im Endeffekt bleibt es die gleiche GPU(siehe Go7900-Serie/M X1800).
Das nicht nur in Bezug auf "Taktrate/aktive Einheiten", sondern möglicherweise eben auch auf einem anderen Prozess-Target, und somit ist es auch nicht das gleiche ASIC. Featuretechnisch sind sie natürlich identisch.

robbitop
2007-01-15, 09:46:25
Der kommt vorrausichtlich im Q3 2007 (http://vr-zone.com/index.php?i=4477).
Das ist G81M. Oftmals kommen die HighEnd Chips für Notebooks deutlich später als für den Desktop, da es dort mehr zu tun gibt bzgl der Leistungsaufnahme (vermutlich üble Selektion).

Gmax
2007-01-15, 13:13:23
AMD plans high-end desktop graphics chips for at least next three years (http://www.theinquirer.net/default.aspx?article=36899)

Kann mir mal jemand sagen, was DAAMIT heißen soll?

DrumDub
2007-01-15, 13:18:21
Kann mir mal jemand sagen, was DAAMIT heißen soll? ist der zusammengesetzter begriff bzw. ein anagramm für AMD und ATI bei dem inq seit der fusion beider firmen. abgeleitet vom englischen "damn it", was man mit dem ausruf "verdammt" übersetzen kann.

robbitop
2007-01-15, 13:19:00
britischer Humor. So nennt TheInq AMD/ATI.
Die Meldung klingt ja schonmal nicht so gut. Klingt nach langfristigem Ab/Umbau des Unternehmens.

Gmax
2007-01-15, 13:20:27
Danke :smile:

StefanV
2007-01-15, 13:28:13
Und wenn sie von Hangover (=Kater) sprechen, ist Hanover gemeint, machen sie meist zur Cebit ;)

Gibts eigentlich schon 'echte' Bilder von der R600??

Blutmaul
2007-01-15, 13:35:27
Die High-End-GPUs in 3 Jahren sind so leistungsfähig, das es fraglich ist, was man den Leuten anbieten will, das sie nicht einfach bei ihrer "alten" Hardware bleiben.
Selbst heute kann man mit 4 Jahre alter Hardware immer noch gut über die Runden kommen, wenn man die Regler benutzt.
Ich hoffe jedenfalls, das AMDATI die Konkurrenz im GPU-Geschäft aufrecht erhält, eine schreckliche Vorstellung, ein Monopol zu bekommen.
Wünschen wir dem R600 Erfolg!

robbitop
2007-01-15, 14:10:55
Ajo bei aktuellen Spielen kannst du Grafikkarten von vor 4 Jahren vergessen. Nicht zu vergessen, die TFT User.
Außerdem will man schon maximale Details spielen, wenn man sich eine Grafikkarte neu kauft. IMO kann man gar nicht genug GPU Leistung haben.

Gast
2007-01-15, 14:30:11
jo mit ner radeon 9700 und ne athlon xp kommt man nicht mehr weit
nach 3 jahren ist spätestens schluss
kauft man mainstream noch eher

800*600 ist eben nicht mehr zeitgemäß

Gast
2007-01-15, 14:49:42
Zu den Gerüchten:
Da steht eindeutig: Leute, welche NVidia nahestehen. Also absichtliche Stimmungsmache. Nennen wir es mal freundlich Marketing. Würde ich nicht viel drauf geben.

Gast
2007-01-15, 15:06:49
Danke :smile:Steht sogar im englischen Wikipedia-Artikel über den Inquirer, neben einigen anderen lustigen Dingen.

http://en.wikipedia.org/wiki/The_Inquirer#Nicknames_and_terminology

iirc gab es auch mal einen extra Artikel über DAAMIT, aber der wurde wohl gelöscht.

Blutmaul
2007-01-15, 15:17:41
In wenigen Jahren ist die Grafikleistung so gut, das nur noch Videophile bedarf an höhere Qualität haben, wenn nicht irgendwer das nächste grosse Ding, äquivalent der 3D-Beschleuniger, erfindet.
Noch ein paar Bildpunkte mehr hier und noch ein Shaderchen mehr da, wird doch gar nicht ins Auge fallen.

robbitop
2007-01-15, 15:45:25
Gleichzeitig steigen jedoch die Anforderungen der Games. Siehe Oblivion, Crysis, Rainbow six - las vegas ectpp. Gerade in den nächsten Jahren wird die Shaderlastigkeit immer mehr steigen.

Moralelastix
2007-01-15, 15:53:21
Gleichzeitig steigen jedoch die Anforderungen der Games. Siehe Oblivion, Crysis, Rainbow six - las vegas ectpp. Gerade in den nächsten Jahren wird die Shaderlastigkeit immer mehr steigen.


Bestimmt alleine schon durch die dann möglichen Physikberechnungen.

Wann gibts da eigentlich mal wieder was neues zu von NV/ATI?

Gast
2007-01-15, 15:55:09
britischer Humor. So nennt TheInq AMD/ATI.
Die Meldung klingt ja schonmal nicht so gut. Klingt nach langfristigem Ab/Umbau des Unternehmens.


War denn etwas andere zu erwarten nachdem AMD ATI übernommen hat?
IMO nein, denn Synergien ergeben sich nicht aus dem Zusammenschluss, also kann das Ziel nur eine Neuausrichtung des Unternehmens sein.

Gast
2007-01-15, 15:56:34
Zu den Gerüchten:
Da steht eindeutig: Leute, welche NVidia nahestehen. Also absichtliche Stimmungsmache. Nennen wir es mal freundlich Marketing. Würde ich nicht viel drauf geben.


Auf das Geschwafel der ATI Leute würde ich aber noch viel weniger geben.

Gast
2007-01-15, 16:44:45
Ich würde Ihnen jedenfalls deutlich eher trauen, wenn sie etwas über IHR Unternehmen zum besten geben, als wenn dies die Konkurrenz tut. Das nennt man üble Nachrede und ist ein Straftatsbestand.

Gast
2007-01-15, 17:46:18
Das nennt man üble Nachrede und ist ein Straftatsbestand.Ob dieser Straftatsbestand in diesem Falle wirklich erfüllt wird, wage ich zu bezweifeln. ;)

reunion
2007-01-15, 18:52:54
Also die kleineren Modelle des R600 dürften diesmal nicht lange auf sich warten lassen. Nachdem die neuen Linuxtreiber bereits die Bezeichnungen "Radeon X2300 HD" und "Mobility Radeon X2300 HD (M71)" verraten haben, zeigte MSI auf der CES bereits ein lauffähiges Notebook mit X2600-Grafik:

http://www.hartware.de/media/news/41000/41334_3b.jpg

http://www.hartware.de/news_41334.html

AnarchX
2007-01-15, 19:11:11
Also die kleineren Modelle des R600 dürften diesmal nicht lange auf sich warten lassen. Nachdem die neuen Linuxtreiber bereits die Bezeichnungen "Radeon X2300 HD" und "Mobility Radeon X2300 HD (M71)" verraten haben, zeigte MSI auf der CES bereits ein lauffähiges

Wobei ich denke, dass der RV630 wohl auch zuerst in der Mobility Version auf den Markt kommen wird, die Desktopvariante folgt dann etwas später, wie auch bei nVidia, wo es auf der CES auch schon lauffähige NBs mit G84/G86 zu sehen gab.

Diesmal scheinen beide Hersteller sehr bestrebt im Bezug auf den NB-Markt zu sein, was sicherlich an der immer weiter wachsenden Bedeutung dieses Marktes liegt.

reunion
2007-01-15, 19:18:38
Wobei ich denke, dass der RV630 wohl auch zuerst in der Mobility Version auf den Markt kommen wird, die Desktopvariante folgt dann etwas später, wie auch bei nVidia, wo es auf der CES auch schon lauffähige NBs mit G84/G86 zu sehen gab.


Möglich, allerdings sollte der Chip selber identisch sein, wodurch die Desktopvariante auch nicht lange auf sich warten lassen wird. Auf jeden Fall scheint sich der Rückstand des R600 im Vergleich zum G80 nicht wesentlich auf die Midrange- und Lowend-Produkte auszuwirken - wie von vielen befürchtet/behauptet .

AnarchX
2007-01-15, 19:27:51
Möglich, allerdings sollte der Chip selber identisch sein, wodurch die Desktopvariante auch nicht lange auf sich warten lassen wird.
Die mobilen Varianten werden aber meist um einiges niedriger getaktet.

Auf jeden Fall scheint sich der Rückstand des R600 im Vergleich zum G80 nicht wesentlich auf die Midrange- und Lowend-Produkte auszuwirken - wie von vielen befürchtet/behauptet .

Wobei dies aber bedeuten müsste, dass RV630 wohl auch noch in 80nm gefertigt wird.:|

Übrigens, wo wurde eigentlich behauptet, dass dieses NB mit der X2600HD lauffähig ist? ;)

reunion
2007-01-15, 19:36:12
Wobei dies aber bedeuten müsste, dass RV630 wohl auch noch in 80nm gefertigt wird.:|


Möglich. Das wird sich noch früh genug zeigen. Der 65nm Prozess ist jedenfalls schon relativ weit; auch nV fertigt AFAIK schon einen Chipsatz damit. Und Orton deutete in einen Interview mit Beyond3D auch relativ deutlich auf 65nm was die kleineren Chips auf R6xx-Basis betrifft.


Übrigens, wo wurde eigentlich behauptet, dass dieses NB mit der X2600HD lauffähig ist? ;)

Ja, es steht bei dieser Meldung von Hartware nicht explizit da, dass dieses auch lauffähig war, von daher war der Ausdruck unglücklich gewählt. Wobei ich nicht annehme, dass man eine Attrappe gezeigt hat, das wäre mehr als unüblich.

Und wenn man sich das Bild (http://www.hartware.de/showpic.php?type=news&id=41334&nr=1&path=/media/news/41000/41334_1b.jpg) genau ansieht, sieht es auch so aus, als ob der Powerknopf aufleuten würde.

Ailuros
2007-01-15, 23:00:42
Möglich. Das wird sich noch früh genug zeigen. Der 65nm Prozess ist jedenfalls schon relativ weit; auch nV fertigt AFAIK schon einen Chipsatz damit. Und Orton deutete in einen Interview mit Beyond3D auch relativ deutlich auf 65nm was die kleineren Chips auf R6xx-Basis betrifft.

Mhmmm; da es bis jetzt noch keine Einzelheiten ueber den M71 Herstellungsprozess und Launchdaten fuer RV6x0/PC gibt, wuerde ich ein bisschen mehr Geduld aufweisen an Deiner Stelle bevor Du zu Schlussfolgerungen kommst.

Wenn es ein Grund zum Feiern gibt, dann ist es dass es Linux support fuer ATI GPUs rechtzeitig gibt.

Narrenkönig
2007-01-16, 17:08:45
Zu den Gerüchten:
Da steht eindeutig: Leute, welche NVidia nahestehen. Also absichtliche Stimmungsmache. Nennen wir es mal freundlich Marketing. Würde ich nicht viel drauf geben.
Scheint zu funktionieren. Bei winfuture.de schreiben schon welche das sie deswegen jetzt lieber nv kaufen, weil es könnte evtl. vielleicht der Support bei ATI schlechter werden. Gleichzeitig hoffen sie aber auf einen Erfolg des R600 damit es kein nv Monopol gibt. Spinner!

Gast
2007-01-16, 17:31:10
Wie man sieht, werden diese kleinen Einwürfe gerne überlesen. Übrig bleibt nur: ATI stellt vielleicht die Unterstützung ein.
Von wo das Gerücht kommt, interessiert anscheinend die wenigsten. Wäre ich AMD/ATI, würde ich da jemanden ganz gewaltig auf die Finger hauen. Das ist nicht die feine Art. Würde man in den USA klagen, könnte es eventuell auch noch interessant werden.

reunion
2007-01-16, 18:23:02
Vielleicht in dem Zusammanhang nicht ganz uninteressant:

PCIe 2.0 Ratified (http://www.dailytech.com/article.aspx?newsid=5718)

Enermax erweitert gleichzeitig seine Galaxy-Netzteile mit dem neuen 8-Pin PCIe-Anschluss:

Enermax is releasing an update to their Galaxy product line that features 850W and 1000W power supplies. These power supplies feature the new 8-pin PCI Express 2.0 cable design and will allow the use of two R600 cards. The power supplies feature five dedicated 12V rails with two dedicated to CPU operation and three dedicated to GPU, systems, and storage drives with 17A on each rail. The power supplies are designed with an 80~85% power efficiency from 20% to 100% load along with 6A on the +5Vsb to fully support 2007 Intel requirements and multiple USB devices. The units are designed to operate at full power on a 24/7 basis at up to 50c. Pricing for the 1000W unit is expected to be around $350 with availability shortly.


http://www.anandtech.com/tradeshows/showdoc.aspx?i=2905&p=2

Wie man sieht, werden diese kleinen Einwürfe gerne überlesen. Übrig bleibt nur: ATI stellt vielleicht die Unterstützung ein.
Von wo das Gerücht kommt, interessiert anscheinend die wenigsten. Wäre ich AMD/ATI, würde ich da jemanden ganz gewaltig auf die Finger hauen. Das ist nicht die feine Art. Würde man in den USA klagen, könnte es eventuell auch noch interessant werden.

Es ist wohl offensichtlich, dass hier nur politisches Kleingeld geschlagen werden will. Wer hier vorgibt das ernst zu nehmen, würde IMHO aus welchen Gründen auch immer ohnehin keine ATi-Karte kaufen.

deekey777
2007-01-16, 18:34:22
Wenn die X2800XTX-Superduper zwei Anschlüsse hat (den neuen nach PCIe 2.0 und dann den "alten"), wäre es nicht denkbar, dass nur einer der beiden genutzt werden muss?

reunion
2007-01-16, 18:39:28
Wenn die X2800XTX-Superduper zwei Anschlüsse hat (den neuen nach PCIe 2.0 und dann den "alten"), wäre es nicht denkbar, dass nur einer der beiden genutzt werden muss?

Das ist IMHO sogar sehr wahrscheinlich, nachdem bereits der neue Anschluss zusammen mit dem PCIe-Port 300W bereitsstellen kann. Wobei ich nicht annehme, dass auch die finale Karte noch zwei Anschlüsse haben wird, sondern dass nurnoch der 8 Pin-Anschluss plus entsprechendes Adapterkabel im Karton vorhanden ist.

Gast
2007-01-16, 19:31:29
Wenn die X2800XTX-Superduper zwei Anschlüsse hat (den neuen nach PCIe 2.0 und dann den "alten"), wäre es nicht denkbar, dass nur einer der beiden genutzt werden muss?
jain
je nach dem welcher standard genutzt wird
auf nem pcie2.0 mobo +nt wirds reichen

willst du aber pcie 1.1 komponenten nutzen werden die 150w wohl zu wenig
wird wohl ein adapter von 8 auf 6pol oder molex nötig

horn 12
2007-01-16, 19:33:53
etwa solch einen zum Beispiel:
http://uk.theinquirer.net/?article=36987

Botcruscher
2007-01-16, 20:01:23
Wie lange hat eigentlich der alte gehalten? Etwas über zwo Jahre wenn ich mich nicht irre. Traurig das man es nichtmal schaft ein simples Kabel langfristig zu planen. Arme Netzteilhersteller.:rolleyes:

Gast
2007-01-16, 20:18:48
Wie lange hat eigentlich der alte gehalten? Etwas über zwo Jahre wenn ich mich nicht irre. Traurig das man es nichtmal schaft ein simples Kabel langfristig zu planen. Arme Netzteilhersteller.:rolleyes:
Ist mit ziemlicher Sicherheit Absicht. Da wird immer häppchenweise was neues rausgebracht, damit die Kasse auch schön am Klingeln bleibt.

reunion
2007-01-16, 20:29:31
Naja, bei dem Anstieg der Leistungsaufnahme in letzter Zeit ist es auch nicht ganz einfach soetwas längerfristig zu planen ohne utopische Forderungen an die Netzteile zu stellen. Ein AGP-Port erlaubte AFAIK nur 25W max. Leistungsaufnahme über den Port, es gab zwar auch noch einen AGPPro-Port, welcher wesentlich mehr erlaubte, aber eigentlich nie verwendet wurde. Der zusätzliche HDD-Stecker, den viele AGP-Karten gegen Ende hatte, war AFAIK nie spezifiziert. Da ist PCIe 1.1 mit max. 150W (75W über den Port und 75W direkt über einen Netzteilstecker) schon eine beachtliche Steigerung, und PCIe 2.0 mit 300W (75W über den Port und bis zu 225W über einen Netzteilstecker) setzt da nochmal mächtig eins drauf. Nur wenn die Leistungsaufnahme aktueller GPUs weiter derart rasant zunimmt, wird vermutlich auch dieser Standard nicht lange durchhalten.

Squall2010
2007-01-16, 20:58:01
Wieso Strom übers NT?

So wie ich gelesen habe, soll bei der Karte warscheinlich ein NT bei sein.

Die soll unter Last auch nur 180Watt brauchen. Ok ''Nur 180Watt'' :rolleyes:

StefanV
2007-01-16, 21:03:38
Naja, bei dem Anstieg der Leistungsaufnahme in letzter Zeit ist es auch nicht ganz einfach soetwas längerfristig zu planen ohne utopische Forderungen an die Netzteile zu stellen. Ein AGP-Port erlaubte AFAIK nur 25W max. Leistungsaufnahme über den Port,
alte Spec, neu sagt 43W über Port.


es gab zwar auch noch einen AGPPro-Port, welcher wesentlich mehr erlaubte, aber eigentlich nie verwendet wurde.

Das ist falsch ;)
Aber ich nehme mal an, das du meintest 'der auf neueren Desktop Brettern nicht mehr verbaut wurde', oder? ;)
ASUS hat z.B. lange Zeit auf ihren Brettern einen AGP Pro verbaut, auch auf Gigabyte Brettern findet man sowas öfter mal, MSI hat ihn leider recht schnell wieder entsorgt.
Die Regel ist er aber auf Workstationbrettern, da gibts fast keins ohne AGP Pro.
Ein Beispiel für ein 'Desktopboard' mit AGP Pro, das nicht allzu alt ist, wäre das P4C800DLX (http://www.ixbt.com/cpu/intel/p4-800fsb/p4c800-deluxe-board-sm.jpg)...

Das der bei Desktop Grafikkarten nie wirklich verwendet wurde, ist ja auch logisch, da kaum verbreitet...


Der zusätzliche HDD-Stecker, den viele AGP-Karten gegen Ende hatte, war AFAIK nie spezifiziert. Da ist PCIe 1.1 mit max. 150W (75W über den Port und 75W direkt über einen Netzteilstecker) schon eine beachtliche Steigerung, und PCIe 2.0 mit 300W (75W über den Port und bis zu 225W über einen Netzteilstecker) setzt da nochmal mächtig eins drauf. Nur wenn die Leistungsaufnahme aktueller GPUs weiter derart rasant zunimmt, wird vermutlich auch dieser Standard nicht lange durchhalten.
Richtig, AMDs erster Versuch bei der Radeon 9700 endete auch nicht selten mit angesengten Steckern, insbesondere dann wenn man 9800er auf 9700er PCBs verbaut hat (gabs z.B. von Tyan oder Sapphire mit ViVo).

Was aber schade ist, ist das die Steckerleiste damals nie verwendet wurde, außer bei den R300 basierten FireGLs...

Gast
2007-01-16, 21:08:14
Sollte man nicht theoretisch auch ohne Adapter einen 6pol Stecker in einen 8pol Anschluss stecken können?
Bei Mainboards klappt das ja auch (20pol passt auch in 24pol).

horn 12
2007-01-16, 21:38:01
Müssen dann für den R600 Neue Netzteile her oder werden die alten Netzteile mit einem Adapterkabel (6 polig auf 8 polig) wie laut meinem Bericht einige Zeilen vorher, zugänglich gemacht, bzw. ein Adapter leigt dem R600 schon bei. Ahnlich wie PCI-E / Netzteil Mainboard Adapter (20 auf 24 Pole)

StefanV
2007-01-16, 22:28:22
Sollte man nicht theoretisch auch ohne Adapter einen 6pol Stecker in einen 8pol Anschluss stecken können?
Bei Mainboards klappt das ja auch (20pol passt auch in 24pol).
Wenn die Buchsen/Stecker entsprechend ausgelegt sind, ist das kein Problem.

dargo
2007-01-16, 22:46:35
Wenn die X2800XTX-Superduper zwei Anschlüsse hat (den neuen nach PCIe 2.0 und dann den "alten"), wäre es nicht denkbar, dass nur einer der beiden genutzt werden muss?
Kann ich mir nicht so richtig vorstellen. 8 Pin Anschluss bedeutet 4x Gelb (+12V) und 4x schwarz (Masse). Die ATX 2.0 Norm sieht max. 75W für einen PCIe Stecker vor. Da dieser Stecker max. 3 Plus (gelb) Leitungen hat würde ich also von max. 25W je gelbes Kabel ausgehen.

Bei den aktuellen PCIe Brettern würde das also max. 175W für einen R600 bedeuten. Wenn die Grafikkarte das nicht übersteigt (was schon verdammt viel wäre) würde theoretisch also der 8 Pin Stecker ausreichen.

Eine andere Möglichkeit wäre auch, man würde den Querschnitt der einzelnen Kabel vom 8 Pin Stecker bis zur NT Platine vergrößern. Dann könnte natürlich auch mehr Strom je Kabel durchgejagt werden.

Da ist PCIe 1.1 mit max. 150W (75W über den Port und 75W direkt über einen Netzteilstecker) schon eine beachtliche Steigerung, und PCIe 2.0 mit 300W (75W über den Port und bis zu 225W über einen Netzteilstecker) setzt da nochmal mächtig eins drauf.
Ist das schon sicher? Wenn ja, dann gibt es nur eine Möglichkeit - dickere Kabel beim 8 Pin Stecker.

Edit:
Also, wenn das hier (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/) noch gültig ist dann werden 75W über den Slot, 75W über den PCIe Stecker und 150W über den neuen 8 Pin Stecker gesaugt. Würde bedeuten, dass dem R600 nur eine externe Stromversorgung über den 8 Pin Stecker reichen würde (max. 225W).
Hmm, sind die Kabel jetzt beim 8 Pin Stecker dicker oder kann ein +12V Kabel doch mehr als 25W vertragen? :uponder:

reunion
2007-01-17, 14:19:34
Mhmmm; da es bis jetzt noch keine Einzelheiten ueber den M71 Herstellungsprozess und Launchdaten fuer RV6x0/PC gibt, wuerde ich ein bisschen mehr Geduld aufweisen an Deiner Stelle bevor Du zu Schlussfolgerungen kommst.

Wenn es ein Grund zum Feiern gibt, dann ist es dass es Linux support fuer ATI GPUs rechtzeitig gibt.

Naja, inzwischen gibt es schon einige Hinweise, die auf einen nicht mehr allzu lange dauernde Launch hindeuten. Zu einen hat Dailytech laut eigenen Angaben eine Roadmap in die Hände bekommen, welche beide Chip noch vor Juni 2007 vorsieht, dann gibt es die Einträge im Linuxtreiber, und zu guter letzt zeigte MSI auch schon ein Notebook mit X2600-Grafik.


Ist das schon sicher? Wenn ja, dann gibt es nur eine Möglichkeit - dickere Kabel beim 8 Pin Stecker.

Edit:
Also, wenn das hier (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/) noch gültig ist dann werden 75W über den Slot, 75W über den PCIe Stecker und 150W über den neuen 8 Pin Stecker gesaugt. Würde bedeuten, dass dem R600 nur eine externe Stromversorgung über den 8 Pin Stecker reichen würde (max. 225W).
Hmm, sind die Kabel jetzt beim 8 Pin Stecker dicker oder kann ein +12V Kabel doch mehr als 25W vertragen? :uponder:

Gute Frage. Ich dachte bis jetzt eigentlich, dass der 8 Pin Stecker den 6 Pin Stecker ersetzt, und alleine diese 225W liefert. Leider wird auch seitens der PCI-Sig nicht genau darauf eingegangen: http://www.pcisig.com/specifications/pciexpress/base2

StefanV
2007-01-17, 14:25:45
Kann ich mir nicht so richtig vorstellen. 8 Pin Anschluss bedeutet 4x Gelb (+12V) und 4x schwarz (Masse). Die ATX 2.0 Norm sieht max. 75W für einen PCIe Stecker vor. Da dieser Stecker max. 3 Plus (gelb) Leitungen hat würde ich also von max. 25W je gelbes Kabel ausgehen.
Sag doch einfach 2 Ampere, aber das hätt ich dir auch so sagen können ;) ;)


Ist das schon sicher? Wenn ja, dann gibt es nur eine Möglichkeit - dickere Kabel beim 8 Pin Stecker.

DIckere Kabel sind nicht das Problem, die aktuell verbauten sollten dicke für 5-10A reichen.
Das Problem sind eher die Verbindungen...
Ein extrembeispiel wäre ein Tyan Tiger MP...


Hmm, sind die Kabel jetzt beim 8 Pin Stecker dicker oder kann ein +12V Kabel doch mehr als 25W vertragen? :uponder:
Die Kabel sollten locker mehr vertragen können, nur eben die Stecker nicht...

Gast
2007-01-17, 15:42:06
Wenn die Buchsen/Stecker entsprechend ausgelegt sind, ist das kein Problem.
dürfte
das neue enermax galaxy hat einen 8pol stecker wo man 2 abtrennen kann, wohl um ihn auf 6pol buchsen zu stecken

AnarchX
2007-01-17, 15:44:30
R600 will have a big air cooler
http://theinquirer.net/default.aspx?article=37014

Vielleicht kommt auch daher der interne Codename UFO... :biggrin:

Knacki99
2007-01-17, 15:47:27
Sorry für diese totale NOOB Frage, aber ich muss mir kein neues Netzteil für ne R600 Karte kaufen, oder etwa doch?

Gast
2007-01-17, 15:50:53
Sorry für diese totale NOOB Frage, aber ich muss mir kein neues Netzteil für ne R600 Karte kaufen, oder etwa doch?Wenn dein aktuelles Netzteil leistungsfähig genug ist, dann nicht, da es Adapter geben wird. ATI wird keine Karte rausbringen, die man nur mit nagelneuen Netzteilen betreiben kann.

Black-Scorpion
2007-01-17, 15:57:05
R600 will have a big air cooler
http://theinquirer.net/default.aspx?article=37014

Vielleicht kommt auch daher der interne Codename UFO... :biggrin:
Und der G80 ist klein und niedlich, oder wie?

AnarchX
2007-01-17, 16:02:35
Und der G80 ist klein und niedlich, oder wie?
Natürlich ist ein G80 kleiner als der Kühler der X2800XT(X)...;)

Wobei das aber positiv klingt:
Of course it is a dual-slot cooler as you really need a lot of fan power to cool the beast. But it will be quiet, as quiet as G80's

Um den vorraussichtlich doch relativ heißen R600 so leise zu kühlen, brauch es bestimmt etwas Größeres als Kühler.

Gmax
2007-01-17, 16:15:04
R600 will have a big air cooler
http://theinquirer.net/default.aspx?article=37014

Vielleicht kommt auch daher der interne Codename UFO... :biggrin:

LoL!

Mal eine andere Frage: Muss ich mir ein neues Netzteil besorgen, um den X2xxx betreiben zu können? Ich spreche von diesen neuen Stecker...

Edit: Lesen sollte man können. Nein.

AnarchX
2007-01-17, 16:15:32
LoL!

Mal eine andere Frage: Muss ich mir ein neues Netzteil besorgen, um den X2xxx betreiben zu können? Ich spreche von diesen neuen Stecker...

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5168648#post5168648
:|

Anarchy-HWLUXX
2007-01-17, 16:16:27
Klar ... 30-40W mehr abführen und dabei kleiner und genauso leise wie die G80 Lösung - wenn die GPU auf ~100° bei 3D ausgelegt ist könnt das hinkommen ;D

reunion
2007-01-17, 16:32:48
Klar ... 30-40W mehr abführen und dabei kleiner und genauso leise wie die G80 Lösung

Soetwas würde man dann wohl als effizient bezeichnen. Wobei ich es sehr erstaunlich finde, dass hier schon so genaue Schätzungen über die Leistungsaufnahme des R600 herumschwirren, wo es bis dato bestfalls unbestätigte Gerüchte gibt. Und falls es ATi schaffen sollte, im idle-Betrieb die Spannung, sowie die Takraten zu senken, dann wäre wohl selbst eine >50W höhere Leistungsaufnahme wie bei G80 leicht zu verschmerzen.

AnarchX
2007-01-17, 16:35:38
Und falls es ATi schaffen sollte, im idle-Betrieb die Spannung, sowie die Takraten zu senken, dann wäre wohl selbst eine >50W höhere Leistungsaufnahme wie bei G80 leicht zu verschmerzen.

Wenn die Kühlung dann unter 3D noch auf einem akzeptablen Niveau bleibt, wäre dies in der Tat ein Pro-Argument für die X2800.

Undertaker
2007-01-17, 16:46:38
Soetwas würde man dann wohl als effizient bezeichnen. Wobei ich es sehr erstaunlich finde, dass hier schon so genaue Schätzungen über die Leistungsaufnahme des R600 herumschwirren, wo es bis dato bestfalls unbestätigte Gerüchte gibt. Und falls es ATi schaffen sollte, im idle-Betrieb die Spannung, sowie die Takraten zu senken, dann wäre wohl selbst eine >50W höhere Leistungsaufnahme wie bei G80 leicht zu verschmerzen.

wobei man auch erwähnen sollte, dass man den g80 im 2d betrieb noch deutlich untertakten kann, was bei einer karte mit einem sehr hohen verbrauch im 3d-betrieb dann doch eher hinderlich erscheint ;)

sofern aber die lautstärke erträglich bleibt, kann man mit ein paar watt mehr als ein g80 schon leben

Gast
2007-01-17, 18:19:35
wobei man auch erwähnen sollte, dass man den g80 im 2d betrieb noch deutlich untertakten kann, was bei einer karte mit einem sehr hohen verbrauch im 3d-betrieb dann doch eher hinderlich erscheint ;)


Wosn da der Sinn? Was hat 2D-Betrieb und untertakten mit hohem Stromverbrauch im 3D-Betrieb zu tun und was soll das behindern?

Botcruscher
2007-01-17, 18:26:56
Wosn da der Sinn? Was hat 2D-Betrieb und untertakten mit hohem Stromverbrauch im 3D-Betrieb zu tun und was soll das behindern?


Verbrauchsreduzierung im 2d ist entscheidend. Erstens läuft auch ein Spielerechner die meiste zeit im idle und zweitens liegt es an der Menschlichen Warnehmung.
Wenn es dank 5.1 Gamebeschallung rings um dich kracht wirst du den Lüfter kaum bemerken, surfst du aber bei absoluter Ruhe im Inet nervt das Ding ganz fix.

Gast
2007-01-17, 19:11:28
Verbrauchsreduzierung im 2d ist entscheidend. Erstens läuft auch ein Spielerechner die meiste zeit im idle und zweitens liegt es an der Menschlichen Warnehmung.
Wenn es dank 5.1 Gamebeschallung rings um dich kracht wirst du den Lüfter kaum bemerken, surfst du aber bei absoluter Ruhe im Inet nervt das Ding ganz fix.
Aber warum sollte man eine Karte mit höherem Stromverbrauch nicht auch runtertakten können?

Gast
2007-01-17, 19:47:55
Ist das schon sicher? Wenn ja, dann gibt es nur eine Möglichkeit - dickere Kabel beim 8 Pin Stecker.


dass problem sind eher die steckverbindungen.

deekey777
2007-01-17, 19:55:58
R600 will have a big air cooler
http://theinquirer.net/default.aspx?article=37014

Vielleicht kommt auch daher der interne Codename UFO... :biggrin:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5144554#post5144554
Acht Tage danach...
Fudo ist nicht mehr der Alte, er ist langsam geworden. ;(

:biggrin:
Heutzutage sollte eine Grafikkarte nie im Idle sein, leider gibt es nur F@H als einzige Anwendung, die die Grafikkarte für andere Sachen nutzt.

Undertaker
2007-01-17, 20:09:25
Wosn da der Sinn? Was hat 2D-Betrieb und untertakten mit hohem Stromverbrauch im 3D-Betrieb zu tun und was soll das behindern?

ich meinte damit, dass man eine im 2d betrieb stromfressende karte problemlos untertakten kann (meine 8800gts läuft 2d z.b. nur mit 250mhz, selbst das ist noch mehr als man braucht), wenn eine karte hingegen im 3d betrieb übermäßig frisst, einem meist die hände gebunden sind (denn hier will ja keiner leistung und geld verschenken und die karte zurücktakten, spannungen per software senken geht auch nur in ausnahmefällen wie zb bei den r580)

ergo: 2d verbrauch ist wichtiger als 3d verbrauch, lässt sich aber auch leichter verringern

Gast
2007-01-17, 22:03:26
"Geändert von Gmax (2007-01-17 um 16:16:16 Uhr"
das nenn ich timing^^
sry for spam

Gast
2007-01-17, 22:27:52
ich meinte damit, dass man eine im 2d betrieb stromfressende karte problemlos untertakten kann (meine 8800gts läuft 2d z.b. nur mit 250mhz, selbst das ist noch mehr als man braucht), wenn eine karte hingegen im 3d betrieb übermäßig frisst, einem meist die hände gebunden sind (denn hier will ja keiner leistung und geld verschenken und die karte zurücktakten, spannungen per software senken geht auch nur in ausnahmefällen wie zb bei den r580)

ergo: 2d verbrauch ist wichtiger als 3d verbrauch, lässt sich aber auch leichter verringern
Hast du schon mal gemessen, ob sich dadurch der Verbrauch wesentlich verringern lässt?

Gmax
2007-01-17, 22:43:44
"Geändert von Gmax (2007-01-17 um 16:16:16 Uhr"
das nenn ich timing^^
sry for spam

Sowas beherrschen nur wahre Meister:biggrin:

Den Look der X2800 XTX stell ich mir in etwa so vor:

http://666kb.com/i/al1tphpopob0clktw.jpg

(ist eine Gainward Radeon X1950 PRO) (http://www.hardwarezone.com/articles/view.php?cid=3&id=2163)

dargo
2007-01-17, 22:45:14
dass problem sind eher die steckverbindungen.
Was macht den 8 Pin Stecker dann so besonders, dass er bis zu 150W vertragen kann :confused:

wobei man auch erwähnen sollte, dass man den g80 im 2d betrieb noch deutlich untertakten kann ...
Das bringt aber leider recht wenig solange die Spannung gleich bleibt.

nagus
2007-01-18, 00:28:22
Sowas beherrschen nur wahre Meister:biggrin:

Den Look der X2800 XTX stell ich mir in etwa so vor:

http://666kb.com/i/al1tphpopob0clktw.jpg

(ist eine Gainward Radeon X1950 PRO) (http://www.hardwarezone.com/articles/view.php?cid=3&id=2163)

eine absolut hässliche grafikkarte... *WÄH*

kannst gift drauf nehmen, dass die X2000 deutlich geiler ausschaut ;) ;D

Gmax
2007-01-18, 01:23:59
eine absolut hässliche grafikkarte... *WÄH*

kannst gift drauf nehmen, dass die X2000 deutlich geiler ausschaut ;) ;D
Na, das will ich doch hoffen! :smile: Mir kam nur die Idee
aufgrund verschiedenster Quellen, die sagen, daß der Lüfter ziemlich groß sein soll.

Anarchy-HWLUXX
2007-01-18, 11:38:18
ATI R600 - Radeon X2x00 series (http://uk.theinquirer.net/?article=37040)

R600 to have at least four SKUs

http://uk.theinquirer.net/?article=37040


3 mal GDDR4, 1 mal GDDR3 :|
4 verschiedene PCBs :|
Single Slot Kühlung für die kleine "GT" :|

Also ich glaub nix bevor ich es sehe ... und zwar als kaufbares Produkt.

dargo
2007-01-18, 11:44:30
Meine Fresse - eine X2800XTX mit 1GB Vram und 153.6 GB/s Speicherbandbreite. :eek:
Bin schon echt auf die Benchmarks gespannt was der R600 damit überhaupt anfangen kann.

Gast
2007-01-18, 12:00:43
Bin schon echt auf die Benchmarks gespannt was der R600 damit überhaupt anfangen kann.

Ich denke viel, denn der G80 scheint auch sehr bandbreitenhungrig zu sein, der R600 dann wohl auch, wenn er eine ähnliche Architektur erhalten hat.

http://www.legitreviews.com/images/reviews/446/overclock1.gif

Schon erstaunlich, das es selbst bei dieser Auflösung riesige Unterschiede gibt...

Ailuros
2007-01-18, 14:14:06
Ich denke viel, denn der G80 scheint auch sehr bandbreitenhungrig zu sein, der R600 dann wohl auch, wenn er eine ähnliche Architektur erhalten hat.

http://www.legitreviews.com/images/reviews/446/overclock1.gif

Schon erstaunlich, das es selbst bei dieser Auflösung riesige Unterschiede gibt...

Wo siehst Du denn ueberhaupt den angeblichen Bandbreiten-hunger genau?

11% mehr Leistung mit 630/1050MHz wobei die Taktrate um 10% und der Speicher um 17% hoeher getaktet ist als bei 575/900 default.

reunion
2007-01-18, 14:37:51
Bereits die XFX 8800GTX XXX taktet AFAIK mit 630Mhz Chiptakt und mehr Speichertakt(?). Wobei interessant wäre, was bei den Balken überhaupt getestet wird.

Undertaker
2007-01-18, 16:17:49
Hast du schon mal gemessen, ob sich dadurch der Verbrauch wesentlich verringern lässt?

messen kann ich das zur zeit leider nicht, aber die idle temperatur ist um 5-10°C gesunken


Das bringt aber leider recht wenig solange die Spannung gleich bleibt.

doch, bei theoretisch linearer abhängigkeit des verbrauches vom takt zieht der chip im idle jetzt nur noch etwa die hälfte

Gast
2007-01-18, 16:50:43
Hmm da besteht kein theretischer Zusammenhang. Du kennst Induktivitäten und Kapazitäten und Widerstand für das Ersatzschaltbild nicht. Dieser Zusammenhang ist jedenfalls garantiert nicht proportional zur Frequenz. Niemals nicht.

Undertaker
2007-01-18, 17:03:45
das das nicht 100%ig klappt ist mir klar, aber so ungefähr kommt das, wie man überall lesen kann, schon hin

http://www.heise.de/newsticker/meldung/10252

Gast
2007-01-18, 17:12:09
Wo siehst Du denn ueberhaupt den angeblichen Bandbreiten-hunger genau?

11% mehr Leistung mit 630/1050MHz wobei die Taktrate um 10% und der Speicher um 17% hoeher getaktet ist als bei 575/900 default.

Falsch.

Unten ist eine NORMALE GTX, in der mitte die bereits höhergetaktete XFX GTX und oben genau der selbe Coretakt, nur mit übertaktetem Speicher im Vergleich zur normalen XFX.

Die 6 frames mehr kommen also einzig und allein durch den höhergetakteten Speicher zustande!!!

Gast
2007-01-18, 17:16:11
Oder besser gesagt: Es wird 630/1000 (mitte) gegen 630/1050 gebencht. Macht 5 % Unterschied, der direkt umgesetzt wird.

Lasst euch nicht von den Ergebnissen irrietieren (7 % Unterschied), die haben wahrscheinlich auf und abgerundet.

Es ist jedoch erstaunlich, das der höhergetaktete Speicher sich exakt in Mehrleistung ummünzen lässt. Mit GDDR4 sollte demnach noch einiges an Steigerung drin sein.

AnarchX
2007-01-18, 17:21:22
Und warum ist dann die GTX in der Mitte(630/1000MHz) nur 3.75% als die normale GTX(575/900MHz), obwohl der Bandbreitenunterschied bei 11.1% liegt? ;)

Gast
2007-01-18, 17:24:46
Und warum ist dann die GTX in der Mitte(630/1000MHz) nur 3.75% als die normale GTX(575/900MHz), obwohl der Bandbreitenunterschied bei 11.1% liegt? ;)

Siehe 3DC News ;)

Sehr interessant sind dann die Ausführungen zum Overclocking des G80-Chips: Danach basieren die beim Übertakten "springenden" Takte des G80-Chips auf einem festeingestellten Basis-Takt von 27 MHz, welcher dann nur mit ganzzahligen Multiplikatoren und Teilern erhöht werden kann. So ergibt sich der Chiptakt der GeForce 8800 GTX aus der Rechnung "27 MHz * 64/3 = 576 MHz". Damit wird natürlich auch erklärt, wieso MegaHertz-genaues Übertakten beim G80-Chip nicht möglich ist

Da die XFX XXX anders getaktet ist (vom Werk aus), ist ein Vergleich zur normalen GTX wahrscheinlich nicht mehr gegeben.

Aber XFX XXX und XFX oc haben die gleiche Hardwarebasis und wurden per Hand übertaktet.

Gast
2007-01-18, 17:28:26
/edit: Bei der reinen Speicherübertaktung sollte sich am Taktmultiplikator somit nichts ändern.

Deswegen habe ich nur die mittlere und obere Karte miteinander verglichen. Das würde am meisten Sinn machen.

AnarchX
2007-01-18, 17:29:54
575+27+27 -> ~630MHz

Also erzähl hier keinen Unsinn, die Bandbreitenlimitierung die du hier aufzeigen möchtest, lässt sich nicht in deinem Diagramm unbekannten Ursprungs beweisen.
Da musst du dir schon etwas anderes suchen, wenn es denn die Bandbreitenlimitierung in diesem Maß überhaupt gibt.

Gast
2007-01-18, 17:32:17
575+27+27 -> ~630MHz

Dieser Punkt ist Unsinn.
Denn du weißt nicht, wie die anderen Taktdomänen aussehen, die XFX vom Werk aus eingestellt hat.


Diese News ist hier im 3DC verlinkt. Nix Unbekannt, erstmal Augen auf :)

AnarchX
2007-01-18, 17:39:31
Dieser Punkt ist Unsinn.
Denn du weißt nicht, wie die anderen Taktdomänen aussehen, die XFX vom Werk aus eingestellt hat.


Ja und?
Die XFX XXX GTX hat auf jeden Fall mehr als 3.75% GPU-Leistung mehr als eine normale GTX, daraus kann man ableiten dass dieser unbekannte Test eher unbrauch ist um überhaupt daraus etwas abzulesen(CPU-Limiterung, usw.)

Wie schon gesagt, such dir andere Beispiel, wenn du hier etwas beweisen möchtest, dieses Beispiel ohne Quelle kann man vergessen, deine Verteidung von diesem ist auch eher lächerlich:
Oder besser gesagt: Es wird 630/1000 (mitte) gegen 630/1050 gebencht. Macht 5 % Unterschied, der direkt umgesetzt wird.

Lasst euch nicht von den Ergebnissen irrietieren (7 % Unterschied), die haben wahrscheinlich auf und abgerundet.

Und da dies im R600-Speku-Thread eh absolut OT ist -> E.O.D. von meiner Seite.

Gast
2007-01-18, 17:44:44
Die XFX XXX GTX hat auf jeden Fall mehr als 3.75% GPU-Leistung mehr als eine normale GTX, daraus kann man ableiten dass dieser unbekannte Test eher unbrauch ist um überhaupt daraus etwas abzulesen(CPU-Limiterung, usw.)

Genau das kann man nicht ablesen. Das behauptest nur du, ist aber falsch.

Wenn XFX noch etwas anderes an der Karte geändert hat, dann ist der Vergleich zu einer normalen GTX nicht mehr gegeben.

Die heutigen 3DC News klingen noch sehr spekulativ. Was wäre beispielweise, wenn XFX einen anderen Shadertakt festegelegt hat, trotz höherem Chiptakt. Oder andere Multiplikatoren verwendet.
Das wäre nicht das erste mal.
Kannst du das anhand der reinen Taktraten erkennen? Natürlich nicht!

Und genau deshalb macht es nur Sinn, XFX (oc) gegen XFX (oc + Speicherübertaktung) zu vergleichen um genau das anzuschließen.
Es ist übrigens nicht der einzige Test, der zu so einem Ergebniss kommt.

Ailuros
2007-01-18, 18:58:05
Falsch.

Unten ist eine NORMALE GTX, in der mitte die bereits höhergetaktete XFX GTX und oben genau der selbe Coretakt, nur mit übertaktetem Speicher im Vergleich zur normalen XFX.

Die 6 frames mehr kommen also einzig und allein durch den höhergetakteten Speicher zustande!!!

8800GTX@575/900MHz = 80 fps
8800GTX@630/1050MHz = 89 fps

9 im Vergleich zu 80 fps sind 11%, 55MHz zu 575MHz sind 10% mehr Taktrate und 150MHz zu 900MHz sind 17% mehr Speichertakt.

Was genau soll jetzt an meinem vorigen Post falsch sein? In heutigen Spielen geht einer 8800GTX in 1600 mit 4xAA weder die Fuellrate noch die Bandbreite aus. Falls im Zweifel probier mal selber eine und dann noch gefaelligst in Aufloesungen und AA settings die wirklich auf die Pauke hauen.

Gast
2007-01-18, 19:21:01
Was genau soll jetzt an meinem vorigen Post falsch sein?

Einfach alles und du hast genau den selben Fehler gemacht.

Du hast tatsächlich eine vom Werk aus übertaktete Karte mit einer normalen Version verglichen, ohne zu wissen, ob z.B. der Shadertakt in einem ähnlichen Verhältniss gestiegen oder vielleicht sogar gesunken ist.

Das ist in diesem Diagramm nämlich nicht sichtbar!!!

Ich zitiere frei aus den 3DC News:
Danach basieren die beim Übertakten "springenden" Takte des G80-Chips auf einem festeingestellten Basis-Takt von 27 MHz, welcher dann nur mit ganzzahligen Multiplikatoren und Teilern erhöht werden kann.

... und selbst das ist noch nicht völlig erforscht. Es wird/gibt vielleicht noch Abwandlungen. Dafür ist die Karte einfach zu kurz am Markt, um alles wissen zu können.

Wenn du mir mit 100%iger Sicherheit sagen kannst, das XFX XXX Karten genau in den selben Spezifikationen laufen (außer Coretakt und Speichertakt), dann können wir weiterreden.

Vorher ist das alles nämlich nur Spekulatius.

Ailuros
2007-01-18, 20:35:45
Einfach alles und du hast genau den selben Fehler gemacht.

Du hast tatsächlich eine vom Werk aus übertaktete Karte mit einer normalen Version verglichen, ohne zu wissen, ob z.B. der Shadertakt in einem ähnlichen Verhältniss gestiegen oder vielleicht sogar gesunken ist.

Ich hab meine eigene G80 und sie schafft genau die gleichen Frequenzen nur muss ich eben den Luefter von default 60% auf 75% hochdrehen:

http://www.3declipse.com/images/stories/ailN/fearMem.jpg

Der obrige Test hat sowieso den Haken dass die Taktrate um genau 9.6% erhoeht wird, im Gegensatz zu den 16.7% des Speichers. XFX uebertaktet nicht aus reinem Zufall sowohl den core als auch den Speicher um ca. 10%. Es sollte klar sein dass hier der Speicher mehr bringt da die Frequenz dieses um 70% mehr erhoeht wurde als beim Takt.

Das ist in diesem Diagramm nämlich nicht sichtbar!!!

Ich zitiere frei aus den 3DC News:


... und selbst das ist noch nicht völlig erforscht. Es wird/gibt vielleicht noch Abwandlungen. Dafür ist die Karte einfach zu kurz am Markt, um alles wissen zu können.

Wenn du mir mit 100%iger Sicherheit sagen kannst, das XFX XXX Karten genau in den selben Spezifikationen laufen (außer Coretakt und Speichertakt), dann können wir weiterreden.

Vorher ist das alles nämlich nur Spekulatius.

Ich weiss genau was NVIDIA mit ihren GPUs als auch Treibern vornimmt und das vor jeglicher Veroeffentlichung; warum ist irrelevant. Aber Du kannst von mir aus froehlich weiterspekulieren, oder eventuell mal selber Erfahrungen mit echter HW sammeln.

Ganz so nebenbei werden die GPUs einfach zu heiss wenn man zu stark uebertaktet.

Gast
2007-01-18, 21:18:10
Ich hab meine eigene G80 und sie schafft genau die gleichen Frequenzen

Was hat das mit meiner Aussage zu tun? Gar nichts.

Wenn du die Karte manuell übertaktest, heißt das noch lange nicht, das du die selben Taktraten/Multiplikatoren/Teiler hast, die XFX ab Werk eingestellt hat!
So einen Fall gab es nämlich schonmal, das XFX (oder wars EVGA?) zwar den Coretakt erhöhte, aber dafür andere Taktraten nicht oder nur wenig änderte, was sich natürlich auf die Leistung auswirkte.

Ehrlich gesagt, sehe ich da jetzt auch keinen Widerspruch zu meiner Aussage. Dein Diagramm bestätigt es doch nur.
Hättest vielleicht noch den verwendeten Benchmark (sehr wichtig, um Shaderabhängigkeiten zu kennen) und AA+AF dazuschreiben/benchen sollen.


PS: Der Win-Treiber ist nicht quelloffen. Wenn du Zugriff darauf hättest, wärst du gar nicht hier, sondern ein reicher Mann. Denn der Windows Quellcode ist von da an nicht mehr weit entfernt. ;-)

dargo
2007-01-18, 22:44:32
messen kann ich das zur zeit leider nicht, aber die idle temperatur ist um 5-10°C gesunken

Das ist aber ein ziemlich großer Bereich. Genauer gehts nicht? :)
Ich könnte wetten, der Stromverbrauch geht max. um 10W (netto) runter, mehr nicht.


Aber XFX XXX und XFX oc haben die gleiche Hardwarebasis und wurden per Hand übertaktet.
Also, rein rechnerisch müsste die XFX XXX mit 630/1000Mhz und 1480Mhz Shadertakt laufen. Es sei denn XFX nutzt einen anderen Teiler für den Shadertakt was ich mir aber kaum vorstellen kann.

Gast
2007-01-18, 22:59:29
Also, rein rechnerisch müsste die XFX XXX mit 630/1000Mhz und 1480Mhz Shadertakt laufen. Es sei denn XFX nutzt einen anderen Teiler für den Shadertakt was ich mir aber kaum vorstellen kann.

Theorie und Praxis. Ich häts gerne vorher bestätigt, denn schon oft lag man mit irgendwelchen Vermutungen falsch.

Vorallem da XFX und EVGA bekennende Overclocker sind... die greifen auch mal zu "ungewöhnlichen" Mitteln um sich von der Konkurrenz abzusetzen.

Es fehlt halt noch an Info und Tweaktools...

Jedenfalls ist ne Speicherübertaktung-only sicherer, als wenn da eine Standard GTX gegen eine von haus aus übertaktete verglichen wird.

Was auch ganz gerne mal vergessen wird: Bei höheren Speichertaktraten vom Werk aus (wie in diesem Fall 900 vs 1000 MHz), kann es sein, das die Speichertimings anders gesetzt sind... dann hat man den Salat und der Bench ist für die Tonne!

Ailuros
2007-01-18, 23:12:42
Was hat das mit meiner Aussage zu tun? Gar nichts.

Vielleicht dass ich etwas Erfahrung mit dem Ding habe und nicht Nachts von merkwuerdigen Thesen traueme?

Wenn du die Karte manuell übertaktest, heißt das noch lange nicht, das du die selben Taktraten/Multiplikatoren/Teiler hast, die XFX ab Werk eingestellt hat!

XFX und alle andere Vendors wie z.B. BFG haben Hand-ausgesuchte chips bekommen und sonst nichts. Keiner der Vendors ausser NVIDIA darf mit den Multiplikatoren herumspielen.

So einen Fall gab es nämlich schonmal, das XFX (oder wars EVGA?) zwar den Coretakt erhöhte, aber dafür andere Taktraten nicht oder nur wenig änderte, was sich natürlich auf die Leistung auswirkte.

Seit dem G71 Problem ist NV strenger als je geworden. Deshalb waren auch alle GPUs beim launch nur auf 575/900 und keinen einzigen Millimeter hoeher getaktet.

Ehrlich gesagt, sehe ich da jetzt auch keinen Widerspruch zu meiner Aussage. Dein Diagramm bestätigt es doch nur.
Hättest vielleicht noch den verwendeten Benchmark (sehr wichtig, um Shaderabhängigkeiten zu kennen) und AA+AF dazuschreiben/benchen sollen.

4xAA/16xAF wurde benutzt und natuerlich FEAR eben wie in dem Link von dem die vorigen Resultate stammen. Was genau soll das Diagramm bestaetigen? Dass G80 nach Dir Bandbreiten-limitiert ist? Ich wuenschte ich koennte auch den core um ca 17% uebertakten dann koenntest Du schnell sehen wie Deine "tolle" These zum Fenster rausfliegt. Wenn Nachfolger mit mehr Bandbreite ankommen, werden sie auch garantiert mehr Einheiten bzw. mehr Fuellrate haben.


PS: Der Win-Treiber ist nicht quelloffen. Wenn du Zugriff darauf hättest, wärst du gar nicht hier, sondern ein reicher Mann. Denn der Windows Quellcode ist von da an nicht mehr weit entfernt. ;-)

Wer erwaehnte denn ueberhaupt Quellcode oder aehnlichen Mist? Dass ich fast 3 Jahre mit NV zusammenarbeitete ist fuer die meisten hier kein Geheimnis.

dargo
2007-01-18, 23:19:58
Was auch ganz gerne mal vergessen wird: Bei höheren Speichertaktraten vom Werk aus (wie in diesem Fall 900 vs 1000 MHz), kann es sein, das die Speichertimings anders gesetzt sind...
Das ist durchaus möglich, ja.

Gast
2007-01-18, 23:42:00
Aber Speichertimings hatten doch noch nie wirklichen Einfluss auf's Endergebnis, zumindest nicht in dem Maße, wie es sich viele ausmalen.

Das hing doch mit der extrem langen (im Vergleich zu CPUs) Pipeline der Grafikprozessoren zusammen, wo man durch die Länge die Latenzen des Speichers sehr gut verstecken kann.

Berichtigt mich, wenn ich mich irre ;)

Ailuros
2007-01-18, 23:47:33
Du irrst Dich natuerlich nicht wenn es sich um Uebertaktungen handelt. Einen moderateren Einfluss koennten im Gegensatz Untertaktungen haben.

Dass die XFX und dergleichen GPUs lediglich uebertaktet wurden kann man sogar auf deren Seiten lesen. Oder will mir hier jemand einreden dass NVIDIA am Anfang keine einzige Uebertaktung erlaubte aus Sicherheitsgruenden und diese jetzt von einem Tag auf den anderen ignoriert? Die Dinger sind mit der Hand ausgesucht und man braucht Zeit dafuer.

The_Invisible
2007-01-19, 07:43:12
Meine Fresse - eine X2800XTX mit 1GB Vram und 153.6 GB/s Speicherbandbreite. :eek:
Bin schon echt auf die Benchmarks gespannt was der R600 damit überhaupt anfangen kann.

damit würde ati ziemlich sicher schon G81 angreifen wollen

mfg

AnarchX
2007-01-19, 08:36:54
[ATi & NVIDIA Increase Demand For 80nm & 65nm @ TSMC]
[...]ATI will likely ramp up orders for its 80nm R600 at TSMC from February-March, and 65nm RV610 and RV630 are expected to follow in June-July.[...]
http://www.vr-zone.com/index.php?i=4505

Midrange und Entry X2... - Karten doch noch dieses Halbjahr, da würde man jedenfalls Auswahl haben, da die GF8-Midrange-Karten auch nicht wirklich früher kommen.
Vielleicht bedeutet, dass einen für den Kunden erfreulichen Preiskampf.

Aber angestrebte Releastermine sind bei ATi trotzdem immer so eine Sache...

Nakai
2007-01-19, 08:53:19
Sieht nach Paperlaunch der Midrage-Karten aus und ich denke nicht, dass sie gegen das Midrage-Segment von Nv bestehen können.

mfg Nakai

Ailuros
2007-01-19, 10:05:34
[ATi & NVIDIA Increase Demand For 80nm & 65nm @ TSMC]

http://www.vr-zone.com/index.php?i=4505

Midrange und Entry X2... - Karten doch noch dieses Halbjahr, da würde man jedenfalls Auswahl haben, da die GF8-Midrange-Karten auch nicht wirklich früher kommen.
Vielleicht bedeutet, dass einen für den Kunden erfreulichen Preiskampf.

Aber angestrebte Releastermine sind bei ATi trotzdem immer so eine Sache...

Mainstream/low end G8x kommen auf 80nm. Zwischen "ramp up orders" und Verfuegbarkeit gibt es ein paar Wochen Unterschied; ebenso wie Du fuer R600 eher Maerz dafuer zaehlen solltest, genau so ist es eher Juli fuer RV6x0 und es gehoert zum 2. Halbjahr. Beide IHVs haben alles 65nm fuer H2 07' projeziert. Dabei kommen G84/86 auf 80nm.

Gast
2007-01-19, 11:37:56
Meine Fresse - eine X2800XTX mit 1GB Vram und 153.6 GB/s Speicherbandbreite. :eek:

Das klingt in der Tat vielversprechend. Habe mir letztens erst wieder ein paar Benches angesehen und da ist mir deutlichst aufgefallen, das schon der G80 im Gegensatz zur vorherigen 7900 GTX kaum noch an Performance verliert, wenn von 1280x1024 auf 1600x1200 (mit AA glaub ich) geschaltet wird. Die alte Generation verlor da noch 10-20fps... die neue höchstens 1-2. Das ist schon heftig.

Wenn das so weiter geht, was dank GDDR4 eigentlich zu erwarten ist, dann sollten wir schon bald auf ein anderes Problem stoßen: Das Ausgabegerät.

Damals war es kaum vorstellbar in Auflösungen von 2560x1600 zu spielen, aber langsam wird das auch ohne SLI/CF massentauglich. Ich hoffe bloß, das die Entwickler das berücksichtigen. ;)

Gast
2007-01-19, 11:38:24
Aber Speichertimings hatten doch noch nie wirklichen Einfluss auf's Endergebnis, zumindest nicht in dem Maße, wie es sich viele ausmalen.

Das Problem ist jedoch: Wenn von gebenchten 5 % Unterschied allein schon 3 % auf die Timings zurückzuführen sind, dann ist das sehr wohl "viel". Man muss es nur in Relation setzen. :)

Aber egal. Zurück zum Thema.

reunion
2007-01-19, 11:53:23
Sieht nach Paperlaunch der Midrage-Karten aus und ich denke nicht, dass sie gegen das Midrage-Segment von Nv bestehen können.

mfg Nakai

Du weißt schon, dass "ramp up orders" absolut nichts über den Launchtermin aussagt?
Und in so einen 65nm Chip passt eine Menge rein, wenn schon würde ich mich fragen, ob nV mit ihrem 128-bit SI und 80nm bestehen kann. Vermutlich nicht, denn ein Refresh in 65nm mit breiterem Bus soll ja bald folgen.

Gast
2007-01-19, 11:56:59
Und in so einen 65nm Chip passt eine Menge rein, wenn schon würde ich mich fragen, ob nV mit ihrem 128-bit SI und 80nm bestehen kann. Vermutlich nicht, denn ein Refresh in 65nm mit breiterem Bus soll ja bald folgen.
mh??
128bit Si?

Ailuros
2007-01-19, 14:24:40
Du weißt schon, dass "ramp up orders" absolut nichts über den Launchtermin aussagt?
Und in so einen 65nm Chip passt eine Menge rein, wenn schon würde ich mich fragen, ob nV mit ihrem 128-bit SI und 80nm bestehen kann. Vermutlich nicht, denn ein Refresh in 65nm mit breiterem Bus soll ja bald folgen.

Mindestens ein Halbjahr ist im GPU Markt (relativiert) eine geraume Zeit. Drei mal darfst Du raten wieviel Clusters und ROP partitions der 65nm Nachfolger haben wird.

Gast
2007-01-19, 19:05:42
Horn 12:
Nun sickert langsam was durch.
Kann die Veröffentlichung dar noch im Jänner/ Anfang Februar kommen?
Seht selbst:



So für die neuen ATI Karten hab ich auch mal was:

(AMD R600系列产品规格及价格)
名称 核心/显存频率 显存类型 显存位宽 显存容量 流处理器数量 工艺 价格(美元)
X2800XTX2 575/2000 GD4 256Bit 512*2 96*2 80 599$
(双核心)
X2800XTX 750/2200 GD4 512Bit 1GB 128 80 599$
X2800XTX 750/2200 GD4 512Bit 512MB 128 80 549$
X2800XT 600/1800 GD3 512Bit 512MB 128 80 499$
X2800XL 600/1800 GD3 512Bit 512MB 96 80 399$
X2800GT 650/1800 GD3 256Bit 512MB 96 80 349$
X2800GTO 600/1400 GD3 256Bit 256MB 96 80 299$
X2600XT 650/1600 GD3 128Bit 256MB 64 80 199$
X2600Pro 550/1400 GD3 128Bit 256MB 64 80 149$
X2300XT 650/1400 GD3 128Bit 256MB 32 80 99$
X2300Pro 500/1400 GD3 128Bit 128/256MB 32 80 69/79$
X2300LE 500/800 GD2 128Bit 128MB 32 80 59$

Raff
2007-01-19, 19:13:22
Nur so nebenbei: Sickerte irgendwo etwas über neue AA-Modi bei Ati durch?

MfG,
Raff

Gast
2007-01-19, 19:16:00
Intresannt das die X2800 XTX nur 575 MHZB Gpu Takt braucht.Hat ATI dann ne schöne Architektur hingezaubert oder was?

Gmax
2007-01-19, 19:29:10
X2800XTX2

Doppelchip Karte?

w0mbat
2007-01-19, 19:42:21
Was soll das "128 80" am Ende?

@Gast: Wie kommst du auf 575MHz? Ich sehe dort 750MHz.

Gast
2007-01-19, 19:47:28
Was soll das "128 80" am Ende?

@Gast: Wie kommst du auf 575MHz? Ich sehe dort 750MHz.


Ich denk mal das steht für 80nm

Gast
2007-01-19, 19:48:15
Ich denk mal das steht für 80nm


und 128 SPs?

boxleitnerb
2007-01-19, 20:35:56
Doppelchipkarte so "günstig" im Vergleich zum nächstliegenden Topmodell?

reunion
2007-01-19, 20:38:13
Nur so nebenbei: Sickerte irgendwo etwas über neue AA-Modi bei Ati durch?

MfG,
Raff

Frag' mal Ailuros. :)

Horn 12:
Nun sickert langsam was durch.
Kann die Veröffentlichung dar noch im Jänner/ Anfang Februar kommen?
Seht selbst:



So für die neuen ATI Karten hab ich auch mal was:

(AMD R600系列产品规格及价格)
名称 核心/显存频率 显存类型 显存位宽 显存容量 流处理器数量 工艺 价格(美元)
X2800XTX2 575/2000 GD4 256Bit 512*2 96*2 80 599$
(双核心)
X2800XTX 750/2200 GD4 512Bit 1GB 128 80 599$
X2800XTX 750/2200 GD4 512Bit 512MB 128 80 549$
X2800XT 600/1800 GD3 512Bit 512MB 128 80 499$
X2800XL 600/1800 GD3 512Bit 512MB 96 80 399$
X2800GT 650/1800 GD3 256Bit 512MB 96 80 349$
X2800GTO 600/1400 GD3 256Bit 256MB 96 80 299$
X2600XT 650/1600 GD3 128Bit 256MB 64 80 199$
X2600Pro 550/1400 GD3 128Bit 256MB 64 80 149$
X2300XT 650/1400 GD3 128Bit 256MB 32 80 99$
X2300Pro 500/1400 GD3 128Bit 128/256MB 32 80 69/79$
X2300LE 500/800 GD2 128Bit 128MB 32 80 59$

Das bisschen was da steht kann sich jeder ohne Probleme zusammenreimen. IMHO wenig glaubwürdig. Vorallem die Dual X2800XTX kann ich mir kaum vorstellen.

chrisihamm
2007-01-19, 21:30:43
Hi,


ähnliche Specs hat jemand über die kommenden Nvidia Produkte im HWForum geposted,schon merkwürdig.


mfg

Gouvernator
2007-01-20, 00:37:40
Das klingt in der Tat vielversprechend. Habe mir letztens erst wieder ein paar Benches angesehen und da ist mir deutlichst aufgefallen, das schon der G80 im Gegensatz zur vorherigen 7900 GTX kaum noch an Performance verliert, wenn von 1280x1024 auf 1600x1200 (mit AA glaub ich) geschaltet wird. Die alte Generation verlor da noch 10-20fps... die neue höchstens 1-2. Das ist schon heftig.

Wenn das so weiter geht, was dank GDDR4 eigentlich zu erwarten ist, dann sollten wir schon bald auf ein anderes Problem stoßen: Das Ausgabegerät.

Damals war es kaum vorstellbar in Auflösungen von 2560x1600 zu spielen, aber langsam wird das auch ohne SLI/CF massentauglich. Ich hoffe bloß, das die Entwickler das berücksichtigen. ;)

Mit normalem MSAA bringt ehrlich gesagt die wahnsinns Bandbreite nicht viel, schon jetzt kann man ziemlich billig auf 2048x1536 umstellen ohne viel zu verlieren bei älteren Spielen so ab 2004. Was massig Bandbreite frisst ist SSAA.

Coda
2007-01-20, 00:56:51
Eigentlich frisst Supersampling von allem was nur nicht von der Vertexleistung. Multisampling verbraucht relativ zur Füllrate eigentlich mehr.

Ailuros
2007-01-20, 06:43:19
*hust*

http://www.beyond3d.com/forum/showpost.php?p=912896&postcount=641

http://www.beyond3d.com/forum/showpost.php?p=913163&postcount=653

Winter[Raven]
2007-01-20, 09:38:17
*hust*

http://www.beyond3d.com/forum/showpost.php?p=912896&postcount=641

http://www.beyond3d.com/forum/showpost.php?p=913163&postcount=653

Also wenn es wirklich mal 5-10% sind, dann ist es wikrlich eine Schande für AMD/ATi...

Ich bezweifle jetzt mal aber ganz starkt diese Zahlen, werden es bestimmt 30-40% sein.

AnarchX
2007-01-20, 09:41:33
;5176327']Also wenn es wirklich mal 5-10% sind, dann ist es wikrlich eine Schande für AMD/ATi...

Ich bezweifle jetzt mal aber ganz starkt diese Zahlen, werden es bestimmt 30-40% sein.
Claims are that the R600 is 5 to 10% faster in DX10 applications than the G80. Note the DX10 claim and no mention of DX9 performance compared to G80.

;)

The_Invisible
2007-01-20, 10:02:33
*hust*

http://www.beyond3d.com/forum/showpost.php?p=912896&postcount=641

http://www.beyond3d.com/forum/showpost.php?p=913163&postcount=653

lol, das hört sich ja fast so an als wäre G81 schon weiter als R600. bin ja mal gespannt...

mfg

dargo
2007-01-20, 10:09:09
*hust*

http://www.beyond3d.com/forum/showpost.php?p=912896&postcount=641

Ich frage mich gerade welche D3D10 Applikationen die getestet haben. Ich kenne noch keine D3D10 Games. :rolleyes:

reunion
2007-01-20, 10:11:09
Vorallem würde mich mal interessieren, mit was man die DX10-Performance gemessen haben will. Sieht mir eher nach Marketing aus, als nach einer ernstzunehmenden Aussage.

Gut ist, dass die Midrange- und Lowend-Chips fast zeitgleich mit nV kommen sollen. Das hörte sich ja zu beginn ganz anders an.

dargo
2007-01-20, 10:15:42
Vorallem würde mich mal interessieren, mit was man die DX10-Performance gemessen haben will. Sieht mir eher nach Marketing aus, als nach einer ernstzunehmenden Aussage.

Das habe ich auch sofort gedacht. D3D10 funzt bekannterweise nur unter Vista. Und wie ausgereift Vista Treiber sind wissen wir ja alle. Trotzdem würde ich gerne erfahren was die da überhaupt getestet haben? Irgendeine NV Demo? :|

AnarchX
2007-01-20, 10:21:56
3DMark07?

reunion
2007-01-20, 10:31:53
Das habe ich auch sofort gedacht. D3D10 funzt bekannterweise nur unter Vista. Und wie ausgereift Vista Treiber sind wissen wir ja alle. Trotzdem würde ich gerne erfahren was die da überhaupt getestet haben? Irgendeine NV Demo? :|

Ich halte das bestenfalls für einen ungenaue Schätzung. Soetwas lässt sich heute schlicht noch nicht zuverlässig messen.

dargo
2007-01-20, 10:34:16
3DMark07?
Selbst wenn, welche Aussagekraft der 3DMark in Games hat sieht man ja an NfS:Carbon. ;)

Gouvernator
2007-01-20, 10:35:46
Die sprechen ja auch nur von "r600" wie wir wissen gibts mehrere davon inklusive irgendeiner "500mhz" GT Version :wink: Villeicht ist das die kleinste die dem G80 mit 10% davonzieht?

Undertaker
2007-01-20, 11:33:51
Selbst wenn, welche Aussagekraft der 3DMark in Games hat sieht man ja an NfS:Carbon. ;)

wie ist das zu verstehen? nfs carbon leidet wie viele andere xbox umsetzungen an einer sehr miesen optimierung auf g70 karten, und ist so gesehen noch viel weniger aussagekräftig als der 3dm06... in opengl liegen dann wieder die 7900er etwas weiter vorne

Gmax
2007-01-20, 11:41:19
Hmm, und die 65nm Version wird dann vermutlich X2900 XTX heißen :rolleyes:

dargo
2007-01-20, 11:46:45
nfs carbon leidet wie viele andere xbox umsetzungen an einer sehr miesen optimierung auf g70 karten, und ist so gesehen noch viel weniger aussagekräftig als der 3dm06...
Ist das wirklich der Fall? Der G80 performt da nämlich ziemlich gut, genau wie der R580. Weshalb sollte man dann die Optimierung beim G7.x weglassen?

reunion
2007-01-20, 11:52:06
Ist das wirklich der Fall? Der G80 performt da nämlich ziemlich gut, genau wie der R580. Weshalb sollte man dann die Optimierung beim G7.x weglassen?

Hat man auch nicht. Es fehlt G7x einfach an Rechenkraft. Das zeigt G80, und das zeigt auch der Vergleich R520 vs. R580, wo ersterer ähnlich schlecht performt wie G71. Ist ja nicht so, dass NFS:Carbon das einzige Spiel wäre, wo dieses "Phänomen" auftritt.

Undertaker
2007-01-20, 12:11:19
Ist das wirklich der Fall? Der G80 performt da nämlich ziemlich gut, genau wie der R580. Weshalb sollte man dann die Optimierung beim G7.x weglassen?

unter optimierungen verstehe ich auch, dass bestimmte shader oder ähnliches so geschrieben werden, dass man eine architektur möglichst gut ausreizt - so geschehen zb. bei lost coast, welches trotz hoher shaderbelastung (siehe x1800xt vs x1900xt) auf dem g71 sehr gut performt - die rechenleistung ist also da

bei nfs carbon ist dies allem anschein nach nicht geschehen, hier wurde einfach mies gearbeitet/portiert, umstände mit denen r580/g80 anscheinend besser zurechtkommen als der g71 - festzustellen bleibt, dass die geschwindigkeit auf keiner verfügbaren grafikkarte auch nur ansatzweise der optik entspricht

Demirug
2007-01-20, 12:26:58
NFS Spiele sind eigentlich eher Textur und weniger Shaderlastig.

SavageX
2007-01-20, 12:32:52
Nicht immer, wenn ein Spiel auf der einen Hardware schlechter läuft als auf der "vergleichbaren" Hardware des Konkurrenten, ist tatsächlich "schlecht optimiert" oder "geschlampt" worden. Nv4x/G70 und die heutige ATI Hardware sind unterschiedlich genug, um ganz unterschiedliche Sachen zu mögen. G70 mag Sprünge in den Shadern nicht so wirklich, X1x00 kommt damit den Vernehmen nach besser klar. Dafür ist auf G70 z.B. das Normalisieren von Vektoren "gratis".

Wenn ein Spiel ein Feature nutzt, das der einen Hardware liegt, der anderen aber nicht, so kann man sich totoptimieren, ohne wirklich was zu bewegen.

Undertaker
2007-01-20, 12:33:01
NFS Spiele sind eigentlich eher Textur und weniger Shaderlastig.

hmm, ich hatte größere unterschiede von r520 vs r580 im gedächtnis und daraus eher auf die shader geschlossen... wenn es denn aber die texturlast wäre, war nicht gerade das seit jeher die domäne des g71?

Gast
2007-01-20, 12:35:14
3DMark07?

Das wer dann natürlich nicht tragisch wenn der R600 da nur 10 % schneller ist.Bei Spiele Benchmarks sinds dann 50 %.

Das neue NFSU Carbon kann garnicht Texturlastig sein.Das kann man gut am vergleich r580/g71 sehen....

horn 12
2007-01-20, 12:38:21
Sollte sich die Performance der X2800XT/Xwirklich nur bei mageren 5-10% oberhalb der 8800 GTX behaupten (was ich aber nicht denke) wird ATI dies beim Preis richten und das Topmodell sogar unter 500 bis max. 530 Euro (in den ersten Tagen) anzubieten wissen. Jedoch sei bedacht dass dies alles noch Beta Treiber sind und bis zur Vorstellung auch weitere 10% gewonnen werden können.
Ich persönlich gehe final von ca. 20-teilweise 30% Mehrperformance beim R600 aus. Die XL dürfte ca. gut etwas unterhalb der GTX zu liegen kommen (ca. -20-25%)

Gast
2007-01-20, 12:39:26
Das wer dann natürlich nicht tragisch wenn der R600 da nur 10 % schneller ist.Bei Spiele Benchmarks sinds dann 50 %.


Und in ein guten Jahr sinds dann 100 % siehe r580/g71,ne 7900 kann sieht heute kein land mehr.Wer auch noch gut in 1,5 Jahre mit seiner Karte spielen will,sollte immer Ati kaufen.Mit denn Ati Karten könnte bis jetzt immer länger alles auf High Spielen.Hätte ich ne 7900 wurde ich Nv verklagen.

Gast
2007-01-20, 12:49:09
Und in ein guten Jahr sinds dann 100 % siehe r580/g71Inwiefern sind Eigenschaften von NV4x/G7x auf G80 übertragbar? Eher gar nicht, denke ich mal.

Mit aussagen wie "sollte immer ATI kaufen" disqualifizierst du dich sowieso für jede vernünftige Diskussion. Immer diese ATI-Trolle...

reunion
2007-01-20, 12:57:43
NFS Spiele sind eigentlich eher Textur und weniger Shaderlastig.

Wie erklärst du dir dann solche Ergebnisse?
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

AnarchX
2007-01-20, 13:09:06
Sollte sich die Performance der X2800XT/Xwirklich nur bei mageren 5-10% oberhalb der 8800 GTX behaupten (was ich aber nicht denke) wird ATI dies beim Preis richten und das Topmodell sogar unter 500 bis max. 530 Euro (in den ersten Tagen) anzubieten wissen.

Da diese Preissenkung ja auch so einfach möglich ist mit einem 512Bit PCB und 1024MB GDDR4... X-D

Das nVidia die bessere D3D10-Architektur hat, halte ich durchaus für realistisch, immerhin wurde ja G80 mehr oder weniger für dieses konzipiert, während man bei ATi wie es aktuell aussieht mehr auf bestehende Konzepte zurückgreift und diese anpasst.
Aber trotzdem wird der R600 wohl beim Launch in der noch aktuellen D3D9-Software eine gute Figur abliefern(vor allem in 2560x1600+AA wird er sich wohl überagend gut schlagen können mit seinen 150GB/s).

Demirug
2007-01-20, 13:13:41
Wie erklärst du dir dann solche Ergebnisse?
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

Sorry, Ich habe das Carbon überlesen. Dort haben die Kollegen die PC Version scheinbar von der XBox 360 Version abgeleitet und nicht mehr wie früher aus dem durch die PS2 limitierten gemeinsamen Konsolenpool. Bei den vielen SKUs die man dort erzeugen muss bleiben systemspezifische Anpassungen leider zugunsten der Wiederverwendbarkeit etwas auf der Strecke.

drmaniac
2007-01-20, 14:42:37
also ich sage mal so,

wenn selbst wenn die neu ATI nur genau 100% von der Nvidia erreicht, dann würde ich mich für ATI entscheiden.

Grund: das kürzere Board ;) 22cm sorgen eben für weniger Stress und Aufräumprobs als das 27cm lange NV Board...

Undertaker
2007-01-20, 15:06:49
steht denn die länge schon fest? denn kleiner, mehr stromverbrauch und angeblich trotzdem nicht lauter als ein g80 kann ich mir noch nicht wirklich vorstellen

drmaniac
2007-01-20, 15:26:07
ja. steht doch hier x mal im Thread. 9" für "uns" ;)

Coda
2007-01-20, 15:39:54
Grund: das kürzere Board ;) 22cm sorgen eben für weniger Stress und Aufräumprobs als das 27cm lange NV Board...

Das PCB ist 22cm lang, nicht der Kühler...

Black-Scorpion
2007-01-20, 15:59:19
Und wo steht wie groß der Kühler ist?
Das wird wohl kaum die Version sein die auf dem OEM Board mit Henkel zu sehen ist.

Coda
2007-01-20, 16:08:05
Und wo steht wie groß der Kühler ist?

Ganz einfach: Man kann keine 200W mit einem 22cm-Kühler wegkühlen - zumindest nicht mit einem erträglichen Lärmpegel.

Das wird wohl kaum die Version sein die auf dem OEM Board mit Henkel zu sehen ist.

Wart's ab.

AnarchX
2007-01-20, 16:08:23
@Anonym_001
Aber es ist anzunehmen, dass der Kühler auch bei der Retailversion länger als das PCB sein wird, wenn nicht kommt wohl der in der Vergangenheit schonmal spekulierte 3-Slot-Kühler.
Ich denke nicht, dass man sich bei ATi nochmal eine Kühlung wie bei der X1800XT leisten möchte.

Ailuros
2007-01-20, 16:11:30
Vorallem würde mich mal interessieren, mit was man die DX10-Performance gemessen haben will. Sieht mir eher nach Marketing aus, als nach einer ernstzunehmenden Aussage.

Gut ist, dass die Midrange- und Lowend-Chips fast zeitgleich mit nV kommen sollen. Das hörte sich ja zu beginn ganz anders an.

D3D9 Spiele unter Vista. Und bevor jetzt noch massive Panik ausbricht es handelt sich wohl eher von absichtlicher falscher Information von seiten AMD, als ob sich NV zuruecklehnen wuerde und keinen Finger ruehren.

Nuechtern gesehen heisst es aber auch dass beide IHVs ihre D3D10 zurecht biegen muessen fuer ihre D3D10 GPUs.

Ailuros
2007-01-20, 16:18:01
Da dies ja auch so einfach möglich ist mit einem 512Bit PCB und 1024MB GDDR4... X-D

In welchem heutigem Spiel bzw. Aufloesung braucht man wirklich 150GB/s Bandbreite und 1GB Speicher nochmal? Natuerlich kann ich mir gut vorstellen dass es Faelle geben wird wo der R600 mit 8x MSAA + 8xAAA in sehr hohen Aufloesungen eine G80 ziemlich blamieren koennte aber viel mehr auch nicht. Die Unterschiede unter D3D9.0 duerften auf dem Nivaeu liegen wie sie bis jetzt erwartet werden. Ein gesundes Prozentual mehr aber kein G80-Killer.

Das nVidia die bessere D3D10-Architektur hat, halte ich durchaus für realistisch, immerhin wurde ja G80 mehr oder weniger für dieses konzipiert, während man bei ATi wie es aktuell aussieht mehr auf bestehende Konzepte zurückgreift und diese anpasst.
Aber trotzdem wird der R600 wohl beim Launch in der noch aktuellen D3D9-Software eine gute Figur abliefern(vor allem in 2560x1600+AA wird er sich wohl überagend gut schlagen können mit seinen 150GB/s).

Lass Du Dich nicht auch von den angeblichen "nur" 10% unter D3D10 irrefuehren (siehe meinen vorigen Post).

Black-Scorpion
2007-01-20, 16:18:15
Ganz einfach: Man kann keine 200W mit einem 22cm-Kühler wegkühlen - zumindest nicht mit einem erträglichen Lärmpegel.
Wart's ab.
Du hast dir den Kühler auf dem Bild angesehen?
Anscheinend nicht, sonst hättest du gesehen das der Lüfter noch viel Platz zu eigentlichen Kühler hat.
Und woher hast du die 200W schon wieder?
Sind überhaupt schon verlässliche Daten über den Verbrauch aufgetaucht?

Ailuros
2007-01-20, 16:21:24
@Anonym_001
Aber es ist anzunehmen, dass der Kühler auch bei der Retailversion länger als das PCB sein wird, wenn nicht kommt wohl der in der Vergangenheit schonmal spekulierte 3-Slot-Kühler.
Ich denke nicht, dass man sich bei ATi nochmal eine Kühlung wie bei der X1800XT leisten möchte.

Das PCB ausserhalb von OEM ist kuerzer als das des G80; sonst sieht die Kuehlungsloesung schon etwas laecherlich aus, aber fuer mich persoenlich eher nebensaechlich. Gesehen hab ich das Ding schon, nur gehoert eben noch nicht. Aber ich bin ziemlich zuversichtlich dass es nicht wie ein Jumbo-Jet bei der Landung unter voller Last brummen wird.

AnarchX
2007-01-20, 16:29:23
In welchem heutigem Spiel bzw. Aufloesung braucht man wirklich 150GB/s Bandbreite und 1GB Speicher nochmal?

War eigentlich im Bezug auf eine rasche Preissenkung gemeint, die horn_12 phantasierte und nicht darauf dass es auf Grund dieser Eckdaten unmöglich wäre, dass R600 verliert(hab es nochmal zu Verdeutlichung editiert).

sonst sieht die Kuehlungsloesung schon etwas laecherlich aus, aber fuer mich persoenlich eher nebensaechlich.

Das wäre wohl schonmal ein Punkt in den nV-Bashing-Folien, die zum R600 Launch kommen. X-D

Aber ich bin ziemlich zuversichtlich dass es nicht wie ein Jumbo-Jet bei der Landung unter voller Last brummen wird.
Das ist zu hoffen, mittlerweile sollte ja auch ATi mitbekommen haben, dass eine High-End-Karte nicht ihre Leistung mit über die Lautstärke demonstrieren muss.
Zudem ein wichtiger Punkt, diesmal wird man wohl keine so der Konkurrenz überlegene Bildqualitätsfeatures haben, sodass der Kunde es in Kauf nimmt.

reunion
2007-01-20, 16:41:36
Das hört sich ja schomal nicht so schlecht an, solange sich der Stromverbauch unter idle im Rahmen hält, und der Kühler halbwegs erträglich ist.

Das ist zu hoffen, mittlerweile sollte ja auch ATi mitbekommen haben, dass eine High-End-Karte nicht ihre Leistung mit über die Lautstärke demonstrieren muss.

Im Gegensatz zu nV haben sich die Kühler bei ATi eigentlich nie einen groben Patzer geleistet. :rolleyes:

Zudem ein wichtiger Punkt, diesmal wird man wohl keine so der Konkurrenz überlegene Bildqualitätsfeatures haben, sodass der Kunde es in Kauf nimmt.

Ja, die Karten werden sich weitestgehend annähern, sodass hauptsächlich die Performance zählen sollte. Aber das war auch schon vorher zu erwarten.

LovesuckZ
2007-01-20, 16:47:50
Wenn der Zeitrahmen mit dem Kauf stimmen sollte (eine Woche nach der Cebit), kommt ATi fast 5 ganze Monate* später auf dem Markt.
Das finde ich vom zeitlichen Punkt schon sehr ernüchtern.


Im Gegensatz zu nV haben sich die Kühler bei ATi eigentlich nie einen groben Patzer geleistet. :rolleyes:

Wie sollte der r520/r580 Kühler sonst bezeichnet werden statt als "groben Patzer"? Es ist laut und kühlt nicht wirklich gut.
Und wehe du kommst mit dem 5800Ultra Kühler. Ja, er war laut, dafür aber lautlos im IDLE - Modus.
Und das ist anscheinend das, was heute wohl nur noch zaehlt... :rolleyes:
solange sich der Stromverbauch unter idle im Rahmen hält


*Wir brauchen eine einfachere Datumsangabe...

reunion
2007-01-20, 17:03:08
Wie sollte der r520/r580 Kühler sonst bezeichnet werden statt als "groben Patzer"? Es ist laut und kühlt nicht wirklich gut.


Er kühlt gut genug, um die Karte stabil zu halten, und ist meinem Empfinden nach nicht lauter als bsw. der Kühler eines NV40, welcher von vielen verteidigt wurde.


Und wehe du kommst mit dem 5800Ultra Kühler. Ja, er war laut, dafür aber lautlos im IDLE - Modus.
Und das ist anscheinend das, was heute wohl nur noch zaehlt... :rolleyes:

Das ist das, was zumindest für mich mehr zählt. Nicht im Bezug auf den Kühler, der sollte auch im Lastbetrieb leise sein, aber zumindest im Bezug auf den Stromverbrauch. Optimal wäre natürlich ein generell niedriger Stromverbrauch, sowohl unter idle, als auch unter Last.

Gast
2007-01-20, 17:03:23
Wenn der Zeitrahmen mit dem Kauf stimmen sollte (eine Woche nach der Cebit), kommt ATi fast 5 ganze Monate* später auf dem Markt.
Das finde ich vom zeitlichen Punkt schon sehr ernüchtern.

Sehr nüchtern finde ich nur diese Aussage.
Wenn ATIs Karten besser sein sollten, dann könnte man sogar nVidia einen Vorwurf machen:
Denn die hätten dann weitere x Monate gebraucht um die annähernd gleiche Leistung mit dem kommenden Refreshchip zu erreichen, während ATI schon im Feb/März so weit war...

Ailuros
2007-01-20, 17:11:46
Es kühlt gut genug, um die Karte stabil zu halten, und ist meinem Empfinden nach nicht lauter als bsw. der Kühler eines NV40, welcher von vielen verteidigt wurde.

R5x0 ist G7x Konkurrenz; letzter Graph ganz unten.

http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=16

LovesuckZ
2007-01-20, 17:19:41
Sehr nüchtern finde ich nur diese Aussage.
Wenn ATIs Karten besser sein sollten, dann könnte man sogar nVidia einen Vorwurf machen:
Denn die hätten dann weitere x Monate gebraucht um die annähernd gleiche Leistung mit dem kommenden Refreshchip zu erreichen, während ATI schon im Feb/März so weit war...

Meinst du das ernst? :rolleyes:
Nvidia wird wohl schon heute fleißig Chips gesammelt haben, welche sich nochmal um 10-15% höher takten lassen.
Eine 20% höhere Leistung nach ganzen 5 Monaten liegt einfach im Zeitrahmen in dieser Branche. Und beim erscheinen geht das Spiel von vorne los: Der G81 wird xx% schneller als der G80.


Er kühlt gut genug, um die Karte stabil zu halten, und ist meinem Empfinden nach nicht lauter als bsw. der Kühler eines NV40, welcher von vielen verteidigt wurde.

Ob ihn viele verteidigen, das interessiert mich nicht.
Für mich war der Kühler einfach zu laut.
Einen NV40 als vergleich heranzuziehen ist "gewagt", da 1 1/2 Jahre dazwischen liegen und sich auf diesem Gebiet einiges getan hat. Nicht umsonst hat Nvidia auf wesentlich leisere Kühlungen gesetzt, wenn es auch hier grobe Schnitze gab (7900gt).

Undertaker
2007-01-20, 17:21:22
Er kühlt gut genug, um die Karte stabil zu halten, und ist meinem Empfinden nach nicht lauter als bsw. der Kühler eines NV40, welcher von vielen verteidigt wurde.



das habe ich letzten sommer gemerkt...

http://666kb.com/i/11fbfgbwjjjlt.jpg

Gast
2007-01-20, 17:23:37
Meinst du das ernst? :rolleyes:
Nvidia wird wohl schon heute fleißig Chips gesammelt haben, welche sich nochmal um 10-15% höher takten lassen.
Eine 20% höhere Leistung nach ganzen 5 Monaten liegt einfach im Zeitrahmen in dieser Branche.

Du hast es aber als Nachteil dargestellt.

Aber es ist kein Nachteil, wenn ein Produkt das später herauskommt, schneller ist!

So sehe ich das. Von mir aus könnten die noch warten bis zum Sommer, denn vorher macht DX10 wenig Sinn. Und dann hätten wir noch leistungsfähigere Karten zur Verfügung ...

Den späten Release von ATI finde ich eher positiv, denn so kann ich sagen: Die haben mehr Zeit gehabt, um ihre produkte und treiber auf die neue generation DX10+Vista anzupassen. Sieht man ja bei nV am Treiber!

Zudem finde ich es wenig sinnvoll, eine Karte wie die 8800 GTX zu kaufen, von der klar ist, das sie schon wenige Wochen nachher zum "alten Eisen" gehören wird.

reunion
2007-01-20, 17:24:12
R5x0 ist G7x Konkurrenz; letzter Graph ganz unten.

http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=16

Das ist mir schon klar, und ATi hat bei dieser Generation auch ganz klar das nachsehen (jetzt ausschließlich auf High-End bezogen). Aber im Vergleich zu dem was sich nV in der Vergangenheit geleistet hat, und von vielen hier akzeptiert wurde, ist der Kühler eines R580 wahrlich nicht so schlimm.

das habe ich letzten sommer gemerkt...

http://666kb.com/i/11fbfgbwjjjlt.jpg

Es gibt aktuell keine ATi-Karte, welche standardmäßig mit 675Mhz läuft, und da ich auch nicht weiß, was du sonst noch verstellt/geändert hast, ist dieser Screenshot wertlos. Außerdem sehe ich da keine Bildfehler beim ATi-Tool, also wo ist das Problem?

deekey777
2007-01-20, 17:30:13
Nur so nebenbei: Sickerte irgendwo etwas über neue AA-Modi bei Ati durch?

MfG,
Raff

In welchem heutigem Spiel bzw. Aufloesung braucht man wirklich 150GB/s Bandbreite und 1GB Speicher nochmal? Natuerlich kann ich mir gut vorstellen dass es Faelle geben wird, wo der R600 mit 8x MSAA + 8xAAA in sehr hohen Aufloesungen eine G80 ziemlich blamieren koennte aber viel mehr auch nicht. Die Unterschiede unter D3D9.0 duerften auf dem Nivaeu liegen wie sie bis jetzt erwartet werden. Ein gesundes Prozentual mehr aber kein G80-Killer.
Erwischt?:biggrin:
Wenn der Zeitrahmen mit dem Kauf stimmen sollte (eine Woche nach der Cebit), kommt ATi fast 5 ganze Monate* später auf dem Markt.
Das finde ich vom zeitlichen Punkt schon sehr ernüchtern.



*Wir brauchen eine einfachere Datumsangabe...
Wie lange war der G80 in der Entwicklung und wie lange der R600? Die offizielle Angabe beim G80 war: Seit 2002 und der Herbst 2005 war der Termin gewesen, zu dem der G80 fertig werden sollte.

reunion
2007-01-20, 17:35:41
Ob ihn viele verteidigen, das interessiert mich nicht.
Für mich war der Kühler einfach zu laut.
Einen NV40 als vergleich heranzuziehen ist "gewagt", da 1 1/2 Jahre dazwischen liegen und sich auf diesem Gebiet einiges getan hat. Nicht umsonst hat Nvidia auf wesentlich leisere Kühlungen gesetzt, wenn es auch hier grobe Schnitze gab (7900gt).

Ja mir war/ist der Kühler eines R580 oder NV40 auch zu laut, und ich bin froh dass zumindest nV hieraus gelernt hat, und heute deutlich leisere Kühler anbietet. Aber so zu tun, als ob hier nur ATi Fehler gemacht hätte, ist IMHO nicht ganz nachvollziehbar.

Gast
2007-01-20, 17:35:48
Welchen Sinn würde es eigentlich machen, die nächsten Jahre mehr als 1 GB VRAM zu verbauen:confused:

1 GB sind schon verdammt viel und die werden kaum voll ausgenutzt, bei heutigen Apps.

Aber werden sie das denn in Zukunft? Denn höhere Auflösungen sind nicht in Hinsicht, weil durch Ausgabegerät begrenzt! Und viel mehr Texturen kann man nunmal nicht verwenden, als die, die auf den Bildschirm passen.
Was dann? Wird das Texturenformat geändert:confused:

Coda
2007-01-20, 17:37:42
Welchen Sinn würde es eigentlich machen, die nächsten Jahre mehr als 1 GB VRAM zu verbauen:confused:

D3D10: Höher aufgelöste Texturen (bis 8192x8192), Stream-Out, Constant-Storage, etc.

Gast
2007-01-20, 17:43:52
D3D10: Höher aufgelöste Texturen (bis 8192x8192), Stream-Out, Constant-Storage, etc.

Moment mal. Also jetzt stehen wir bei 4096x4096?

Wenn heutige Spiele in maximal gängiger auflösung (2560x1600) so um die 600 MB verwenden, hieße das dann, das selbst für jeglichen DirectX10 (Spiele)Content etwa 2,5-3 GB ausreichend wären, selbst wenn nur noch die maximal mögliche Texturauflösung verwendet wird?

Das würde ja wieder heißen, das irgendwann noch höhere Texturauflösungen spezifiziert werden müssten... DX11? ;)

LovesuckZ
2007-01-20, 17:47:09
Du hast es aber als Nachteil dargestellt.
Aber es ist kein Nachteil, wenn ein Produkt das später herauskommt, schneller ist!

Nicht die Leistung, das Zeitfenster finde ich schade.
Das eine Karte normalerweise nach 5 MOnaten schneller sein sollte, finde ich dagegen normal.
Nur was bringt es mir als Kunde? Zur Zeit nichts außer warten.

So sehe ich das. Von mir aus könnten die noch warten bis zum Sommer, denn vorher macht DX10 wenig Sinn. Und dann hätten wir noch leistungsfähigere Karten zur Verfügung ...

Und warum mit dem Sommer aufhören? Im Winter spielt man mehr, da man, normalersweise bei kalten Wetter, zu hause bleibt.
"nd dann hätten wir noch leistungsfähigere Karten zur Verfügung ...".
Warten, kann man immer. Das wichtigste ist der Punkt, sich zu entscheiden.

Den späten Release von ATI finde ich eher positiv, denn so kann ich sagen: Die haben mehr Zeit gehabt, um ihre produkte und treiber auf die neue generation DX10+Vista anzupassen. Sieht man ja bei nV am Treiber!

Welches Produkt, welches sich verspätet hat, war ohne Fehler?
Der G80 sollte laut Nvidia 2005 auf dem Markt kommen. Und er ist trotzdem nicht fehlerfrei.

Zudem finde ich es wenig sinnvoll, eine Karte wie die 8800 GTX zu kaufen, von der klar ist, das sie schon wenige Wochen nachher zum "alten Eisen" gehören wird.

Das ist wieder so eine lächerlicher Aussage. Zum alten Eisen würde bedeuten, dass die Leistung der neuen Karten deutlich höher liegt. Und das bedeutet, sie müssen schon 50% und mehr leisten.

Ja mir war/ist der Kühler eines R580 oder NV40 auch zu laut, und ich bin froh dass zumindest nV hieraus gelernt hat, und heute deutlich leisere Kühler anbietet. Aber so zu tun, als ob hier nur ATi Fehler gemacht hätte, ist IMHO nicht ganz nachvollziehbar.

Du hast behauptet, ATi hätte sich keinen "groben Pratzer" geleistet. Der Kühler des r520 und des r580 sind aus dem zeitlichen Kontext heraus jedoch laut und kühlen in keinem Bereich, den ich als gut benenne.
Beispiele aus der Vergangenheit zu nehmen und diese mit der Gegenwart zu vergleichen, finde ich unpassend. Da man bei jeder Firma dann Leichen finden kann.

Gast
2007-01-20, 17:52:35
Nicht die Leistung, das Zeitfenster finde ich schade.

Ja und warum? Was bringt dir eine DX10 Karte jetzt?
Unausgereifte Treiber und keinen DX10 Content, super. :)

Und warum mit dem Sommer aufhören? Im Winter spielt man mehr, da man, normalersweise bei kalten Wetter, zu hause bleibt.

Ähm, falsch.
Ich habe deshalb Sommer gesagt, weil zu diesem Zeitpunkt wohl erster DX10 Content zur Verfügung steht. Da ist dann eine DX10 Karte definitiv vom Vorteil bzw. sogar zwingend notwendig.
Jetzt hat sie keinerlei entscheidenden Vorteil, außer das die bisherige Performance gesteigert wurde - wie immer halt.

Gast
2007-01-20, 17:57:29
Ja und warum? Was bringt dir eine DX10 Karte jetzt?Doppelte Performance in D3D9-Spielen?

Gast
2007-01-20, 17:58:30
Naja momentan sinnlos und nur Marketing, bis wirklich 1GB Ram genutzt werden müssen ist diese Graka Generation 2fach überholt ;) Größere Texturen, Sorry das ich lache aber welche Texturegröße können die Konsolen verarbeiten? Daran werden sich 95% der Entwickler richten, nur ab und an wird es eine Extrawurst für den PC geben und nur echte Unique PC Spiele werden VIELEICHT 2008 nutzen aus mehr Speicher und höherer Bandbreite ziehen.

Bis dahin werden ~512MB sicherlich für jegliche Widescreen Highres Auflösung ausreichen. Ultrahigh Resolutions sind doch selbst im Geek Bereich nur sehr selten anzutreffen, dort gewinnt man keine Käufer und keine Fanboys ;)

Ist es nicht das Ziel eine Highend Karte zu bringen, die als Zugpferd für die Mainstream Karten wirkt? Die sollen ja in Masse verkauft werden aber wenn das PCB und der Chip relativ teuer sind, ist es doch unlogisch da auch in die vollen zu gehn mit 512Bit Speicherinterface und einem Monsterkühler ^^

Undertaker
2007-01-20, 17:59:34
Es gibt aktuell keine ATi-Karte, welche standardmäßig mit 675Mhz läuft, und da ich auch nicht weiß, was du sonst noch verstellt/geändert hast, ist dieser Screenshot wertlos. Außerdem sehe ich da keine Bildfehler beim ATi-Tool, also wo ist das Problem?

@def waren es 2°C weniger, das kann man vergessen - fakt ist, dass weit über 90°C bei über 3500rpm weder kühl noch leise sind, daraus hat man beim r600 wohl gelernt...

Gast
2007-01-20, 18:03:02
Doppelte Performance in D3D9-Spielen?

Genau das ist eben sinnlos für den großteil der Leute, die jetzt schon die gewünschten Anwendungen ruckelfrei spielen können. ;)

Eine DX10 Karte kaufe ich mir nicht wegen der Performance, sondern wegen der Features. Deswegen ist sie *jetzt* sinnlos!
Denn wofür brauche ich ultrahypermegariesige Performance, wenn ich Strategiespiele zocke, die aus Leistung keinen nutzen ziehen, aber aus besserer Grafik schon...

LovesuckZ
2007-01-20, 18:07:25
Ja und warum? Was bringt dir eine DX10 Karte jetzt?
Unausgereifte Treiber und keinen DX10 Content, super. :)

Eine "DX10" High End - Karte bringt mir heute erstmal mehr Leistung. Diese Leistung kann ich heute überall umsetzen. Sei es in höhere FPS, eine schönere Bildqualität oder beides.
Unausgereifte Treiber wirst du bei vielen Produkten finden, egal ob sie pünktlich oder verspätet auf dem Markt kommen.


Ich habe deshalb Sommer gesagt, weil zu diesem Zeitpunkt wohl erster DX10 Content zur Verfügung steht. Da ist dann eine DX10 Karte definitiv vom Vorteil bzw. sogar zwingend notwendig.

"Definitiv vom Vorteil bzw. sogar zwingend notwendig" wird solch eine Karte auch nicht immer Sommer sein. Vielelicht wenn man den 3DMark 2007 ausführen will.
Spiele, welche wirklich einen visuellen Vorteil ziehen, werden erst 2008 kommen. Crysis auf unbestimmte Zeit verschoben, Alan Wake kommt erst irgendwann 2008. Andere "DX10" Spiele werden nur den Compiler gejagt.

Strategiespiele zocke, die aus Leistung keinen nutzen ziehen, aber aus besserer Grafik schon...

Bessere Grafik benötigt auch eine höhere Leistung.
Sehe die deutlich gesteigerte Leistung unter alles unter "DX10" als Abfallprodukt an.

TheGood
2007-01-20, 18:08:20
Das einzig wichtige in der Meldung ist, dass Ati/AMdi ihre Midrange und Lowcost Chips fast zeitgleich mit NV rausbringt. Und das ist doch das positive an dieser Meldung....

Können wir eigentlich beim r700 daovn ausgehene dass er eine cool and quiet lösung hat? :) wäre doch sicher wünschenwert.

Gast
2007-01-20, 18:09:22
Wer auch noch gut in 1,5 Jahre mit seiner Karte spielen will,sollte immer Ati kaufen.Wer vor 1,5 Jahren ATI gekauft hat, kann jetzt schon einige Spiele nicht einmal mehr starten. ;)

Gast
2007-01-20, 18:13:35
Bessere Grafik benötigt auch eine höhere Leistung.

Nicht wirklich.

Wenn ich jetzt 600fps habe wie in einigen Titeln üblich, dann juckt es mich nicht mehr, ob ich mit der nextgen 900fps habe... aber es juckt mich schon, ob ein Effekt möglich ist, den ich unter DX9 nicht mehr habe.

Dazu kommt: Ne menge Strategiespiele sind schon jetzt in 6xAA super spielbar. Da brauchts also gar keine höhere Performance!!!

Was nützlich wäre, sind also hauptsächlich mehr VRAM (bessere Texturen) und bessere Effekte. Und gerade die Effekte wird es unter DX9 nicht mehr geben. Nur deshalb ist eine DX10 Karte meines erachten sinnvoll.

LovesuckZ
2007-01-20, 18:21:46
Nicht wirklich.
Wenn ich jetzt 600fps habe wie in einigen Titeln üblich, dann juckt es mich nicht mehr, ob ich mit der nextgen 900fps habe... aber es juckt mich schon, ob ein Effekt möglich ist, den ich unter DX9 nicht mehr habe.

Was sollen diese Zahlen?
Warum nicht 20 FPS und 30 FPS? Das klingt viel schöner und ist heutzutage auch realisitscher als 600 und 900.
Dann wird vielleicht in dem einen oder anderen Spiel ein effekt fehlen, aber ganz ganz viele Spiele sind eben Konsolenports (maximal DX9) und noch Spiele, die eben vor "DX10" angefangen wurden sind zu entwickeln.
Auch diese werden mit der Leistung "anspruchsvoller" um gehen. Eine höhere Leistung unter DX9 ist also unabdingbar.

Was nützlich wäre, sind also hauptsächlich mehr VRAM (bessere Texturen) und bessere Effekte. Und gerade die Effekte wird es unter DX9 nicht mehr geben. Nur deshalb ist eine DX10 Karte meines erachten sinnvoll.

Dann werden die Mainstreamkarten für dich perfekt sein. Keine gesteigerte Leistung unter dem alten "Schrott" und dazu "DX10" Unterstützung.

Gast
2007-01-20, 18:27:39
Warum nicht 20 FPS und 30 FPS?

Weil das bei mir nicht zutrifft und mich daher nicht interessant > unrelevant.

Das klingt viel schöner und ist heutzutage auch realisitscher als 600 und 900.

In den Sachen die ich spiele, ist das die Regel. ;)
Da nützt mir selbst ein SLI System gar nichts, weil es keinerlei Effekt hat...

Effekte hätten einzig und allein verbesserte Texturen, aber dummerweise bietet kein Hersteller solche nachträglich an ...

LovesuckZ
2007-01-20, 18:30:28
Weil das bei mir nicht zutrifft und mich daher nicht interessant > unrelevant.
In den Sachen die ich spiele, ist das die Regel. ;)
Da nützt mir selbst ein SLI System gar nichts, weil es keinerlei Effekt hat...

Dann denke ich, machen wir hier Ende.
Das wird zu nichts führen, da wir beide unterschiedliche Einstellungen haben.
Du bist eher der Typ, welcher sich Ladescreens ohne FPS Beschränkung ansieht, ich bin der Typ, der den Teil nach dem Laden als aufregender empfindet.

Black-Scorpion
2007-01-20, 18:31:41
Was ist eigentlich der Unterschied zwischen PCIe 1.0a und 1.1?
Der G80 hat ja "nur" PCIe 1.0a.

drmaniac
2007-01-20, 18:49:50
mir ist total egal wie dick und fett oder lang der Kühler wird, wenn nur das Board kurz bleibt.

Denn der fliegt eh runter und wird duch einen WaKü ersetzt...

Ailuros
2007-01-20, 18:58:03
Erwischt?:biggrin:


Zurueck zum Thema denn die Luefter bzw. Strategie-Spiel OTs werden so langsam nervlich ;)

Es war reine Spekulation; Transparenz Supersampling ist zwar nur quasi adaptives AA, aber aus dem Grund dass es sich trotz allem um Supersampling handelt und in alpha test ueberladenen Szenen ganz schoen auf die Leistung hauen kann, stelle ich mir einfach mal vor dass hier die hohe Bandbreite eine groessere Auswirkung haben koennte.

Ganz nebenbei ich hatte vorgestern das Glueck mir ATI's EATM naeher ansehen zu koennen. NVIDIA kann was Transparenz Multisampling betrifft im Vergleich zu diesem noch einiges nachholen. Daumen hoch fuer ATI ;)

reunion
2007-01-20, 19:11:44
Es war reine Spekulation; Transparenz Supersampling ist zwar nur quasi adaptives AA, aber aus dem Grund dass es sich trotz allem um Supersampling handelt und in alpha test ueberladenen Szenen ganz schoen auf die Leistung hauen kann, stelle ich mir einfach mal vor dass hier die hohe Bandbreite eine groessere Auswirkung haben koennte.


Das war wohl eher darauf bezogen, dass du von 8xMSAA auf R600 sprachst. :)

Coda
2007-01-20, 19:16:11
Ganz nebenbei ich hatte vorgestern das Glueck mir ATI's EATM naeher ansehen zu koennen. NVIDIA kann was Transparenz Multisampling betrifft im Vergleich zu diesem noch einiges nachholen.

Inwiefern? Interessiert mich jetzt.

Ailuros
2007-01-20, 19:20:31
Das war wohl eher darauf bezogen, dass du von 8xMSAA auf R600 sprachst. :)

Einfache Logik: was wahres 16xMSAA betrifft sehe ich selbst bei R600 nichts. 4 loops wuerden verdammt auf die Pauke hauen. Ergo kann es nur etwas unter dieser Grenze sein oder ATI hat auch irgend eine Zwischenloesung wie CSAA was ich bezweifle. Wie dem auch sei die einzigen vergleichbaren modi in all den obrigen Faellen waere nur 8xMSAA vs. 8xMSAA.

Mir ist gar nichts unabsichtlich diesmal rausgerutscht :P

Ailuros
2007-01-20, 19:22:51
Inwiefern? Interessiert mich jetzt.

Ich bin mir zwar nicht absolut sicher, aber ich hab das Gefuehl dass ATI mit dem LOD fuer alphas herumfunkeln koennte. Mit ner halben Stunde Testzeit kann ich sowieso nicht viel anrichten. Der Unterschied ist zwar nicht gross, aber es heisst wiederum auch nicht dass NV ihr eigenes TMAA nicht besser machen koennte.

Gast
2007-01-20, 19:35:04
Wer vor 1,5 Jahren ATI gekauft hat, kann jetzt schon einige Spiele nicht einmal mehr starten. ;)

Und wenn dann ist eine X800XT PE mall glatt 30 FPS schneller als eine 6800 Ultra.;)

Raff
2007-01-20, 19:54:04
Jedoch sei bedacht dass dies alles noch Beta Treiber sind und bis zur Vorstellung auch weitere 10% gewonnen werden können.
Ich persönlich gehe final von ca. 20-teilweise 30% Mehrperformance beim R600 aus. Die XL dürfte ca. gut etwas unterhalb der GTX zu liegen kommen (ca. -20-25%)

Nvidias Treiber sind auch noch alles andere als optimiert. Der G80 hat eine komplett neue Architektur, die noch nicht voll ausgefahren wird. MUL anyone? Ein "Wundertreiber" zum R600-Launch ist doch denkbar, hm? ;) Ansonsten nimmt man Ati mit dem G81 den Wind aus den Segeln ...

Ich bin mir zwar nicht absolut sicher, aber ich hab das Gefuehl dass ATI mit dem LOD fuer alphas herumfunkeln koennte. Mit ner halben Stunde Testzeit kann ich sowieso nicht viel anrichten. Der Unterschied ist zwar nicht gross, aber es heisst wiederum auch nicht dass NV ihr eigenes TMAA nicht besser machen koennte.

Vergleiche mal mit ASBT. EATM ist dann einfach nur hässlich. Ok, kostet teils Welten weniger, aber wenn TAA, dann richtig. Hier ist TSSAA vorne.

Einfache Logik: was wahres 16xMSAA betrifft sehe ich selbst bei R600 nichts. 4 loops wuerden verdammt auf die Pauke hauen. Ergo kann es nur etwas unter dieser Grenze sein oder ATI hat auch irgend eine Zwischenloesung wie CSAA was ich bezweifle. Wie dem auch sei die einzigen vergleichbaren modi in all den obrigen Faellen waere nur 8xMSAA vs. 8xMSAA.

Mir ist gar nichts unabsichtlich diesmal rausgerutscht :P

Eigentlich schade, wenn es "nur" 8x SGMS wäre. Hätte man wirklich 153 GB/s, dann könnte man das damit so schnell gar nicht ausfahren ...

MfG,
Raff

Ailuros
2007-01-20, 20:51:12
Nvidias Treiber sind auch noch alles andere als optimiert. Der G80 hat eine komplett neue Architektur, die noch nicht voll ausgefahren wird. MUL anyone? Ein "Wundertreiber" zum R600-Launch ist doch denkbar, hm? ;) Ansonsten nimmt man Ati mit dem G81 den Wind aus den Segeln ...

Selbst wenn der Compiler den MUL endlich benutzt wird es nicht zu besonders nennenswerten Leistungsteigerungen insgesamt kommen; der AA Einbruch in manchen Faellen ist unerklaerlich hoch im Vergleich zu G7x. Schau Dir mal die SS2 Resultate im hardtecs4u neuesten 8800 Review genauer an.

Vergleiche mal mit ASBT. EATM ist dann einfach nur hässlich. Ok, kostet teils Welten weniger, aber wenn TAA, dann richtig. Hier ist TSSAA vorne.

Wenn es zu Qualitaet kommt, liegt Transparency SSAA an der Spitze. Das Problem ist dann eben wie mit allen Supersampling-Loesungen die Fuellrate bzw. Leistung. Wenn mir eine Szene mit alpha tests ueberladen ist, dann ist der Leistungsunterschied zu FS-SSAA auch nicht mehr besonders gross. Hier ist eben dann alles Transparency MSAA eine Zwischenloesung und ich muss auch nicht unbedingt die Aufloesung reduzieren.

Eigentlich schade, wenn es "nur" 8x SGMS wäre. Hätte man wirklich 153 GB/s, dann könnte man das damit so schnell gar nicht ausfahren ...

MfG,
Raff

Ich meinte nur dass selbst wenn R600 mehr als 8xMSAA haben sollte, dass man es trotzdem dann nur mit 8xQ (ergo 8xMSAA) auf G80 vergleichen und nichts anderes. Ein hypothetischer 12xMSAA vs. 8xMSAA oder 8xMSAA vs. 16xCSAA koennte nur als Qualitaets-vergleich Sinn machen. Sterile Leistungsvergleiche waeren Bloedsinn.

Mr. Lolman
2007-01-20, 21:11:31
Vergleiche mal mit ASBT. EATM ist dann einfach nur hässlich. Ok, kostet teils Welten weniger, aber wenn TAA, dann richtig. Hier ist TSSAA vorne.



Immer die Leistung im Auge behalten. Beim R580 kostet EATM ziemlich genau 0.0. Mit ganzen ATM Keys kann man da was schönes zusammenzaubern - oder andersrum - zeig mir mal eine 8800GTS in der Szene. Entweder sähe es schlechter aus, oder es liefe deutlich langsamer: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=5168407#post5168407

Gast
2007-01-21, 00:39:03
Ein G80 hat kein EATM, was willst da vergleichen... Auserdem gehts hier um R600 von dessen AA Fähigkeiten nichts bekannt ist auser die 50/50 Spekulation das er 8xMSAA maximal kann und bei Transparency AA einen besseren/Leistungsfähigeren Algorithmus verwendet.

Ailuros
2007-01-21, 06:54:13
EATM kann man sehr wohl mit TMAA vergleichen. Ganz umsonst kommt das Zeug fuer ATI auch nicht. Der Verlust auf G80 ist zwischen 2 und 5% (im extremsten Fall).

Ich will ernsthaft bezweifeln dass eine 8800GTS staerker einbricht in 1280, selbst mit 8xQ+8xTMAA nicht.

Mr. Lolman
2007-01-21, 09:51:23
EATM kann man sehr wohl mit TMAA vergleichen. Ganz umsonst kommt das Zeug fuer ATI auch nicht. Der Verlust auf G80 ist zwischen 2 und 5% (im extremsten Fall).

Ich will ernsthaft bezweifeln dass eine 8800GTS staerker einbricht in 1280, selbst mit 8xQ+8xTMAA nicht.

Mit 8xTMAA läufts dann schon wieder langsamer als auf ner X1900XTX mit 4x EATM. Außerdem bin ich mir relativ sicher, dass sogar 8xTMAA schlechter aussieht als 4xEATM. In den oben verlinkten Farcryszenen kostet EATM nichtmal 3%. (Das ist ~1 fps. Beim letzten Test hab ich zuviele Hintergrundproggis offen gehabt, deswegen hatte es wahrscheinlich den Anschein, dass es vollkommen gratis wäre)

Bei der Gelegenheit fiel mir auch auf, dass aktiviertes r_GeomInstancing auf meinem A64 auch ~3% kostet. Habs aber trotzdem aktiv, da ich so ohne Performanceverlust auf der Voodoo5 nebenbei fernsehen kann. Ohne Instancing kostet Fernsehen ca. 12% Performance.

Ailuros
2007-01-21, 21:36:11
Mit 8xTMAA läufts dann schon wieder langsamer als auf ner X1900XTX mit 4x EATM.

Um wieviel langsamer genau?

Außerdem bin ich mir relativ sicher, dass sogar 8xTMAA schlechter aussieht als 4xEATM.

Dann leg im relativen Sinn Deine Hand auch nicht ins Feuer, denn es kann sein dass Deine subjektive Meinung andere nicht teilen. Nach meiner genauso subjektiven Meinung ist EATM um einen Schuss bei gleicher Sampleanzahl besser wenn man sich natuerlich auch bewegt und nicht nur stur in die Landschaft glotzt. 8x samples sind schon ein Stueckchen weiter entfernt.

Mr. Lolman
2007-01-22, 03:07:53
Um wieviel langsamer genau?Naja, etwas halt. Überschlagsmässig, ausgehend von folgenden Zahlen...

http://www.hardware.info/en-UK/productdb/ZGNnlmZoyZZl/bGNka5iUmJPK/viewbenchmarks/FarCry_14_SM3_HDR_1600x1200
http://www.hardware.info/en-UK/productdb/ZGNnlmZoyZdl/bGNka5iUmJPK/viewbenchmarks/FarCry_14_SM3_HDR_1600x1200__4x_AA_8x_AF
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/8/#abschnitt_aa_und_af_skalierung

auf jedenfall merkbar..


Dann leg im relativen Sinn Deine Hand auch nicht ins Feuer, denn es kann sein dass Deine subjektive Meinung andere nicht teilen. Nach meiner genauso subjektiven Meinung ist EATM um einen Schuss bei gleicher Sampleanzahl besser wenn man sich natuerlich auch bewegt und nicht nur stur in die Landschaft glotzt. 8x samples sind schon ein Stueckchen weiter entfernt.

Das kann man ja gern nachprüfen. Von genau der Stelle hab ich zwar kein save, aber man kann ja ne neue Suchen. Oder jemand stellts nach.

Ailuros
2007-01-22, 06:09:49
Naja, etwas halt. Überschlagsmässig, ausgehend von folgenden Zahlen...

Hmmm mal sehen...

http://www.hardware.info/en-UK/productdb/ZGNnlmZoyZZl/bGNka5iUmJPK/viewbenchmarks/FarCry_14_SM3_HDR_1600x1200

Hat zwar ueberhaupt nichts mit AA oder TMAA Leistung zu tun, aber 74.1/8800GTS vs. 51.3/X1900XTX.

http://www.hardware.info/en-UK/productdb/ZGNnlmZoyZdl/bGNka5iUmJPK/viewbenchmarks/FarCry_14_SM3_HDR_1600x1200__4x_AA_8x_AF

Ahhhh jetzt wird es schon waermer....60.1/8800GTS vs. 42.8/X1900XTX.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/8/#abschnitt_aa_und_af_skalierung

Und was hat TSAA aka Transparency Supersampling mit Transparency Multisampling genau zu tun?

auf jedenfall merkbar..

http://www.3dcenter.de/artikel/g70_theoretische_benchmarks/index7.php

Da ich weiss wie wenig TMAA meistens kostet auf allen GFs, wuerde ich mir das obrige nochmal ueberdenken. Denkst Du jetzt an TSAA vs. AAA/q dann entschuldige ich mich im voraus, denn ich denke an Transparenz Multisampling und nicht Supersampling.

Das kann man ja gern nachprüfen. Von genau der Stelle hab ich zwar kein save, aber man kann ja ne neue Suchen. Oder jemand stellts nach.

Ich hoffe Du meinst keine Screenshots; setzt Dich vor eine G80 wenn moeglich und probier es selber aus.

Tarkin
2007-01-22, 08:51:09
http://forums.vr-zone.com/showthread.php?t=123791

The websites in China are reporting that AMD will launch the R600 in 8-9th of March and will be officially named as Radeon X2K series. The more mature production silicon seems to be still at A12 and it will be the silicon for the R600 cards at launch. However, the good news is that ATi has successfully taped out A15 silicon that will work at 1GHz so probably we can expect another series of cards in the near future that work at higher clocks eg. Radeon X2850. The next generation R680 seems to come quickly, scheduled for Q3 but based on previous experience, we can expect a Q4 launch instead. Interestingly, they said AMD will announce Fusion CPU which is slated for 2008/2009. NVIDIA will have G81 and the next generation G90 to fend off the competition.

1GHz wären natürlich ein Hammer... in Kombination mit einer fast doppelt so hohen Speicherbandbreite dürfte das Teil ca. 50% schneller sein als ne 8800GTX... schätze ich jetzt mal (Mit weniger braucht AMD/ATI auch gar nicht erst daherzukommen... sonst wird der R600 wahrscheinlich eine Woche später vom G81 geplättet ;)

auch gut zu wissen, dass die R680 schnell kommen soll (R520 all over again?).

James Ryan
2007-01-22, 08:59:19
Der Refresh müsste aber R650 heißen. ;)

MfG :cool:

Zocker_28
2007-01-22, 09:28:16
Ich will entlich mal Bilder sehen wie sie aussehen tut, ich will so eine um jeden Preis:biggrin:

seahawk
2007-01-22, 09:35:18
http://forums.vr-zone.com/showthread.php?t=123791

The websites in China are reporting that AMD will launch the R600 in 8-9th of March and will be officially named as Radeon X2K series. The more mature production silicon seems to be still at A12 and it will be the silicon for the R600 cards at launch. However, the good news is that ATi has successfully taped out A15 silicon that will work at 1GHz so probably we can expect another series of cards in the near future that work at higher clocks eg. Radeon X2850. The next generation R680 seems to come quickly, scheduled for Q3 but based on previous experience, we can expect a Q4 launch instead. Interestingly, they said AMD will announce Fusion CPU which is slated for 2008/2009. NVIDIA will have G81 and the next generation G90 to fend off the competition.

1GHz wären natürlich ein Hammer... in Kombination mit einer fast doppelt so hohen Speicherbandbreite dürfte das Teil ca. 50% schneller sein als ne 8800GTX... schätze ich jetzt mal (Mit weniger braucht AMD/ATI auch gar nicht erst daherzukommen... sonst wird der R600 wahrscheinlich eine Woche später vom G81 geplättet ;)

auch gut zu wissen, dass die R680 schnell kommen soll (R520 all over again?).

Bei Rage3d spricht man von 40-60% Vorteil des R600 gegenüber dem G80 und auch einem deutlichen Vorteil von A15 gegenüber G81.

Langsam werde ich mir mal Gedanken machen die alte 7800GT rauszuwerfen. :biggrin:

LovesuckZ
2007-01-22, 09:42:44
Bei Rage3d spricht man von 40-60% Vorteil des R600 gegenüber dem G80 und auch einem deutlichen Vorteil von A15 gegenüber G81.


Links?
Solche Behauptungen kommen oft und aus dem Rage3D Forum sollte man sowas mit Vorsicht genießen.
Außer die Angaben kommen von Hellbinder. Der hat immer recht.

seahawk
2007-01-22, 09:48:38
http://www.rage3d.com/board/showthread.php?t=33874006&page=43

Gast
2007-01-22, 10:58:56
Ich wäre ein wenig vorsichtiger mit Behauptungen von 50-60 % Mehrleistung. Der R600 wird wohl auf jeden Fall konkurrenzfähig, wahrscheinlich im Durchschnitt auch ein wenig schneller als G80GTX, aber imho werden es keine 50 % sein. ;)

Mancko
2007-01-22, 11:08:06
http://www.rage3d.com/board/showthread.php?t=33874006&page=43

Bitte schauen wer da spekuliert. Der Wahrheitsgehalt ist auch nicht höher als wenn ich jetzt in meine Glaskugel schaue und einfach mal steif behaupte, dass der G81 ATI eine richtige Klatsche verpassen wird.

Mancko
2007-01-22, 11:10:14
Ich wäre ein wenig vorsichtiger mit Behauptungen von 50-60 % Mehrleistung. Der R600 wird wohl auf jeden Fall konkurrenzfähig, wahrscheinlich im Durchschnitt auch ein wenig schneller als G80GTX, aber imho werden es keine 50 % sein. ;)

Nach fast einem halben Jahr wäre es ja auch mehr als peinlich, wenn nicht wenigstens etwas Mehrleistung gegenüber G80 rüberkommt. Die G80 Specs und Benches sind ja nun lange genug bekannt. Im Grunde genommen ist G80 gar nicht mehr der richtige Vergleichspartner weil erheblich früher.

Zocker_28
2007-01-22, 11:11:15
Ich wäre ein wenig vorsichtiger mit Behauptungen von 50-60 % Mehrleistung. Der R600 wird wohl auf jeden Fall konkurrenzfähig, wahrscheinlich im Durchschnitt auch ein wenig schneller als G80GTX, aber imho werden es keine 50 % sein. ;)

Woher willst du den das wissen?
Kann sein das er wirklich so viel schneller ist, kann auch nicht sein werden wir erst sehen wenn er raus ist.
ICH DENKE er wird die GTX ungespitzt in den Boden Hämmern.

drmaniac
2007-01-22, 11:15:28
wegen der 40-50% schneller als eine 8800: wäre eigentlich sogar gewünscht, immerhin kommen die mit ihren Karten jetzt, wie lange 6 Monate?, später als Nvidia und da sind wir rein technisch ja schon weiter ,) Man müsste also fast schon enttäuscht sein, wenn ATI "nur" an NVIDIA anknüpft...

mir ist total egal wie dick und fett oder lang der Kühler wird, wenn nur das Board kurz bleibt.

Denn der fliegt eh runter und wird duch einen WaKü ersetzt...

shit!

3dcenter news:
elche über den größten Speicherausbau (1 GB) sowie die höchsten Taktfrequenzen der Serie verfügen wird (beim Speichertakt bis zu 1200 MHz GDDR4), gleichzeitig aber auch mit 30cm Länge eine deutliche Übergröße aufweist. Die bisherige Berichterstattung zu diesem Fall sagte aus, daß ATI auch gleichartige Karten in geringerer Baugröße (23cm) fertigen wird, laut The Inquirer wird die XTX-Ausführung aber ausschließlich in diesen Abmaßen daherkommen ...zum anderen die entstehenden Abwärme ausreichend auf drt Platine zu verteilen,

verdammt!

30cm ist mir baulich bedingt schon fast zu viel, 27cm wären schon arg knapp geworden ;( Ich will ne XTX Version mit 23cm die man dann von mir aus ONLY mit ner WAKÜ betreiben darf, aber sowas wirds wohl nicht geben ;(

reunion
2007-01-22, 11:32:35
Nach jetzigem Stand der Dinge kommt die 30cm Version nicht mal in den Einzelhandel, sondern nur das 23cm Board. Die 12" Platine ist höchstwahrscheinlich nur ein Vorserienboard, welches ausschließlich im OEM-Markt kurzfristig verkauft wird.

AnarchX
2007-01-22, 11:33:31
Nach jetzigem Stand der Dinge kommt die 30cm Version nicht mal in den Einzelhandel, sondern nur das 23cm Board.
Das Board hat 23cm, aber wie lang wird der Kühler sein(siehe VR-Zone)? ;)

reunion
2007-01-22, 11:40:11
Dieses Gerücht geistert doch auch schon seit ewigkeiten durchs Netz, und bezieht sich höchstwahrscheinlich auf die Vorserienplatine mit verlängertem Kühler, welche von VR-Zone nachgebildet wurde. Ailuros hat jedenfalls nachdem er die finale Karte gesehen haben soll nichts dergleichen angedeutet, nur dass das Ding etwas "lächerlich" aussehen soll, und die Platine kürzer ist als bei G80.

MartinRiggs
2007-01-22, 11:43:27
Wenn der R600 rockt ist mir eigentlich egal wie lang die Karte ist, dann wird Platz geschaffen.
Ich hoffe bloss das der Standardkühler wirklich annehmbar leise ist.
Die X1950xtx ist ja schon ganz ok, wenn der R600-Kühler noch etwas leiser unter last ist wäre es genial...

Zocker_28
2007-01-22, 11:45:49
naund ist doch egal, wird die Flex ausm Keller geholt und noch nen Stück Case dran gemacht ;D
37 cm hab ich bei mir Platz, wird hoffe ich reichen für das Teil:biggrin:

reunion
2007-01-22, 11:46:13
Interestingly, they said AMD will announce Fusion CPU which is slated for 2008/2009.

Es wurde bereits von AMD bekannt gegeben, dass damit frühestens 2010 zu rechnen ist, besonders glaubwürdig scheint die Quelle also nicht zu sein.

Ich sehe gerade das es sich dabei um ein Missverständnis gehandelt hat, AMD spricht jetzt offiziell von 2009.

Gast
2007-01-22, 11:57:58
Woher willst du den das wissen?Erfahrung und so. ;)
ICH DENKE er wird die GTX ungespitzt in den Boden Hämmern.Dann sei aber später nicht enttäuscht, wenn R600 doch nicht der G80-Killer wird, wie es viele erwarten. ;)

The_Invisible
2007-01-22, 13:39:07
manche tun ja wirklich so als ob es ne meisterleistung wäre einen fast 1/2 jahr alten chip zu schlagen. laut gerüchten wartet nvidia mit dem g81 eh schon in den startlöchern auf den r600 um entsprechend anzuworten.

mfg

Zocker_28
2007-01-22, 13:41:03
werden wir ja sehen, wird den vermutet das der R600 mehr Strom fressen wird als die GTX, aber ich denk mal schon oder ?

seahawk
2007-01-22, 13:44:55
Die Gerüchte gehen von eine unbedeutend höheren Maximalverbrauch aus.

reunion
2007-01-22, 13:49:05
manche tun ja wirklich so als ob es ne meisterleistung wäre einen fast 1/2 jahr alten chip zu schlagen. laut gerüchten wartet nvidia mit dem g81 eh schon in den startlöchern auf den r600 um entsprechend anzuworten.

mfg

Wenn ATi R600 wie von VR-Zone angegeben wirklich am 8. März vorstellen sollte, wären das ziemlich genau vier Monate. Und G81 wird frühestens für Sommer erwartet, spekuliert wird momentan mit einer höher getakteten Version des G80.

Gmax
2007-01-22, 13:53:56
manche tun ja wirklich so als ob es ne meisterleistung wäre einen fast 1/2 jahr alten chip zu schlagen. laut gerüchten wartet nvidia mit dem g81 eh schon in den startlöchern auf den r600 um entsprechend anzuworten.

mfg

Ich denke AMD wird künftig mehr Druck auf seine neue Sparte Ati ausüben.
Vielleicht kommt der R700 schon im November, zeitgleich mit nVidias kommenden Nextgen.

LovesuckZ
2007-01-22, 13:55:34
Wenn ATi R600 wie von VR-Zone angegeben wirklich am 8. März vorstellen sollte, wären das ziemlich genau vier Monate. .

Und im Beyond3d.com Forum wird von Cebit als Vorstellung und eine Woche später von Verkauf geredet.
Macht für mich mehr Sinn, da man solch eine Karte eher auf einer großen Messe vorstellen wird als kurz vorher. Immerhin kann man auf der Messe schon feiern.