PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 6


Seiten : 1 2 [3] 4 5

reunion
2007-03-20, 20:29:47
Aber ATI muss sich eben auch Luft f+r die ungünstigsten Umweltumstände lassen. Ich lege mich hinsichtlich der Taktung auch gar nicht fest, nur fonde ich es von der Zeitschiene erschreckend wenn man auf der CeBit immer noch keine Boards der entgültigen Spezifikation gezeigt haben sollte.

Denn dann ergeben sich für mich einige Dinge.

a) es wird noch kein endgültiges Silikon aisgeliefert
b) es wurden und werden noch keine Boards produziert

Warum soll man keine "Boards mit endgültigen Spezifikation" gezeigt haben? Nur weil die Taktraten vermutlich noch nicht feststehen? Wie schon gesagt, soetwas wird immer erst ganz zum Schluss gemacht. Bei R520 wurde sogar davon berichtet, dass einige Tester von ATi nachträglich ein neues Bios bekamen, dass die Karte mit 625MHz, statt den ursprünglich geplanten 600Mhz taktete. Deine zwei Schlussfolgerungen sind derart aus der Luft gegriffen. Die finalen Taktraten bedürfen eben einer genauen Analyse der Chips, wie du hier auf die Silicon-Revision und die Boards kommst, wird wohl dein Geheimnis bleiben.

Gast
2007-03-20, 20:44:21
Nur weil die Taktraten vermutlich noch nicht feststehen? Wie schon gesagt, soetwas wird immer erst ganz zum Schluss gemacht. Bei R520 wurde sogar davon berichtet, dass einige Tester von ATi nachträglich ein neues Bios bekamen, dass die Karte mit 625MHz, statt den ursprünglich geplanten 600Mhz taktete.

Sehr schlechtes Beispiel wenn man das geplante Releasedatum mit dem wirklichen Release beim R520 vergleicht... Ein nachgeliefertes BIOS das die Taktraten der "Testgrakas" (die wohl immer! selektiert sind um gute OC Werte zu erhalten) anhebt, find ich jetzt nicht gerade löblich.
Tester sollten Grakas bekommen die gefälligst auch 1 Tag nach Release kaufbar sind. Vorserienmodelle haben ja immer irgendwelche Kinderkrankheiten, beste is immer wenn die Lüfterreglung noch net eingebaut ist...

Gast
2007-03-20, 20:48:54
Bei R520 wurde sogar davon berichtet, dass einige Tester von ATi nachträglich ein neues Bios bekamen, dass die Karte mit 625MHz, statt den ursprünglich geplanten 600Mhz taktete.

Und kaufbar waren die Karten erst Wochen nach den Reviews. Sowas ist heute einfach out.

reunion
2007-03-20, 21:00:39
Und kaufbar waren die Karten erst Wochen nach den Reviews. Sowas ist heute einfach out.

Das muss ja nicht bei R600 genau so sein. Trotzdem kann man die finalen Taktraten noch sehr kurzfristig ändern, falls man dies für nötig erachtet. Momentan scheinen jedenfalls sehr viele verschieden getakteten Samples im Umlauf zu sein.

Gast
2007-03-20, 21:23:24
Kommt wohl durch die Respins, da auch alte Samples rumgereicht werden?
Oder schon 65nm Samples im Umlauf sind um Kunden bei der Stange zu halten. Die sich allerdings alle auf Nachfragen bzgl. R600 etwas genervt zeigen.

Die Bilder bei vr-zone allerdings halte ich für realistisch, welche Version auch immer da gezeigt wird. Das PCB, zumindest was man davon sieht inklusive Lüfter macht einen fertigen Eindruck, auch die beiden Stromversorgungsstecker sind nicht mehr "hinten raus" zu den HDs platziert ;)
Stutzig macht mich eher das da 2 Stecker für Lüfter sind...

Auf die 3DMarks geb ich nix, erst wenn der 1. hier im Forum sein Vista mit der Karte gequält hat und nicht die Krise krigt, ist die Karte für mich "real" ^^

reunion
2007-03-20, 21:31:50
Die VR-Zone Shots sind eben die ersten Bilder der Retailversion, während man sonst nur die OEM-Version zu Gesicht bekommt. Wobei mich stark interessieren würde, was es da auf der Vorderseite so besonderes zu sehen gibt:

We saw some R600 cards at CeBIT but any form of photography is restricted as AMD is keeping a close watch making sure nothing is leaked outside. Nevertheless, we still managed to get some shots on the retail R600XTX (Radeon X2900 XTX) card. The frontal shot contains sensitive information so we can't show it here.

Das ist jedenfalls ziemlich sicher kein gewöhnlicher Kühler.

[R600 Card Uses Theater 200 Video Decoder Chip] (http://www.vr-zone.com/index.php?i=4831)


Auch nicht schlecht, bis auf den TV-Tuner eine vollwerte All in Wonder.

Kinman
2007-03-20, 21:48:16
Wobei mich stark interessieren würde, was es da auf der Vorderseite so besonderes zu sehen gibt:

Das ist jedenfalls ziemlich sicher kein gewöhnlicher Kühler.


Ein Label, welches zeigen würde, von wem die Karte ist?

mfg Kinman

reunion
2007-03-20, 22:20:19
Soetwas könnte man mit Leichtigkeit entfernen.

Kinman
2007-03-20, 22:22:44
Soetwas könnte man mit Leichtigkeit entfernen.

Kommt drauf an wie groß es ist

Gmax
2007-03-20, 23:42:51
http://666kb.com/i/amsq2p7mv78f0t4ms.jpg

http://666kb.com/i/amsq36zbuq1ho02ic.jpg

http://666kb.com/i/amsq3hh3w8ogokq0k.jpg

http://666kb.com/i/amsq3rls52uy92i0k.jpg

R6oo bei Ebay LoL:

http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=160095063471&ru=http%3A%2F%2Fsearch.ebay.com%3A80%2Fsearch%2Fsearch.dll%3Fsofocus%3Dbs%26sbrf tog%3D1%26from%3DR10%26submitsearch%3DSearch%26satitle%3D160095063471%26sacat%3D-1%2526catref%253DC6%26sargn%3D-1%2526saslc%253D2%26sadis%3D200%26fpos%3DZIP%252FPostal%26ftrt%3D1%26ftrv%3D1%26 saprclo%3D%26saprchi%3D%26fpos%3DZIP%252FPostal%26lsot%3D%26fsop%3D1%2526fsoo%25 3D1%26coaction%3Dcompare%26copagenum%3D1%26coentrypage%3Dsearch%26fgtp%3D%26fpos %3DZIP%252FPostal%26fvi%3D1#ebayphotohosting

Moralelastix
2007-03-21, 00:42:08
Ein Label, welches zeigen würde, von wem die Karte ist?

mfg Kinman


Wie auf den Bildern zu erahnen ist diese abgelichtete Platine von vr-zone unvollständig.

Keinen Lüfter keinen Kupferkühler und bestimmt sitzt da noch nicht mal n R600 auf dem PCB alles nur Schow.

Das ist dann auch der Grund dafür weshalb die die ganze Vorderseite nicht zeigen......

Godlike
2007-03-21, 00:47:38
War abzusehen:

R600 is 80 nanometre

http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=1


Hoffe sie bringen halbwegs vernünftige Mainstreamlösungen, inkl. einer über der X2600XT.

san.salvador
2007-03-21, 00:48:53
Wieso erinnert mich die ganze geschichte immer stärker an 3dfx' Voodoo 6000? :rolleyes:

Gast
2007-03-21, 02:13:48
Die hatte ja 4 kleine Lüfterchen, der wurde es net zu warm *g
Bei der 12Zoll Edition Frage ich mich was da fürn Lüfter hinten drin is, der Luftkanal is ja ziemlich lang. Muss ja mit ordentlich Druck die Luft nach vorne raus schaufeln, sonst bekommt man ja n Hitzestau innerhalb des Kanals...
Die Spannungsversorgung ist ja auch noch direkt vor dem Schaufeln, da muss am PC Gehäuse von vorne Frischluft reingeblasen werden. Sollte auch keine HD im Weg sein ^^

Ailuros
2007-03-21, 05:49:29
Naja, folgt man so einigen Aussagen diverser Member hier, scheint die Treiberqualität bei ATI unter Vista auch noch nicht so dolle sein, mehr Info gibt es leider aber auch nicht.

Da sind die Gerüchte seitens Nvidia über "Wundertreiber" und bessere Treiber um das Stromproblem im Idle zu mindern irgendwie handfester. Was natürlich letztlich dabei rauskommt werden wir irgendwann sehen.

Es kommt von dem was Entwickler hinter den Kulissen sagen; die einfache Nachricht an beide IHVs ist in der Richtung tschuldigung aber mit dem Zeug kann man nicht arbeiten.

Es macht mir auch keinen besonderen Eindruck da Vista so manche Aenderungen mit sich bringt.

Was fuer "Wundertreiber"? Der 1XX.xx Forceware XP und dessen Vista Geselle liegen momentan in ihren finalen Test-durchlaeufen und zu erwarten ist etwas bessere Leistung, hybride modi, bug-fixes und wer erzaehlt dass sich was im 2D modus aendern wird wurde wohl an der Nase herumgefuehrt.

James Ryan
2007-03-21, 08:38:02
Uff, sollte der R600 wirklich in 1600*1200 minimale 200 Pünktchen mehr bekommen als eine schon "alte" Gf 8800 GTX ist das aber schwach! :eek:
Auch wenn der 3DMark für Spiele nichts aussagt ist er doch ein Indikator für die reine Graka-Leistung unter DX9.
Der R600 soll im Mai kommen, das heißt 6 Monate später als der G80 und dann gerade mal ein paar % schneller? Das ist nicht gut :frown:

MfG :cool:

Raff
2007-03-21, 08:41:54
Wenigstens hat Nvidia dann wieder jemanden, der etwas entgegensetzen kann. Der seit Monaten aktuelle Zustand, ganz ohne Konkurrenz dazustehen und dementsprechend die Preise nicht senken zu müssen, ist nicht gut für uns Kunden ...

MfG,
Raff

James Ryan
2007-03-21, 08:46:52
Wenigstens hat Nvidia dann wieder jemanden, der etwas entgegensetzen kann. Der seit Monaten aktuelle Zustand, ganz ohne Konkurrenz dazustehen und dementsprechend die Preise nicht senken zu müssen, ist nicht gut für uns Kunden ...

MfG,
Raff

Genau! Und darum wünsche ich mir auch dass der R600 sehr gut wird! Vor allem damit ATi langfristig gesehen auch ein NVIDIA-Konkurrent bleiben wird.
Außerdem habe ich schon mit einer R600 Karte geliebäugelt da die Gf 8800 Ultra nur ein höher getakteter G80 werden wird (d.h. noch mehr Stromverbrauch, kein Idle-Modus etc. :( )

MfG :cool:

MartinRiggs
2007-03-21, 09:05:05
Man sieht ja wieviel Power die G80 hat, ein etwas besserer R600 reicht mir schon.
Wenn sie gleichauf sind wird es über den preis geregelt und alle freuen sich.

Zocker_28
2007-03-21, 09:28:42
bin mal gespannt was ne XTX kosten wird, egal ob die nun genauso schnell ist oder 50 % mehr Leistung hat, mir egal ich will das ding:biggrin:

Hauwech
2007-03-21, 09:37:30
Es kommt von dem was Entwickler hinter den Kulissen sagen; die einfache Nachricht an beide IHVs ist in der Richtung tschuldigung aber mit dem Zeug kann man nicht arbeiten.

Es macht mir auch keinen besonderen Eindruck da Vista so manche Aenderungen mit sich bringt.

Was fuer "Wundertreiber"? Der 1XX.xx Forceware XP und dessen Vista Geselle liegen momentan in ihren finalen Test-durchlaeufen und zu erwarten ist etwas bessere Leistung, hybride modi, bug-fixes und wer erzaehlt dass sich was im 2D modus aendern wird wurde wohl an der Nase herumgefuehrt.

Die generelle Aussage das beide IHVs an ihren Treibern noch gewaltig arbeiten müssen, ist klar.

Ok, das Wort Wundertreiber ist vielleicht falsch gewählt aber wenn ich mich recht erinnere, gab es auch von deiner Seite entsprechende Andeutungen, dass man bei Nvidia bezüglich der Leistung anscheinend noch was im Ärmel hat, was man erst zum R600 Launch auspacken würde. Falls ich das falsch verstanden habe, sorry.

Wie ich schon schrieb, das Gerücht über mögliche 2D Stromsparmaßnahmen ist halt soweit auch nur ein Gerücht wobei dies von Jens Neuschäfer (ok, ist PR Mann) auf der CeBit in die Welt gesetzt wurde. Auch wenn das letztlich als Unsinn heraustellen sollte, zu wünschen wäre es, oder nicht?

DrumDub
2007-03-21, 09:38:48
War abzusehen:

R600 is 80 nanometre

http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=1


Hoffe sie bringen halbwegs vernünftige Mainstreamlösungen, inkl. einer über der X2600XT.
http://666kb.com/i/amsq2p7mv78f0t4ms.jpg

http://666kb.com/i/amsq36zbuq1ho02ic.jpg

http://666kb.com/i/amsq3hh3w8ogokq0k.jpg

http://666kb.com/i/amsq3rls52uy92i0k.jpg

R6oo bei Ebay LoL:

http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=160095063471&ru=http%3A%2F%2Fsearch.ebay.com%3A80%2Fsearch%2Fsearch.dll%3Fsofocus%3Dbs%26sbrf tog%3D1%26from%3DR10%26submitsearch%3DSearch%26satitle%3D160095063471%26sacat%3D-1%2526catref%253DC6%26sargn%3D-1%2526saslc%253D2%26sadis%3D200%26fpos%3DZIP%252FPostal%26ftrt%3D1%26ftrv%3D1%26 saprclo%3D%26saprchi%3D%26fpos%3DZIP%252FPostal%26lsot%3D%26fsop%3D1%2526fsoo%25 3D1%26coaction%3Dcompare%26copagenum%3D1%26coentrypage%3Dsearch%26fgtp%3D%26fpos %3DZIP%252FPostal%26fvi%3D1#ebayphotohosting

Einfach mal den Thread lesen. Die Bilder und auch die Link gabs hier schon. Kann ja nicht so schwer sein, oder? Sowas wird in Zukunft kommentarlos gelöscht.

AnarchX
2007-03-21, 09:57:35
Die "finale" OEM-Version? (http://www.4gamer.net/news/history/2007.03/20070319154103detail.html) (Übersetzung) (http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fnews%2Fhistory%2F2007.03%2F20070319154 103detail.html&langpair=ja%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
Nur ein weiteres ES...

http://666kb.com/i/amt5lgjgjd9e4sdw1.jpg
http://666kb.com/i/amt5kwfltii26ruj5.gif

Zudem auch noch ein paar interessante Bilder von der D3D10-Version von Just Cause und eine sehr interessante Folie von ATi(bzw. AIB):
http://666kb.com/i/amt5vcr6axj0wz1ap.jpg
;)

captainsangria
2007-03-21, 10:01:30
Die "finale" OEM-Version? (http://www.4gamer.net/news/history/2007.03/20070319154103detail.html)
http://666kb.com/i/amt5lgjgjd9e4sdw1.jpg
ist das nicht das bild, das auch bei der ominösen ebayauktion auftauchte, die hier vor tagen auftauchte? :uponder:

AnarchX
2007-03-21, 10:05:23
ist das nicht das bild, das auch bei der ominösen ebayauktion auftauchte, die hier vor tagen auftauchte? :uponder:

Nein, die sieht wieder etwas anders aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5342696&postcount=510

Die Karte von 4gamer.net scheint auch nur ein ES zu sein, aber interessant wieviele Versionen es davon mittlerweile gibt. :|

btw.
Fudo hat auch noch etwas FUD für uns:
ATI partners lost the fate
CEBIT 2007: R600 demo didn't really helped (http://www.fudzilla.com/index.php?option=com_content&task=view&id=224&Itemid=34)

deekey777
2007-03-21, 10:58:14
Die "finale" OEM-Version? (http://www.4gamer.net/news/history/2007.03/20070319154103detail.html) (Übersetzung) (http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fnews%2Fhistory%2F2007.03%2F20070319154 103detail.html&langpair=ja%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
Nur ein weiteres ES...

http://666kb.com/i/amt5lgjgjd9e4sdw1.jpg
http://666kb.com/i/amt5kwfltii26ruj5.gif

Zudem auch noch ein paar interessante Bilder von der D3D10-Version von Just Cause und eine sehr interessante Folie von ATi(bzw. AIB):
http://666kb.com/i/amt5vcr6axj0wz1ap.jpg
;)

Die Bilder sollen aus "Just Cause" stammen?:confused:
http://www.k-hardware.de/news.php?s=c&news_id=6399

AnarchX
2007-03-21, 11:05:30
Die Bilder sollen aus "Just Cause" stammen?:confused:
http://www.k-hardware.de/news.php?s=c&news_id=6399

Hatte die Bilder jedenfalls woanders schonmal in diesen Zusammenhang gesehen oder passen sie absolut nicht zum Game?

Zocker_28
2007-03-21, 11:37:01
doch, jetzt wo es einer sagt, könnte wirklich JC sein, ich glaub gleich am Anfang von dem Game kann man über die Insel gucken und sieht so ähnlich aus, ich insallier das mal eben, mal gucken ob es ählich aus sieht.

Edit: mist Spiel verliehen

reunion
2007-03-21, 15:46:40
Wie auf den Bildern zu erahnen ist diese abgelichtete Platine von vr-zone unvollständig.

Keinen Lüfter keinen Kupferkühler und bestimmt sitzt da noch nicht mal n R600 auf dem PCB alles nur Schow.

Das ist dann auch der Grund dafür weshalb die die ganze Vorderseite nicht zeigen......

Und das weißt du woher? :|
Die Bilder der Vorderseite sind auf Distanz IMHO viel zu unscharf, um dies daraus ableiten zu können. Ich glaube eher, dass ATi irgendeine neue Kühlmethode einsetzt, die man noch nicht herzeigen will. Zumindest gab es dazu auch schon in der Vergangenheit Gerüchte.

Gast
2007-03-21, 16:14:53
Und das weißt du woher? :|
Die Bilder der Vorderseite sind auf Distanz IMHO viel zu unscharf, um dies daraus ableiten zu können. Ich glaube eher, dass ATi irgendeine neue Kühlmethode einsetzt, die man noch nicht herzeigen will. Zumindest gab es dazu auch schon in der Vergangenheit Gerüchte.
Was für eine neue Kühlmethode? Am Ende muss die Wärme doch mittels Luftstrom aus dem Slot rausgeblasen werden. Ich denke, es handelt sich bei dieser Größe der Kühlung eher um einen Wunsch bzw. Ziel von ATi, das allerdings noch nicht erreichbar ist. Wahrscheinlich experimentieren sie noch mit den maximalen Taktraten herum, die mit dieser kleinen Kühlung möglich sind. Die angepeilten 240W TDP, die vielleicht im Betrieb 200W entsprechen, wird man damit jedenfalls nicht gekühlt bekommen. Entweder werden sie die Taktfrequenzen stark senken, den R600 mit der "OEM" Kühlung ausliefern oder ihn später ausschließlich in einem Prozess kleiner 85nm ausliefern.

robbitop
2007-03-21, 16:24:11
Tja gehoert hat man ja vieles nur kam davon nichts. Wenn ich da an die Fluessigmetalkuehlung denke...

reunion
2007-03-21, 16:31:55
Was für eine neue Kühlmethode? Am Ende muss die Wärme doch mittels Luftstrom aus dem Slot rausgeblasen werden. Ich denke, es handelt sich bei dieser Größe der Kühlung eher um einen Wunsch bzw. Ziel von ATi, das allerdings noch nicht erreichbar ist. Wahrscheinlich experimentieren sie noch mit den maximalen Taktraten herum, die mit dieser kleinen Kühlung möglich sind. Die angepeilten 240W TDP, die vielleicht im Betrieb 200W entsprechen, wird man damit jedenfalls nicht gekühlt bekommen. Entweder werden sie die Taktfrequenzen stark senken, den R600 mit der "OEM" Kühlung ausliefern oder ihn später ausschließlich in einem Prozess kleiner 85nm ausliefern.

Es wurde berichtet das ATi für R600 eine neue Kühlung entwickelt die AFAIK irgendwas mit Nano-Kühltechnik zu tun hat. Muss mal suchen ob ich das noch finde.

Tja gehoert hat man ja vieles nur kam davon nichts. Wenn ich da an die Fluessigmetalkuehlung denke...

Das eine schließt das andere nicht aus.

Moralelastix
2007-03-21, 16:41:49
Das mit der "neuen" Kühlung hat sich aber nur um den Heatspreader gedreht.

http://resources.vr-zone.com//newspics/Mar07/19/R600-vrzone.jpg
Wo is der Lüfter?


http://resources.vr-zone.com//newspics/Mar07/19/R600-vrzone6.jpg
Wo sind die Befestigungsschrauben für den Kühler?

AnarchX
2007-03-21, 16:43:03
Die "neue" Kühlung war doch eine "vapor chamber cooling"-Lösung.

Gast
2007-03-21, 16:44:41
Tja gehoert hat man ja vieles nur kam davon nichts. Wenn ich da an die Fluessigmetalkuehlung denke...
Du meinst wahrscheinlich die Kühlung jedenfalls von der Größenordnung
http://www.computerbase.de/news/hardware/grafikkarten/2005/mai/sapphire_fluessigmetallkuehlung/
Bliebe aber trotzdem das Problem der Wärmeabgabe des flüssigen Metalls an die Umgebung. Der Wärmetauscher muss entweder eine große Fläche haben oder der Luftvolumenstrom dementsprechend groß sein. Da könnte man gleich eine Wasserkühlung nehmen, das wäre billiger. Das Flüssigmetall sorgt ja dafür, dass die Wärme schneller von der GPU wegkommen kann, das Problem der Abgabe bleibt trotzdem, eher bei Kühlung für wirklich kritische Bereiche sinnvoll, wo kurzzeitig extreme Wärmemengen abgeführt werden müssen.
ATi muss entweder die Verlustleistung reduzieren oder auf einen großen Kühler setzen. Das andere Problem wird sein, wer so eine Karte käuft, die höchstwahrscheinlich einen wesentlich schlechteren Wirkungsgrad als die Konkurrenz hat. Da müssen schon mindetens 15% Leistungsvorsprung herhalten, dass ATi es wagt, R600 in Serienproduktion zu geben.

reunion
2007-03-21, 16:45:48
Die "neue" Kühlung war doch eine "vapor chamber cooling"-Lösung.

Genau, so hieß das Ding.

http://resources.vr-zone.com//newspics/Mar07/19/R600-vrzone.jpg
Wo is der Lüfter?


Dass man den durch das dicke, höchstwahrscheinlich doppelte, und extrem spiegelnde Plastik nicht sieht, wundert mich kein bisschen.


http://resources.vr-zone.com//newspics/Mar07/19/R600-vrzone6.jpg
Wo sind die Befestigungsschrauben für den Kühler?

Hier:
http://resources.vr-zone.com//newspics/Mar07/19/R600-vrzone3.jpg

Wo fehlen dir denn Schrauben? Reichen die acht nicht?

Moralelastix
2007-03-21, 17:02:26
Sag mal das mit dem Lüfter kann man doch schon an den nicht belegten Lüftersteckern auf der Platine sehen, wenn man will?!


Wegen den fehlenden Kühlerschrauben: Vergleich mal die Unterseite mit der OEM Version dann siehste hoffentlich was ich mein. Der kleine Metallrahmen fehlt der die vier GPU Kühlerschraubengewinde trägt. Man sieht das transparente rote Kühlergehäuse durch die Löcher.

reunion
2007-03-21, 17:09:04
Sag mal das mit dem Lüfter kann man doch schon an den nicht belegten Lüftersteckern auf der Platine sehen?!


Okay, das ist in der Tat seltsam, darauf habe ich nicht geachtet.


Wegen den fehlenden Kühlerschrauben: Vergleich mal die Unterseite mit der OEM Version dann siehste hoffentlich was ich mein.

Du hast recht, die Spange fehlt. Wobei diese nicht zwingend notwendig sein muss.

Nakai
2007-03-21, 17:10:02
Tja woher haben die dann die Benches?;)

Ich glaube da hat VR-Zone einen Fehler begangen...

mfg Nakai

reunion
2007-03-21, 17:12:30
Tja woher haben die dann die Benches?;)

Ich glaube da hat VR-Zone einen Fehler begangen...

mfg Nakai

Das würde ich nicht sagen. Sie sagen ja nicht, dass die Benchs von genau dieser Karte sind. Es gibt ja bereits unzählige OEM-Versionen. Desweiteren heißt das ja nicht, dass sie keine vollständige Retail-XTX gibt, Ailuros gab schon vor Monaten an, eine solchen Karte gesehen zu haben.

Nakai
2007-03-21, 17:48:18
Tja dann eben so. Vll wurde auch eine OEM-Version getestet, jedenfalls handelt es sich nicht um das finale Sample, was gezeigt wurde.
Ebenfalls gehe ich davon aus, dass die Karte wegen der hohen Abwärme so spät erscheint. Es dauert eben wenn man eine Karte für einen kleineren Kühler konzipiert.


mfg Nakai

Gast
2007-03-21, 17:55:42
Tja dann eben so. Vll wurde auch eine OEM-Version getestet, jedenfalls handelt es sich nicht um das finale Sample, was gezeigt wurde.
Ebenfalls gehe ich davon aus, dass die Karte wegen der hohen Abwärme so spät erscheint. Es dauert eben wenn man eine Karte für einen kleineren Kühler konzipiert.


mfg Nakai
Jo, fragt sich nur, an welchen Stellschrauben sie drehen werden um das zu erreichen.

Gast
2007-03-21, 18:34:48
Die Taktrate des R600 wird vierstellig ;)

foenfrisur
2007-03-21, 18:39:10
wozu gibts denn überhaupt diese 2 ausführungen extra eine für oem?? so gross, wegen luftkühlung?
könnte es sein, das die normale eine mini wakü drauf hat?? hinten 2 schlauchanschlüsse
man sieht auch auch irgendwie keine fins im inneren, von vorne betrachtet^^
http://resources.vr-zone.com//newspics/Mar07/19/R600-vrzone1.jpg

vermutl. nicht...oder nanotubes, wie beim neuen ocz-kühler
zumindest hat vr-zone den schonmal ab gehabt ;)

mfg

reunion
2007-03-21, 19:11:40
wozu gibts denn überhaupt diese 2 ausführungen extra eine für oem?? so gross, wegen luftkühlung?


Es geht vorallem um Kunden wie Dell oder Apple, die solche "full-size" Karten bevorzugt verwenden.

Ailuros
2007-03-21, 19:29:17
Hast du auch eine Begründung anzubieten? Der Launch dürfte irgendwann im Mai sein, und die finalen Taktraten legt man immer erst ganz zum Schluss fest. Natürlich wird es keine riesigen Unterschiede mehr geben, aber etwas mehr sollte durchaus realistisch sein. Ailuros hat bereits angedeutet, dass A15 mit über 800Mhz läuft:




Usw.

Nur sagte ich aber auch dass je mehr Taktrate sie brauchen um G80 zu uebertreffenn, desto mehr spricht es eigentlich gegen die Effizienz von R600.

Es wird wohl doch keiner glauben dass der letzte Verschub ein reiner Zufall war oder?

A Teraflop in a box ist eben nicht auch unbedingt a teraflop in a game.

***edit: ich hatte uebrigens irgendwann vor einiger Zeit erwaehnt dass ATI es geschafft hat ein paar ISVs auf ihre Seite zu bringen, betonte aber dass es sich nicht um Schmiergelder handelte. Scharf nachdenken was das SW-bundle betrifft von R600 und mit was man sich genau erhofft hat einen "Unterschied" zu machen.

foenfrisur
2007-03-21, 19:30:57
mir fällt grad ein, wenn die diese klammer nicht dran haben, dann sind natürlich auch diese finnen nicht zu sehen, da man ja den gesamten kupferkühlkörper unter dieser kunststoffhaube mit abmontiert ;)
also vergesst mein obiges comment

[spekulation:on]
und dadurch das der nun ab ist, kann man ja den DIE sehen und wir würden alle sehen, das sie nur einen 85nm-chip haben :D
behaupten aber zu wissen, das noch ein 65nm erscheinen wird...
(oder es ist nur ein x2900xt) so viel is da ja nun nicht, was man nicht sehen darf^^
[spekulation:off]

mfg

Gast
2007-03-21, 19:36:00
Es geht vorallem um Kunden wie Dell oder Apple, die solche "full-size" Karten bevorzugt verwenden.
Mag sein, aber die bisherige Karte hat den Kühler aber auch nötig, sonst hätte der lange Lufttunnel als "Attrappe" vollkommen gereicht. Aber da drin befindet sich ein Riesenoschi von Kupferkühler mit Heatpipes, der garantiert nicht billig in der Herstellung ist bei den heutigen Rohstoffpreisen. Dazu kommt die ungewisse Lärmkulisse des "kleinen" Radiallüfters. Und wem Dell, Apple oder Alienware das mit ihren gesalzenen Preisen verkaufen wollen bleibt fraglich. Da kommen eigentlich nur Schwerhörige oder Taube in Frage.
Scherz beiseite:
Ich denke, diese Karte wird mit diesem Kühler nie offiziell und auch nicht als OEM Version erscheinen.

reunion
2007-03-21, 19:48:19
Nur sagte ich aber auch dass je mehr Taktrate sie brauchen um G80 zu uebertreffenn, desto mehr spricht es eigentlich gegen die Effizienz von R600.


"Pro-Mhz"-Leistung hat nichts mit Effizienz zu tun. G80 braucht 1350Mhz ALU-Takt, who cares? Einen G80 könnte man nie auf ähnliche Taktraten wie einen R600 bringen, die beiden Chips verfolgen eben unterschiedliche Konzepte.


***edit: ich hatte uebrigens irgendwann vor einiger Zeit erwaehnt dass ATI es geschafft hat ein paar ISVs auf ihre Seite zu bringen, betonte aber dass es sich nicht um Schmiergelder handelte. Scharf nachdenken was das SW-bundle betrifft von R600 und mit was man sich genau erhofft hat einen "Unterschied" zu machen.

Ist schon klar, offensichtlich glaubt man unter D3D10 eine Vorteil zu haben, und das wohl auch nicht ganz unbegründet.

deekey777
2007-03-21, 19:49:51
***edit: ich hatte uebrigens irgendwann vor einiger Zeit erwaehnt dass ATI es geschafft hat ein paar ISVs auf ihre Seite zu bringen, betonte aber dass es sich nicht um Schmiergelder handelte. Scharf nachdenken was das SW-bundle betrifft von R600 und mit was man sich genau erhofft hat einen "Unterschied" zu machen.
Es ist Just Cause und Call of Juarez mit je D3D10.

Gast
2007-03-21, 19:55:35
[QUOTE=reunion;5345100]"Pro-Mhz"-Leistung hat nichts mit Effizienz zu tun. G80 braucht 1350Mhz ALU-Takt, who cares? Einen G80 könnte man nie auf ähnliche Taktraten wie einen R600 bringen, die beiden Chips verfolgen eben unterschiedliche Konzepte.

Das sagst du...
Bei der 8800GTX ging es nicht ums extreme. Mit mehr Spannung, einer lauteren Kühllösung würde man locker auf 700MHz kommen. Und das im 90nm Fertigungsprozeß.

Ailuros
2007-03-21, 19:55:38
"Pro-Mhz"-Leistung hat nichts mit Effizienz zu tun. G80 braucht 1350Mhz ALU-Takt, who cares? Einen G80 könnte man nie auf ähnliche Taktraten wie einen R600 bringen, die beiden Chips verfolgen eben unterschiedliche Konzepte.

Wenn bei jedem Versuch das Resultat als "nicht gut genug" definiert wird und jedesmal etwas an der Taktschraube gedreht wird sagt Dir das sicherlich ueberhaupt nichts. G80 ist schon seit November mit einem 1.35GHz clock domain erhaeltlich und wurde nicht fuer 1.4, nein warte 1.45...hmmm immer noch nicht ganz so usw. verspaetet.

Ist schon klar, offensichtlich hat man unter D3D10 eine Vorteil.

Na mal sehen ob ich wirklich so was andeuten wollte ;)

foenfrisur
2007-03-21, 19:56:16
Ich denke, diese Karte wird mit diesem Kühler nie offiziell und auch nicht als OEM Version erscheinen.

könnte ich mir auch vorstellen, denn wenn man die silhouette der karte von 4gamer.net und die vr-zone bilder vergleicht, dann sind das definitiv 2 verschiede...also entweder ne neue kühllösung für die normale version oder es ist eine midrange-karte genommen worden...

mfg

reunion
2007-03-21, 20:07:12
Wenn bei jedem Versuch das Resultat als "nicht gut genug" definiert wird und jedesmal etwas an der Taktschraube gedreht wird sagt Dir das sicherlich ueberhaupt nichts. G80 ist schon seit November mit einem 1.35GHz clock domain erhaeltlich und wurde nicht fuer 1.4, nein warte 1.45...hmmm immer noch nicht ganz so usw. verspaetet.


Natürlich hast du recht. Man hat vermutlich auch einen anderen G80 erwartet.


Na mal sehen ob ich wirklich so was andeuten wollte ;)

Machs doch nicht immer so spannend. ;(

Gmax
2007-03-21, 20:07:13
http://img.hexus.net/v2/news/ati_physics/sloshed.jpg

Angebliche Physiksimulation mit dem R6oo.

http://www.hexus.net/content/item.php?item=8013

Später sollen mehr Pics folgen.

reunion
2007-03-21, 20:10:02
Das sagst du...
Bei der 8800GTX ging es nicht ums extreme. Mit mehr Spannung, einer lauteren Kühllösung würde man locker auf 700MHz kommen. Und das im 90nm Fertigungsprozeß.

Die Kühllösung ist ausreichend für den Chip. Andere High-End-Chips bleiben auch nicht kühler. Und ob hier wirklich noch so viel Spielraum ist, ist reine Spekulation. Selbst die Quadro taktet trotz aufwändigerer Platine und längerem Kühler nur mit 600Mhz. Das war beim G70 noch ganz anders, wo die Quadro schon das noch schlummernde Potential aufdeckte.

foenfrisur
2007-03-21, 20:19:09
angeblich voller r600 test :)

http://level505.com/2006/12/30/the-full-ati-r600-test/1/?www.reghardware.co.uk

http://level505.com/wp-content/uploads/2006/12/r600-doom3-12801024.jpg

GDDR4 at 1.1 GHz clock speed (March, revised edition)

mfg

reunion
2007-03-21, 20:20:29
Oh Gott, bitte verschone uns von Level505!

Ailuros
2007-03-21, 20:20:41
Ein Grabstein fuer R600@65nm bitte schoen:

http://forum.beyond3d.com/showpost.php?p=951912&postcount=1031

Gast
2007-03-21, 20:25:16
Die Kühllösung ist ausreichend für den Chip. Andere High-End-Chips bleiben auch nicht kühler.

Zwar ist der G80 nicht kühler als ein r580, dafür deutlich leiser.

Und ob hier wirklich noch so viel Spielraum ist, ist reine Spekulation.

Mit einer Spannungserhöhung und einer "liberaleren" Lautstärke wären 700MHz für die TMUs und ROPs machbar.

reunion
2007-03-21, 20:28:21
Mit einer Spannungserhöhung und einer "liberaleren" Lautstärke wären 700MHz für die TMUs und ROPs machbar.

Nur weil du es nochmal wiederholst, wird es nicht richtiger.

Gast
2007-03-21, 20:31:32
Nur weil du es nochmal wiederholst, wird es nicht richtiger.

Das ist interessant: Woher weißt du, dass es falsch wäre?

Android
2007-03-21, 20:38:32
Ein Grabstein fuer R600@65nm bitte schoen:

http://forum.beyond3d.com/showpost.php?p=951912&postcount=1031

Solange sie nicht draussen ist, ist alles nur Spekulation.
AMD/ATI kann genausogut absichtlich 80nm Engineering Samples ausgestellt haben um geheim zu halten, dass der R600 in 65nm rauskommt.
Genauso gut könnte auch diese These, der absolute Schwachsinn sein. Und genauso gut könnten wir ENDLICH AUFHÖREN ÜBER DIESEN SCHEISS ZU DISKUTIEREN UND EINFACH ABWARTEN !!!.........Danke. :ucoffee:

Gast
2007-03-21, 20:53:08
http://img.hexus.net/v2/news/ati_physics/sloshed.jpg

Angebliche Physiksimulation mit dem R6oo.

Später sollen mehr Pics folgen.
Das Bild kommt mir doch bekannt vor...

*such*

Mehr Pics davon?
http://graphics.stanford.edu/~losasso/publications/thin-shells/videos/water_curtain_front.jpg
http://graphics.stanford.edu/~losasso/publications/thin-shells/videos/funnel.jpg
http://graphics.stanford.edu/~losasso/publications/thin-shells/videos/buddha_cup.jpg
Da gibts auch Videos davon.
Ist nur leider ein Paper von Petterson von 2003. X-D

reunion
2007-03-21, 20:54:09
Das ist interessant: Woher weißt du, dass es falsch wäre?

Wie schon gesagt: Selbst die Quadro taktet trotz aufwändigerer Platine und längerem Kühler nur mit 600Mhz. Das war beim G70 noch ganz anders, wo die Quadro schon das noch schlummernde Potential aufdeckte. Und im Profibereich gibt es sicherlich keine Grund, hier irgendetwas zurückzuhalten. Auch habe ich bis jetzt noch keine Hersteller gesehen, der einen G80 über 10% übertakten könnte, auch das war beim G70 gänzlich anders. Wir werden ja sehen, wie es mit der Ultra aussieht. 700Mhz halte ich nichtmal als GTX512 Ablöse mit kaum vorhandener Verfügbarkeit für möglich, und selbst das wäre noch immer um mindestens 100Mhz weniger als R600.

Das Bild kommt mir doch bekannt vor...

*such*

Mehr Pics davon?

Da gibts auch Videos davon.
Ist nur leider ein Paper von Petterson von 2003. X-D

Das sieht zwar ähnlich aus, aber nicht identisch.

horn 12
2007-03-21, 20:54:54
Android hat in dem Punkt absolut Recht und wenn man es "Nüchtern" betrachtet könnte er gar mit 80uf 65um Recht haben. Auch NV sagte sie werden UN-Shader bringen wenn es Zeit ist, und A/A dachte niemals beim G80 schon daran. Dies stinkte ihnen zum Himmel hinauf, das könnt ihr mir glauben. Nun könnte ATI ja das gleiche mit NV vorhaben, und bereits Anfang des Jahres auf 65um gesetzt haben, (wie berichtet den Lauch Anfang Jänner gecancelt) und A/A die Verfügbarkeit aller Produkte und grosse Verfügbarkeit wichtiger geworden sein als ein Launch Ende März/ knapp nach Cebit. :eek: Denn der R600 Sollte Ende des Jahres oder Anfang dieses Jahres kommen.

Könnte doch so sein, und bei der Cebit zeigte man die "alten" Schinken, um nicht die Überaschung zu gefährden. Auch ein Grund der enormen Verschwiegenheit bezüglich des R600.:mad:

Gast
2007-03-21, 20:57:39
Ich denke eher die enorme Verschwiegenheit kommt daher, dass der R600 aktuell nicht konkurrenzfähig ist - ganz einfach. Ob sie es schaffen das Ding bis zum Launch so weit aufzupimpem, dass es an eine 8800GTX und eine eventuelle Ultra rankommt? Ich bezweifle es.

Gast
2007-03-21, 21:07:47
Das sieht zwar ähnlich aus, aber nicht identisch.
1. Nachdenken
2. Wenn mans nicht glaubt mal kurz google anschmeissen, da ich ne Referenz angegeben hab.
3. Wenn man nix findet Antwort posten.

Für dich hab ich mal kurz das Bild aus exakt dem Video zum Paper rausgesucht...
http://img501.imageshack.us/img501/1918/pettersonst8.jpg
Falls es immer noch nicht 100% identisch ist, entschuldige ich mich dafür nicht das richtige Frame des Videos getroffen zu haben. :hammer:

Gast
2007-03-21, 21:08:19
http://img.hexus.net/v2/news/ati_physics/sloshed.jpg

Angebliche Physiksimulation mit dem R6oo.

http://www.hexus.net/content/item.php?item=8013

Später sollen mehr Pics folgen.


DAS ist endlich mal ne interessante Techdemo :O

crux2005
2007-03-21, 21:13:08
Das sieht zwar ähnlich aus, aber nicht identisch.

es ist identisch:

http://forums.hexus.net/showpost.php?p=1034762&postcount=19

Gast
2007-03-21, 21:20:13
und hier ist der link zum vid

http://graphics.stanford.edu/papers/thin_shells_fluid_coupling-sig05/movies/water_curtain_back.avi

Spasstiger
2007-03-21, 21:27:52
1. Nachdenken
2. Wenn mans nicht glaubt mal kurz google anschmeissen, da ich ne Referenz angegeben hab.
3. Wenn man nix findet Antwort posten.

Für dich hab ich mal kurz das Bild aus exakt dem Video zum Paper rausgesucht...
http://img501.imageshack.us/img501/1918/pettersonst8.jpg
Falls es immer noch nicht 100% identisch ist, entschuldige ich mich dafür nicht das richtige Frame des Videos getroffen zu haben. :hammer:
Den Frame hast du schon ziemlich gut getroffen. ;) Hab mal die Sättigung gesenkt, Kontrast und Helligkeit angepasst und die Bildschärfe erhöht:
http://s6.bilder-hosting.de/img/JC3G8.jpg

Hier das Bild von Hexus:
http://img.hexus.net/v2/news/ati_physics/sloshed.jpg

/EDIT: Ok, wurde im Hexus-Forum schon enttarnt. ;)

Android
2007-03-21, 21:35:16
Ich denke eher die enorme Verschwiegenheit kommt daher, dass der R600 aktuell nicht konkurrenzfähig ist - ganz einfach. Ob sie es schaffen das Ding bis zum Launch so weit aufzupimpem, dass es an eine 8800GTX und eine eventuelle Ultra rankommt? Ich bezweifle es.

Ich bin ziemlich fest davon überzeugt, dass dies nicht das Problem ist.
AMD/ATI müsste schon ziemlich viel falsch machen, um mit einem warscheinlichen 512bittigen Speicherinterface hinter dem G80 zu liegen. Dazu kommt noch der warscheinliche GDDR4 Speicher.

Ich glaube sie kämpfen gerade mit: Stromverbrauch, Hitze und Preis.
Gerade letzteres gestaltet sich bei einem 512bittigen Speicherinterface als äusserst problematisch. Umso gespannter bin ich auf die Lösung. ;)

robbitop
2007-03-21, 21:35:34
Ein Grabstein fuer R600@65nm bitte schoen:

http://forum.beyond3d.com/showpost.php?p=951912&postcount=1031
Hab ich doch von Anfang an gesagt. Mal eben auf 65 nm zu shrinken ist Utopie. FUD ahoi.

Ich bin ziemlich fest davon überzeugt, dass dies nicht das Problem ist.
AMD/ATI müsste schon ziemlich viel falsch machen, um mit einem warscheinlichen 512bittigen Speicherinterface hinter dem G80 zu liegen. Dazu kommt noch der warscheinliche GDDR4 Speicher.
Bandbreite ist kein Allheilmittel. Skalierungstests auf dem G80 haben gezeigt, dass der nicht an Bandbreite haengt. Insgesamt ziemlich ausgewogen.
R600 muesste schon eine boese Rohleistung haben, um das 512 Bit SI voellig auszulasten. Die derzeitigen Indizien gehen aber eher in die andere Richtung.

sklave_gottes
2007-03-21, 21:45:54
Ich bin ziemlich fest davon überzeugt, dass dies nicht das Problem ist.
AMD/ATI müsste schon ziemlich viel falsch machen, um mit einem warscheinlichen 512bittigen Speicherinterface hinter dem G80 zu liegen. Dazu kommt noch der warscheinliche GDDR4 Speicher.

Ich glaube sie kämpfen gerade mit: Stromverbrauch, Hitze und Preis.
Gerade letzteres gestaltet sich bei einem 512bittigen Speicherinterface als äusserst problematisch. Umso gespannter bin ich auf die Lösung. ;)

Soviel falsch machen müssen sie garnicht. Es kommt halt nicht immer auf die speicherbandbreite an, sondern darauf was die gpu draus macht. Wie schon öffters erwähnt: die 8800gts hat genug speicherbandbreite.
Wenn der r600 an sich langsamer ist, wird ihm das 512bit interface auch nicht viel helfen. Es kann dann nur höstens die rückstende etwas runder gestalten. Aber so viele vorteile was mache sich vorstellen bringt das auch nicht.(siehe x1950xtx)

reunion
2007-03-21, 21:47:25
1. Nachdenken
2. Wenn mans nicht glaubt mal kurz google anschmeissen, da ich ne Referenz angegeben hab.
3. Wenn man nix findet Antwort posten.

Für dich hab ich mal kurz das Bild aus exakt dem Video zum Paper rausgesucht...
http://img501.imageshack.us/img501/1918/pettersonst8.jpg
Falls es immer noch nicht 100% identisch ist, entschuldige ich mich dafür nicht das richtige Frame des Videos getroffen zu haben. :hammer:

Gehts auch ein wenig netter? Auf deinen Shots sahen die Farben gänzlich anders aus. Ja, ich habe zu schnell geurteilt, aber kein Grund hier gleich unfreundlich zu werden.

Gmax
2007-03-21, 21:53:48
Gute Arbeit Spasstiger und Gast!
Na, dann bin ich mal auf die kommenden Screens gespannt ;D

Spasstiger
2007-03-21, 21:56:37
ATI hat ja in der Vergangenheit häufiger Renderfilmchen als Techdemos umgesetzt, ich erinnere da mal an "Pipe Dream" von Animusic, "Rendering With Natural Light" von Paul Debevec und "Ruby: The DoubleCross" (hab den originalen Renderfilm dazu auf der Platte). Vielleicht wird ja jetzt auch dieses Video mit der Wasserphysik als Techdemo umgesetzt, irgendwoher müssen ja die Gerüchte kommen.

Ailuros
2007-03-21, 21:56:38
Solange sie nicht draussen ist, ist alles nur Spekulation.
AMD/ATI kann genausogut absichtlich 80nm Engineering Samples ausgestellt haben um geheim zu halten, dass der R600 in 65nm rauskommt.
Genauso gut könnte auch diese These, der absolute Schwachsinn sein. Und genauso gut könnten wir ENDLICH AUFHÖREN ÜBER DIESEN SCHEISS ZU DISKUTIEREN UND EINFACH ABWARTEN !!!.........Danke. :ucoffee:

Die Mods koennten auch diesen und jeglichen relevanten zukuenftigen Thread schliessen nur damit Du Dich nicht darueber aufregen brauchst.

Da ich mit dem Beitrag nicht OT war und da ich auf keinen Fall gegen die Forumsregeln verstossen habe, kannst Du Dich gerne bei meinen Vorfahren beschweren dass sie die Demokratie erfunden haben. Ach und natuerlich keine Ursache :biggrin:

horn 12
2007-03-21, 22:38:32
http://www.behardware.com/news/8691/cebit-release-date-of-the-r600.html

laser114
2007-03-21, 22:40:42
http://www.behardware.com/news/8691/cebit-release-date-of-the-r600.html

22. März?
2008 oder wann? :biggrin:

Das wäre morgen... :rolleyes:

Naja, Verfügbarkeit ist da Mitte Mai gegeben. Spricht eigentlich gegen den Hardlaunch.

AnarchX
2007-03-21, 22:42:45
Das ist doch nur dieses uralte Dokument, welches nach dem plötzlichen Canceling von AMD kein Bestand mehr hat.;)

Gast
2007-03-21, 23:11:02
Soviel falsch machen müssen sie garnicht. Es kommt halt nicht immer auf die speicherbandbreite an, sondern darauf was die gpu draus macht. Wie schon öffters erwähnt: die 8800gts hat genug speicherbandbreite.
Wenn der r600 an sich langsamer ist, wird ihm das 512bit interface auch nicht viel helfen. Es kann dann nur höstens die rückstende etwas runder gestalten. Aber so viele vorteile was mache sich vorstellen bringt das auch nicht.(siehe x1950xtx)

Solange nicht bekannt ist wieviele ROPs und TMUs der R600 hat, kann man ihn mit dem "Packet" G80 gar nicht vergleichen. An der GTX und der GTS sieht man das der Chip so wie er nun ist für die Taktrate auch ausgelegt wurde bei der Planung. Deswegen brauchte man auch kein GDDR4 sondern konnte verfügbares GDDR3 nutzen, das genug Bandbreite in Verbindung mit dem breiten SI liefert UND skalierbar ist nach unten/oben.

Die Pixelfüllrate und AA Leistung des G80 muss erstmal der R600 erreichen, und dann kann sein SI ihm da auch helfen die Theoretische Leistung umzusetzen. Nützt aber nix auf ner 6 Spurigen Autobahn auf der Linken Seite mit nem Trabbi versuchen zu überholn...

Wieviel "kostet" das HQ-AF bei aktuellen R5xx Serie an Füllrate, bietet das Dual-Design des G80 da einen Vorteil? Hat ATI etwas vergleichbares eingebaut oder verlässt man sich auf das was der R5xx an TMUs lieferte?

deekey777
2007-03-22, 01:01:34
http://forum.beyond3d.com/showpost.php?p=952179&postcount=1046
Jawed hat bei Xbit was Tolles (http://www.xbitlabs.com/articles/editorial/display/cebit2007-3_3.html) gefunden.
Zunächst wären es die "Beulen" für die Speicher, dann diese Aussage:
Representatives for the company are tight-lipped about thermal performance of the cooler, the water-block itself does not look much different when compared to L.C.S. 4 for Nvidia GeForce 8800 GTX graphics boards, therefore, we can expect that the R600 will have more or less similar power consumption with the G80

Gast
2007-03-22, 02:53:21
http://forum.beyond3d.com/showpost.php?p=952179&postcount=1046
Jawed hat bei Xbit was Tolles (http://www.xbitlabs.com/articles/editorial/display/cebit2007-3_3.html) gefunden.
Zunächst wären es die "Beulen" für die Speicher, dann diese Aussage:

Das sieht ja Kacke aus.... und sooooooooo schön Blau...

Moralelastix
2007-03-22, 05:33:47
http://forum.beyond3d.com/showpost.php?p=952179&postcount=1046
Jawed hat bei Xbit was Tolles (http://www.xbitlabs.com/articles/editorial/display/cebit2007-3_3.html) gefunden.
Zunächst wären es die "Beulen" für die Speicher, dann diese Aussage:

Also diese R600 Kühlung hat zwei Kupfer Wasser Kühlerteile und die G80 hat wohl eine Kupfer Wasser + Alu Luft.

Aber davon kann man kaum auf den Verbrauch der Graka schließen.
Ne Wakü kann ohne weiteres auch mehr Energie aufnehmen schließlich ist das alles zum Großteil abhängig vom angeschlossenen Radiator.

seahawk
2007-03-22, 07:19:02
http://forum.beyond3d.com/showpost.php?p=952179&postcount=1046
Jawed hat bei Xbit was Tolles (http://www.xbitlabs.com/articles/editorial/display/cebit2007-3_3.html) gefunden.
Zunächst wären es die "Beulen" für die Speicher, dann diese Aussage:

Gewagte Schlussfolgerung. Es sind Wakü, die sicherlich in der LAge sind die Verlsutleistung beider KArten abzuführen, daraus folgt aber nicht zwingend, dass die Verlsutleistung gleich ist.

James Ryan
2007-03-22, 08:42:22
AMD/ATI müsste schon ziemlich viel falsch machen, um mit einem warscheinlichen 512bittigen Speicherinterface hinter dem G80 zu liegen. Dazu kommt noch der warscheinliche GDDR4 Speicher.

Speicherbandbreite sagt so gut wie nichts über die tatsächliche Leistung aus.
Bestes Beispiel war die Matrox Parhelia, die erste Consumer-Karte mit 256 Bit Speicherinterface. Die Speicherbandbreite war doppelt so hoch wie bei der damals dominierenden Gf 4 Ti und trotzdem lag die Leistung auf Gf 2 Niveau.
Speicherbandbreite nützt nichts wenn die GPU es nicht nutzen kann.

MfG :cool:

X.Perry_Mental
2007-03-22, 08:52:44
Was wäre eigentlich, wenn man die Probleme (die es beim R600 wohl definitiv gab) längst im Griff hat? Vielleicht wollte man sich einfach nicht die Blöße geben, die neue Architektur auf einem Core 2 Quad zu präsentieren? Immerhin muß AMD ja nicht nur bei der Grafikkarte aufholen, sondern auch bei der Prozessorleistung. Ist der Launch vielleicht verschoben worden, um eine Quad-Core K8L/K10 Plattform "benchtauglich" zu bekommen? Immerhin steht der Barcelona Quad-Core Start ja auch unmittelbar bevor (Q2/2007) - und wer weiss, vielleicht braucht der R600 ja wirklich mehr CPU-Power, um sich in hohen Auflösungen richtig in Szene setzen zu können.

Gast
2007-03-22, 08:57:26
Ist der Launch vielleicht verschoben worden, um eine Quad-Core K8L/K10 Plattform "benchtauglich" zu bekommen?Das glaube ich nicht. Wäre der R600 bereit für einen Launch, hätte man ihn nicht noch weiter verschoben, nur um auch auf Barcelona-Systemen benchen zu können.

Zum Launch der 4x4-Plattform hat man auch auf Nvidia-Chipsätze zurückgegriffen, weil ATI noch nichts verwendbares hatte. Wäre der R600 fertig und konkurrenzfähig für einen Launch im März, hätte ATI ihn auch gebracht, egal ob man dann auf einem Core2 oder hochgetakteten K8-Systemen benchen müsste.

X.Perry_Mental
2007-03-22, 09:07:19
Das glaube ich nicht. Wäre der R600 bereit für einen Launch, hätte man ihn nicht noch weiter verschoben, nur um auch auf Barcelona-Systemen benchen zu können.

Zum Launch der 4x4-Plattform hat man auch auf Nvidia-Chipsätze zurückgegriffen, weil ATI noch nichts verwendbares hatte. Wäre der R600 fertig und konkurrenzfähig für einen Launch im März, hätte ATI ihn auch gebracht, egal ob man dann auf einem Core2 oder hochgetakteten K8-Systemen benchen müsste.
Wen man mit dem R600 richtig angeben will (falls das überhaupt geht...), dann wird man wohl auch das 512Bit Speicherinterface in Szene setzen wollen. Dann reden wir von hohen Auflösungen und jeder Menge Bildqualität. Bei solchen Setups KÖNNTE ein Quad-Core Barcelona (mit angeblich deutlich höherer Performance als Intels C2Q) vielleicht hilfreich sein... auch wenn man dann letzenendes Äpfel mit Birnen vergleicht (was aber in diesem Geschäft so unüblich nicht ist).

Gast
2007-03-22, 09:08:45
dann wird man wohl auch das 512Bit Speicherinterface in Szene setzen wollen. Dann reden wir von hohen AuflösungenBei der Verwendung von hohen Auflösungen steigen die Anforderungen an die Speicherbandbreite auch nicht stärker als der Füllraten- und Shaderleistungsbedarf.

X.Perry_Mental
2007-03-22, 09:15:47
Bei der Verwendung von hohen Auflösungen steigen die Anforderungen an die Speicherbandbreite auch nicht stärker als der Füllraten- und Shaderleistungsbedarf.
Stimmt. Aber was wäre, wenn hier der C2Q limitiert, aber der K10 noch nicht?

Gast
2007-03-22, 09:19:12
Stimmt. Aber was wäre, wenn hier der C2Q limitiert, aber der K10 noch nicht?
Die CPU spielt doch in höheren Auflösungen immer weniger eine Rolle, dann geht die Last mehr und mehr zur Grafikkarte. Also wirds da kaum Unterschiede geben.

Gast
2007-03-22, 09:23:23
Die CPU spielt doch in höheren Auflösungen immer weniger eine Rolle, dann geht die Last mehr und mehr zur Grafikkarte. Also wirds da kaum Unterschiede geben.
Warum bencht man dann für neue Graka-Rekorde mit übertakteten C2Qs?

Gast
2007-03-22, 09:23:55
mir kommt es mittlerweile vor, als ob a/a verzweifelt versucht ein schmackhaftes paket (beigabe von den 2games, angeblich integrierte soundkarte? Theater 200 video decoder chip) zu schnüren und gezielt gerüchte in den umlauf bringen (angeblicher vorteil bei dx10), um den kunden eine r600 schmackhaft zu machen, welche sich leistungsmässig nicht wirklich von einer g80 distanzieren kann.

ich habe seit januar diesen tread in der erwartung gefolgt, das die r600 uns vom hocker reissen wird, habe auch seitdem das geld dafür bei seite gelegt.

nun war ich es leid bis ende mai oder gar mitte juni zu warten bis endlich eine 2900xt/xtx verfügbar sein wird. ich habe mir eine schöne g80 (xfx xxx in meinem fall) bestellt, 2 weitere kollegen taten jetzt das gleiche.

MuLuNGuS
2007-03-22, 09:28:57
sollten die benches von level505 wirklich stimmen ist das bei dem jetzt angelegten vorstellungstermin auf keinen fall ein grund in irgendeine jubelei zu verfallen.
trifft auch noch der hohe stromverbrauch zu tendiere ich bei der näxten karte wieder zu nVidia.(glaube nicht das es noch die neue R300x2 wird ;) )
®

Gast
2007-03-22, 09:42:01
sollten die benches von level505 wirklich stimmen ist das bei dem jetzt angelegten vorstellungstermin auf keinen fall ein grund in irgendeine jubelei zu verfallen.
trifft auch noch der hohe stromverbrauch zu tendiere ich bei der näxten karte wieder zu nVidia.(glaube nicht das es noch die neue R300x2 wird ;) )
®
Hast du Dir mal das Datum der Seite mit den "Benches" angesehen?

PCGH_Carsten
2007-03-22, 09:42:57
Warum bencht man dann für neue Graka-Rekorde mit übertakteten C2Qs?
Weil man da den 3DMark in Standardeinstellungen bencht?

Gast
2007-03-22, 11:24:45
und in den 3dmark eine cpu score mit einfliesst


das ist auch der grund warum viele meinen ein core2duo E6600 bremst eine 8800gtx aus
nur weil irgendein depp gesehen hat das ein anderer mit nem core2Quad auf 4ghz ein paar taisend punkte mehr hat

in der realität bleibt max. eiin halber frame pro sekunde an gewinn übrig

up¦²
2007-03-22, 11:30:42
Schicke Bildchen!
http://www.tweaktown.com/articles/1069/amd_r600_retail_radeon_x2900xtx_better_photos_immerge/index.html

The pictures we are about to display were a nightmare to edit – the brand name was labeled literally 50 – 60 times all over the card by an overprotective AMD and ATI but we managed to smudge it all out and it will forever remain a mystery as to who supplied the pictures to us – so, don’t ask because we won’t be telling!
- - -
...there is still no optimized driver ready for R600. Beta drivers will be released around Catalyst 7.4 (April) but the final and fully optimized driver will not be ready until Catalyst 7.5 (May).


:tongue:

Gast
2007-03-22, 11:34:38
Naja entweder es wurden teile kaschiert oder die bilder sind ein Fake wobei ich mir ersteres nicht vorstellen kann, den warum sollte man das tun?

AMD würde bei ihrer Geheimniskrämerei nie zulassen Bilder zu leaken egal ob kaschiert oder nicht.

So long
der_guru

deekey777
2007-03-22, 11:34:52
CeBIT: R600 Impressionen und Depressionen (http://www.hardtecs4u.com/?id=1174347172,60439,ht4u.php)

Passt wie gerufen. :biggrin:

up¦²
2007-03-22, 11:47:03
Nebenbei: OEM-Version?
Irgendwie paßt das nicht...
So teure karten werden doch praktisch fast NIE in Fabriksrechnern von der Stange angeboten :rolleyes:
Könnte das nicht ein FIRE-Ableger sein für Workstations usw.?
Daher das 'industrielle' Disign?

dargo
2007-03-22, 12:26:22
Schicke Bildchen!
http://www.tweaktown.com/articles/1069/amd_r600_retail_radeon_x2900xtx_better_photos_immerge/index.html

Der Lüfter sieht dem GTS/GTX Lüfter verdammt ähnlich. Wenn der Lüfter das gleiche Lager hat kann man sich schon mal auf eine extrem leise Kühlung freuen, zumindest in Idle.

Anarchy-HWLUXX
2007-03-22, 12:40:54
Naja entweder es wurden teile kaschiert oder die bilder sind ein Fake wobei ich mir ersteres nicht vorstellen kann, den warum sollte man das tun?

AMD würde bei ihrer Geheimniskrämerei nie zulassen Bilder zu leaken egal ob kaschiert oder nicht.

So long
der_guru

Hast gut ignoriert was im text steht ... applaus. Und leaks gibt es immer ... ausser bei Apple :lol:

Nebenbei: OEM-Version?
Irgendwie paßt das nicht...
So teure karten werden doch praktisch fast NIE in Fabriksrechnern von der Stange angeboten :rolleyes:
Könnte das nicht ein FIRE-Ableger sein für Workstations usw.?
Daher das 'industrielle' Disign?

Die OEM version ist fullsize mit Henkel ... das hier ist die Retail / Endkunden version ... die Flammen auf dem Kühler hätten se sich aba sparen können ;D Ist auch so scho heiss genug ...

Cubitus
2007-03-22, 12:55:44
Da hat AMD/ATI aber schön von der Konkurrenz abgeguckt.
Aber das kann man sich ja mit zig Monaten Verspätung auch leisten:rolleyes:

deekey777
2007-03-22, 12:56:44
Da hat AMD/ATI aber schön von der Konkurrenz abgeguckt.
Aber das kann man sich ja mit zig Monaten Verspätung auch leisten:rolleyes:
Wie sieht nochmal die X1950XTX GDDR4 aus?

Anarchy-HWLUXX
2007-03-22, 13:00:25
Da hat AMD/ATI aber schön von der Konkurrenz abgeguckt.
Aber das kann man sich ja mit zig Monaten Verspätung auch leisten:rolleyes:

Ja doll, sollen se nen schlechteren Kühler bauen nur damit er nicht wie bei nV aussieht ?

Winter[Raven]
2007-03-22, 13:00:44
Da hat AMD/ATI aber schön von der Konkurrenz abgeguckt.

Bei ATI ist sowieso seit der R300 nur auch "reagieren oder "Kopieren" angesagt... :Sauer:

Egal bei welcher Technik, SLi vs Crossfire ect...

Gast
2007-03-22, 13:01:30
[QUOTE=Anarchy-HOCP;5346772]Hast gut ignoriert was im text steht ... applaus. Und leaks gibt es immer ... ausser bei Apple :lol:

Schreiben können die von ihrer Webseite viel. Das haben andere auch schon und da waren es nachweislich fakes. Also warum nimmst du jetzt das für bare münze was die Schreiben?

Wie Realistisch ist es den das es sich hier um eine echte R600 Karte, egal ob Retail oder ES, handelt?

So long
der_guru

James Ryan
2007-03-22, 13:04:48
Wie realistisch ist es dass es sich bei diesen Bildern um Fakes handelt? :rolleyes:
Es ist immer das gleiche, die Leute brüllen "FAKE!" sobald erste Bilder da sind. Das war schon bei Gf 4 Ti Zeiten so! Und jedes Mal haben sich die Bilder als richtig heraus gestellt.
Mir gefällt die Karte vom Aussehen her, nur die inneren Werte müssen auch überzeugen.
Übrigens kann man auf der Rückseite das Wort "TUL" lesen. ;)

MfG :cool:

PCGH_Carsten
2007-03-22, 13:15:09
Wie sieht nochmal die X1950XTX GDDR4 aus?
Anders?

Gast
2007-03-22, 13:20:22
Find ich nicht, z.B.:

http://www.komplett.se/img/p/400/325455.jpg

Gast
2007-03-22, 13:24:27
Find ich nicht, z.B.:

http://www.komplett.se/img/p/400/325455.jpg
Die Lüfergeometrie ist anders.

PCGH_Carsten
2007-03-22, 13:24:55
Find ich nicht, z.B.:

http://www.komplett.se/img/p/400/325455.jpg
Schau dir mal den Lüfter an...

DrumDub
2007-03-22, 13:27:09
Die Lüfergeometrie ist anders. jo. das eine ist eine radiallüfter (r600) und das andere nen axiallüfter (x1950xtx).

edit: die 8800er haben auch einen radiallüfter. ist wohl effizienter...

Gaestle
2007-03-22, 13:27:35
CeBIT: R600 Impressionen und Depressionen (http://www.hardtecs4u.com/?id=1174347172,60439,ht4u.php)

Passt wie gerufen. :biggrin:

Aaaaalt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5340325#post5340325

:biggrin:

Vertigo
2007-03-22, 13:27:40
Wie sieht nochmal die X1950XTX GDDR4 aus?
Der Lüfter ist deutlich anders. Dass die Kühlkörper alle ähnlich sind ist angesichts des immernoch vorherrschenden ATX-Standards aber nachvollziehbar.

Ach mist, zu spät. :redface:

seahawk
2007-03-22, 13:29:29
Der Lüfter wirkt auf mich kräftiger als der G80 GTX Lüfter. Außerdem scheint die gesamte Kühlkonstruktion einen höheren Kupferanteil zu haben.

PCGH_Carsten
2007-03-22, 13:31:45
jo. das eine ist eine radiallüfter (r600) und das andere nen axiallüfter (x1950xtx).

edit: die 8800er haben auch einen radiallüfter. ist wohl effizienter...
Nee, das im X1950 XTX ist auch ein Radiallüfter, nur eben nach einen anderen Prinzip (mit mittigem Motor und daran anschließenden Rotorblättern).

Anarchy-HWLUXX
2007-03-22, 13:36:20
Schreiben können die von ihrer Webseite viel. Das haben andere auch schon und da waren es nachweislich fakes. Also warum nimmst du jetzt das für bare münze was die Schreiben?

Wie Realistisch ist es den das es sich hier um eine echte R600 Karte, egal ob Retail oder ES, handelt?

So long
der_guru

Das waren alles lausige bench screens die jedes kiddie Faken kann ... alle bisherigen Hardware Pics zeigen R600 Modelle in verschiebenen versionen ...

Gast
2007-03-22, 13:38:08
Ja ihr werdet mich lünchen für die Bemerkung aber weicht die Bilder nicht sehr von der Skizza von TI ab?

Gast
2007-03-22, 13:42:01
Nicht nur das sie passen auch nicht zu denen von vr-zone!

Gast
2007-03-22, 13:43:29
Nee, das im X1950 XTX ist auch ein Radiallüfter, nur eben nach einen anderen Prinzip (mit mittigem Motor und daran anschließenden Rotorblättern).
Könnte sein, dass der 8800 und der neue R600 Lüfter mehr Druck bei gleicher Drehzahl erzeugen als der X1950 XTX Lüfter. Desweiteren könnte die Herstellung billiger sein, da die Spannungen im Schaufelfuß geringer sind. Auch das Auswuchten dürfte sich einfacher gestalten.

Anarchy-HWLUXX
2007-03-22, 13:49:27
Nicht nur das sie passen auch nicht zu denen von vr-zone!

Kannst du das auch anhand von beispielen verdeutlichen ... die VR-Zone eigenen und die TT Pics zeigen für mich jedenfalls das gleiche Modell.

DrumDub
2007-03-22, 14:14:10
Nee, das im X1950 XTX ist auch ein Radiallüfter, nur eben nach einen anderen Prinzip (mit mittigem Motor und daran anschließenden Rotorblättern). jo, mein fehler.

deekey777
2007-03-22, 14:15:45
Der Lüfter der R600XTirgendwas ist anders. Toll. Ich habe einen Slot-Kühler hier rumliegen samt Radiallüfter a la 8800GTX. Wer hat jetzt von wem kopiert?

Und jetzt schauen wir alle auf die X850XT, X1800XT/XTX, die X1900XT/XTX, X1950XT.
Gaestle:
Alt oder nicht: Wenn man liest, was HT4U geschrieben hat und das, was TT, fällt was auf. :smile:
;5346847']Bei ATI ist sowieso seit der R300 nur auch "reagieren oder "Kopieren" angesagt... :Sauer:

Egal bei welcher Technik, SLi vs Crossfire ect...
Warum läßt es nicht gleich, solchen Quark zu posten?

PCGH_Carsten
2007-03-22, 14:21:27
Der Lüfter der R600XTirgendwas ist anders. Toll. Ich habe einen Slot-Kühler hier rumliegen samt Radiallüfter a la 8800GTX. Wer hat jetzt von wem kopiert?

Und jetzt schauen wir alle auf die X850XT, X1800XT/XTX, die X1900XT/XTX, X1950XT.

Was willst du damit jetzt sagen? Radiallüfter gabe es schon, bevor Nvidia oder Ati überhaupt gegründet wurden... Und den ersten Einsatz dieser im PC-Bereich sah man in Workstation-Karten. Der älterste Radiallüfter in meiner Sammlung sitzt zum Beispiel auf einer Fx5800 U.

Gast
2007-03-22, 14:30:39
Es ist sowieso albern zu behaupten, ATi hätte jetzt das Design geklaut. Die bauen die Lüfter und Kühlkörper ja afaik nicht selber. Könnten beide jetzt vom selben Lüfterhersteller einkaufen. Und der nimmt das selbe Design für beide Hersteller aus technischen und wirtschaftlichen Gründen.

deekey777
2007-03-22, 14:39:45
Was willst du damit jetzt sagen? Radiallüfter gabe es schon, bevor Nvidia oder Ati überhaupt gegründet wurden... Und den ersten Einsatz dieser im PC-Bereich sah man in Workstation-Karten. Der älterste Radiallüfter in meiner Sammlung sitzt zum Beispiel auf einer Fx5800 U.
Ich habe meinen Text vorher etwas entschärft, denn da stand so etwas wie "Hauptsache lauthalst schreien, das haben die kopiert".
Das Lüftungskonzept der X1950XTX war wie von AC 1:1 übernommen, nur die Aufkleber mit dem AC-Logo fehlten. Das Lüftungskonzept der 8800 erinnert auch den AC-Kühler.
Bei der X1950XTX wird die Wärme von der Cu-Platte über der GPU über eine Heatpipe an einen Cu-Block abgeführt, der wiederum von der Luft des Ventilators gekühlt wird; die Cu-Platte über der GPU wird von der Luft des Lüfters nicht erfasst.
Bei der 8800 wird der Cu-Block einerseits von dem Alu-Radiator gekühlt und dann über die zusätzliche(n) Heatpipe(s) (http://www.digit-life.com/articles2/video/g80-6.html). IMO eine Weiterentwicklung des AC-Designs.
Und auch beim R600 findet eine Weiterentwicklung statt. Vom Kopieren ist keine Spur. :)

Moralelastix
2007-03-22, 14:50:57
*popel*

Komisch des Kühlungssys hat doch bestimmt schon einer patentiert oder?

*popel*

(Hoffentlich is das Nase bohren noch net patentiert wordn! :biggrin: )

robbitop
2007-03-22, 14:53:03
Könnte sein, dass der 8800 und der neue R600 Lüfter mehr Druck bei gleicher Drehzahl erzeugen als der X1950 XTX Lüfter. Desweiteren könnte die Herstellung billiger sein, da die Spannungen im Schaufelfuß geringer sind. Auch das Auswuchten dürfte sich einfacher gestalten.
Der Druck allein sagt nicht viel aus. Du meinst vermutlich den Luftmassestrom.

robbitop
2007-03-22, 14:55:03
Warum läßt es nicht gleich, solchen Quark zu posten?
Was Crossfire und TAA angeht, hat er auch Recht. Allerdings ist sowas gut fuer den Kunden und ueblich im Markt.

PCGH_Carsten
2007-03-22, 14:55:09
Das Lüftungskonzept der 8800 erinnert auch den AC-Kühler.
Und der wiederum an eine 6800 - bis auf die Schaufelanordnung, die bei der 6800 ähnlich der 8800 war.



Komisch des Kühlungssys hat doch bestimmt schon einer patentiert oder?


Nein, nur der 7800GTX/512 bzw. 7900 GTX/GTO-Kühler ist patentiert *gg*

J0ph33
2007-03-22, 14:57:49
ATi hat sich das bei MIR abgeguckt, einfach für die eigenen Karten nV-Kühler nutzen :D ;)

Black-Scorpion
2007-03-22, 15:01:04
Was Crossfire und TAA angeht, hat er auch Recht. Allerdings ist sowas gut fuer den Kunden und ueblich im Markt.
Deswegen funktioniert AAA auch beim R300, war nur nicht freigeschaltet.
Wer hat da von wem kopiert?

Und nein, eine Antwort ist nicht nötig.
Beide sollen kopieren wie sie wollen wenn es den Kunden etwas bringt.

James Ryan
2007-03-22, 15:08:54
Gaestle:
Alt oder nicht: Wenn man liest, was HT4U geschrieben hat und das, was TT, fällt was auf. :smile:

Ich bin mal so frei ;)

Zitat von HT4U: "Die beiden Systeme mit Window-Kit sind im übrigen so zugesaut mit Edding-Aufschriften, die den Namen des Herstellers zeigen, dass der Eindruck entstand, dass hier nicht kluge Kennzeichnung gegen "Leaking" erfolgte, sondern dass ein "Hannibal Lecter"-Verschnitt das Messer gegen einen Filzschreiber eingetauscht hatte."

Und jetzt dazu ein aktuelles Bild:
http://www.tweaktown.com/popImg.php?img=r600inthewild_02l.jpg

Was fällt auf? :biggrin:

MfG :cool:

Android
2007-03-22, 15:12:42
Speicherbandbreite sagt so gut wie nichts über die tatsächliche Leistung aus.
Bestes Beispiel war die Matrox Parhelia, die erste Consumer-Karte mit 256 Bit Speicherinterface. Die Speicherbandbreite war doppelt so hoch wie bei der damals dominierenden Gf 4 Ti und trotzdem lag die Leistung auf Gf 2 Niveau.
Speicherbandbreite nützt nichts wenn die GPU es nicht nutzen kann.

MfG :cool:

Das ist mir schon klar. ATI ist aber nicht Matrox. Die machen das schon etwas länger und besser. Von daher kann man davon ausgehen, dass der R600 die 512Bit zu nutzen weiss.

@Ailuros:
Auch wenn ich dich zitiert habe, sollte die Verwendung des Plurals klar machen, dass du nicht direkt gemeint warst. :rolleyes:

MuLuNGuS
2007-03-22, 16:13:55
Hast du Dir mal das Datum der Seite mit den "Benches" angesehen?

das datum ist doch ladde, ich sagte ja "sollten" sie stimmen so ist das enttäuschend, egal ob fake oder zufällig richtig.

ich glaub eh erst wieder was wenn die teile erhältlich und unabhängig getestet werden, alles andere ist nur noch ein witz.
®

Gast
2007-03-22, 16:26:11
das datum ist doch ladde, ich sagte ja "sollten" sie stimmen so ist das enttäuschend, egal ob fake oder zufällig richtig.Enttäuschend? Was erwartest du denn vom R600? Dass er den G80GTX um 50 % abzieht? Das wird nicht passieren. Viel wahrscheinlicher ist ein ungefährer Gleichstand. Mal ist R600 schneller, mal G80, aber natürlich auch nicht mit Abständen von 50 % oder so.

foenfrisur
2007-03-22, 16:28:48
gut kopiert is immernoch besser, als schlecht selbst gemacht ;)

ausserdem ist das nicht ganz unüblich, wenn man z.b. auch amd und intel vergleicht ;)
amd hat zuerst stromspartechniken wie cnq integriert und x64-cpu´s auf dem desktopmarkt verkauft...hat intel das nun kopiert??

das macht fast jedes unternehmen irgendwann, irgendwie, irgendwo, irgendwas ;) ja, auch nvidia, ati, intel, amd etc...
und dennoch haben auch alle ihre eigenen innovation...

zum r600...eigentl. kotzt es mich voll an, das ati nichts veröffentlicht...
wozu die leute vergrellen mit dieser taktik...
was ist daran so schwer, zuzugeben, dass evtl. etwas falsch gelaufen ist??
sowas würde sie für mich symphatischer machen, als diese geheimnisskrämerei...
(aber die nuubs würden dann wohl denken, das der r600 müll ist, weil sie es einmal irgendwo gehört oder gelesen haben^^)

schade eigentl.

mfg

Gast
2007-03-22, 16:41:08
Enttäuschend? Was erwartest du denn vom R600? Dass er den G80GTX um 50 % abzieht? Das wird nicht passieren. Viel wahrscheinlicher ist ein ungefährer Gleichstand. Mal ist R600 schneller, mal G80, aber natürlich auch nicht mit Abständen von 50 % oder so.
Dann bleiben aber fast nur noch ATi Sympathisanten als Käufer übrig. Wer würde denn von einer GTX auf den R600 umsteigen, wenn der im Gesamtpaket keine Vorteile bietet? Den G80 gibt es einfach schon zu lange, fast jeder, der Leistung braucht, hat ihn. Da muss ATi schon besondere Lockangebote machen, um die Leute zum Umsteigen zu bewegen - vielleicht deswegen das mysteriöse DX10 Spielebundle.

Anarchy-HWLUXX
2007-03-22, 17:29:10
Dann bleiben aber fast nur noch ATi Sympathisanten als Käufer übrig. Wer würde denn von einer GTX auf den R600 umsteigen, wenn der im Gesamtpaket keine Vorteile bietet? Den G80 gibt es einfach schon zu lange, fast jeder, der Leistung braucht, hat ihn. Da muss ATi schon besondere Lockangebote machen, um die Leute zum Umsteigen zu bewegen - vielleicht deswegen das mysteriöse DX10 Spielebundle.

Für die ollen Games würd ich sicha keine GraKa tauschen ;D Da müssen se scho Crisis dazupacken :biggrin:

Nebenbei muss ATI auch das AI gemurkse lassen, die volle Bildquali muss wie bei der G80 @ default kommen und nicht erst nach rumgespiele im Treiber ...

Gast
2007-03-22, 17:36:45
Enttäuschend? Was erwartest du denn vom R600? Dass er den G80GTX um 50 % abzieht? Das wird nicht passieren. Viel wahrscheinlicher ist ein ungefährer Gleichstand. Mal ist R600 schneller, mal G80, aber natürlich auch nicht mit Abständen von 50 % oder so. Gleichstand wäre für AMD
(bzw. die potentiellen Käufer) nicht vertretbar - 6 Monate Verspätung, und vermutlich deutlich höherer Verbrauch lassen sich bei Gleichstand extrem schlecht verkaufen.

Cubitus
2007-03-22, 17:47:34
Warum nichts auf der CeBIT gezeigt wurde ist ja die Frage..
Imo frickeln die noch an den Treibern rum.

Hardwaretechnisch ist sowieso schon alles gelaufen..

reunion
2007-03-22, 18:37:03
Schicke Bildchen!
http://www.tweaktown.com/articles/1069/amd_r600_retail_radeon_x2900xtx_better_photos_immerge/index.html


:tongue:


Sieht sehr geil aus IMHO.

Und der wiederum an eine 6800 - bis auf die Schaufelanordnung, die bei der 6800 ähnlich der 8800 war.


Und weiter? ATi war zu der Zeit eben noch nicht auf riesige Doppelslotkühler angewiesen. Dass man immer auch schaut, möglichst viel von der Konkurrenz lernen zu können, sollte klar sein. Der R600-Kühler stellt da natürlich keine Ausnahme dar, nur verfolge ATi dieses Konzept auch schon mit der X1950XTX, wodurch man genauso behaupten könnte, der G80-Kühler sein abgekupfert. Letzendlich ist diese ganze Diskussion lächerlich, der R600-Kühler hatte höchstwahrscheinlich genauso ausgesehen, wenn R600 pünktlich gekommen wäre.

Gast
2007-03-22, 18:37:06
"...vielleicht deswegen das mysteriöse DX10 Spielebundle..."

vielleicht möchte man damit seinen dx10 vorteil gegenüber nvidia beweisen?

Gast
2007-03-22, 18:41:39
vielleicht möchte man damit seinen dx10 vorteil gegenüber nvidia beweisen?Welchen "D3D10-Vorteil" soll ATI denn bitte haben?

Gast
2007-03-22, 19:01:49
Welchen "D3D10-Vorteil" soll ATI denn bitte haben?

war ironisch gemeint, in bezug auf die "ati unter d3d10 besser" gerüchte.

deekey777
2007-03-22, 19:02:14
http://www.tweaktown.com/articles/1069/amd_r600_retail_radeon_x2900xtx_better_photos_immerge/index.html
TUL ist es also.
http://forum.beyond3d.com/showthread.php?p=952479#post952479

w0mbat
2007-03-22, 19:09:28
Da wird aber Powercolor ziemlich sauer auf jemanden sein..,

horn 12
2007-03-22, 20:30:37
Sehe ich genauso.
Es wird nur mehr eine Frage der Zeit von einigen Tagen sein, bis einer die Bombe/ oder Bombchen platzen lassen wird. Viele sind verärgert und nun nach der Cebit werden viele auf sich aufwerksam machen wollen, und viell. ist ja der eine oder andere da, welchem das NDA/ Unterzeichungsblatt schnuppe wird und er packt aus! Vielleicht sogar TUL.... ?
Dann wäre die Partnerschaft mit A/A wohl vom Tisch.

Gast
2007-03-22, 20:38:08
Enttäuschend? Was erwartest du denn vom R600? Dass er den G80GTX um 50 % abzieht? Das wird nicht passieren. Viel wahrscheinlicher ist ein ungefährer Gleichstand. Mal ist R600 schneller, mal G80, aber natürlich auch nicht mit Abständen von 50 % oder so.

mit dieser verspätung sollte man eigentlich doch ~30-50% vorsprung erwarten dürfen.

foenfrisur
2007-03-22, 20:54:14
mit dieser verspätung sollte man eigentlich doch ~30-50% vorsprung erwarten dürfen.

wieso?? wo steht geschrieben, das alle 6monate eine graka rauskommt, die ~30-50% schneller sein muss???
oder wie du es nennst...vorsprung :) wie misst man den??
wenn sie nur 10% schneller ist, aber dafür 10 neue und tolle, sinnvolle features bietet, isses auch toll ;)

mfg

Gast
2007-03-22, 20:57:08
Sieht sehr geil aus IMHO.



Und weiter? ATi war zu der Zeit eben noch nicht auf riesige Doppelslotkühler angewiesen. Dass man immer auch schaut, möglichst viel von der Konkurrenz lernen zu können, sollte klar sein. Der R600-Kühler stellt da natürlich keine Ausnahme dar, nur verfolge ATi dieses Konzept auch schon mit der X1950XTX, wodurch man genauso behaupten könnte, der G80-Kühler sein abgekupfert. Letzendlich ist diese ganze Diskussion lächerlich, der R600-Kühler hatte höchstwahrscheinlich genauso ausgesehen, wenn R600 pünktlich gekommen wäre.
...und der der X1950 XTX ist bei der 7800 GTX abgekupfert, der wiederum bei der X850 XT und der wiederum bei der 6800 GT/U und der wiederum entliehen von der 5800U und der wiederum von irgendeinem Pro-CAD-Chip und die habens wiederum aus einer Klimaanlage geklaut.

Was soll also das verleugnen, dass der Lüfter der vorgeblichn 2900 dem der 8800 zum verwechseln ähnlich sieht? Wenn das Ding gut ist, ist doch nix dabei - hauptsache kühlt und ist leise genug.

Nakai
2007-03-22, 20:57:30
Der R600 muss halt nicht nur in punkto Leistung überzeugen.
Er wird wohl ein wahres Multimediamonster werden, er ist eigentlich schon fast eine Soundkarte und deswegen hoffe ich das selbst die Midrangekarten diese Features erben werden.

Außerdem, wenn man die Lüfterausmaße betrachtet, wird der R600 nicht soviel Stromverbrauchen. Maximal 200 Watt, ich gehe von etwa 170 bis 180 aus...

mfg Nakai

san.salvador
2007-03-22, 20:59:55
Der R600 muss halt nicht nur in punkto Leistung überzeugen.
Er wird wohl ein wahres Multimediamonster werden, er ist eigentlich schon fast eine Soundkarte und deswegen hoffe ich das selbst die Midrangekarten diese Features erben werden.

Außerdem, wenn man die Lüfterausmaße betrachtet, wird der R600 nicht soviel Stromverbrauchen. Maximal 200 Watt, ich gehe von etwa 170 bis 180 aus...

mfg Nakai
Du willst jetzt nicht ernsthaft an den Lüfterausmaßen den Stromverbauch erkennen, oder? ;D

Gast
2007-03-22, 21:00:47
Außerdem, wenn man die Lüfterausmaße betrachtet, wird der R600 nicht soviel Stromverbrauchen. Maximal 200 Watt, ich gehe von etwa 170 bis 180 aus...
mfg Nakai

Das wären immer noch fast mindesten 50 Watt mehr als beim G80.

Nakai
2007-03-22, 21:01:56
Nein natürlich nicht, es ging mir darum, wenn der R600 so kompakt gehalten werden kann, sollte er auch dementsprechend wenig verbrauchen. Da dies nicht sooft der Fall ist, muss man ja berücksichtigen. Jedenfalls hoffe ich es...:rolleyes:

mfg Nakai

san.salvador
2007-03-22, 21:03:39
Nein natürlich nicht, es ging mir darum, wenn der R600 so kompakt gehalten werden kann, sollte er auch dementsprechend wenig verbrauchen. Da dies nicht sooft der Fall ist, muss man ja berücksichtigen. Jedenfalls hoffe ich es...:rolleyes:

mfg Nakai
Dein vorheriger Post las sich noch ganz anders, von "möglich" oder "hoffentlich" war nichts zu lesen, klang eher wie eine Faktendarstellung. ;)

Gast
2007-03-22, 21:07:46
mit dieser verspätung sollte man eigentlich doch ~30-50% vorsprung erwarten dürfen.

auweia,selbst als gast

reunion
2007-03-22, 21:07:53
...und der der X1950 XTX ist bei der 7800 GTX abgekupfert, der wiederum bei der X850 XT und der wiederum bei der 6800 GT/U und der wiederum entliehen von der 5800U und der wiederum von irgendeinem Pro-CAD-Chip und die habens wiederum aus einer Klimaanlage geklaut.

Was soll also das verleugnen, dass der Lüfter der vorgeblichn 2900 dem der 8800 zum verwechseln ähnlich sieht? Wenn das Ding gut ist, ist doch nix dabei - hauptsache kühlt und ist leise genug.

Also von der 5800U wurde sicherlich nichts abgekupfert. :D
Sonst hast du natürlich recht, genau deshalb sind solche Aussagen wonach der R600-Kühler vom G80 abgekupfert wurde auch entbehrlich. Es gilt halt wie so oft: Niemand erfindet das Rad zweimal neu.

Nakai
2007-03-22, 21:08:33
Naja das "ich gehe von etwa 170 bis 180 aus.." kann man als persönliche Meinung sehen. Wenn der R600 soviel verbrauchen sollte, wäre der Kühler unterdimensioniert. Wenn der R600 nicht in punkto Leistung überzeugen kann, dann sollte er es wenigstens in anderen Bereichen tun.


Mal schauen...

mfg Nakai

Gast
2007-03-22, 21:17:58
wenn sie nur 10% schneller ist, aber dafür 10 neue und tolle, sinnvolle features bietet, isses auch toll ;)


nur gibt es leider kaum noch zusätzliche features die man in grafikkarten integrieren könnte ;)

san.salvador
2007-03-22, 21:21:35
Physik, Sound, Video/Audio encoding/decoding...

Stimmt, braucht kein Mensch.

Gast
2007-03-22, 21:23:07
Physik, Sound, Video/Audio encoding/decoding...


physik gibt es schon, sound braucht kein mensch auf der graka, audio/video-encoding ist eine reine softwaresache.

foenfrisur
2007-03-22, 21:26:21
Physik, Sound, Video/Audio encoding/decoding...

Stimmt, braucht kein Mensch.

danke :)
genau das, wollte ich auch gerade zu dem gast-comment abgeben ...

gibt mit sicherheit noch einige features, die zukünftige grakas haben werden
der r600 hat ja nun schon mind. 1 ;) aber wird hoffentl. noch mehr

mfg

Coda
2007-03-22, 21:43:14
Physik, Sound, Video/Audio encoding/decoding...

Stimmt, braucht kein Mensch.
Das ist alles reine Softwaresache. Mit CUDA kannst das heute schon auf der G80 relativ einfach auf ner G8x-GPU machen.

Gast
2007-03-22, 21:49:13
Das ist alles reine Softwaresache. Mit CUDA kannst das heute schon auf der G80 relativ einfach auf ner G8x-GPU machen.

Und wann kommt es?? (bei nividia)

gruss

Cleaner
2007-03-22, 22:48:48
man sehen die Flammen scharf aus, man wann kommt die entlich:biggrin:

Blutmaul
2007-03-22, 23:59:44
Ich spreche dagegen, das ist der haesslichste Kuehler den man sich vorstellen kann.
Der von der x1950xtx hat Stil, das R600 Teil ist bloss ein Prollteil...
Meine persönliche Meinung :wink:

deekey777
2007-03-23, 01:19:30
http://forum.beyond3d.com/showpost.php?p=952179&postcount=1046
Jawed hat bei Xbit was Tolles (http://www.xbitlabs.com/articles/editorial/display/cebit2007-3_3.html) gefunden.
Zunächst wären es die "Beulen" für die Speicher, dann diese Aussage:
Warum habt ihr euch nicht Jaweds Posting angeschaut?;(
Wie sollen mit diesem Kühler 16 Speicherchips gekühlt werden, wenn da Platz für acht ist?
Ab hier: http://forum.beyond3d.com/showthread.php?p=953017#post953017

Mailwurm
2007-03-23, 03:09:45
physik gibt es schon, sound braucht kein mensch auf der graka, audio/video-encoding ist eine reine softwaresache.

Zum Glück sieht das AMD anders.

http://hardtecs4u.com/?id=1174573047,48372,ht4u.php

Ailuros
2007-03-23, 06:19:11
Ich hab schon so oft von zu hohen Erwartungen fuer R600 gewarnt, dass es keinen besonderen Sinn mehr macht dieses konstant zu wiederholen. Wenn Euch die jeweiligen Indizien nichts sagen sollten, kann man natuerlich beruehigt auf eine "Bombe" hoffen.

Was mich von Anfang an interessierte ist was genau mit Audio los ist und R6x0/RV6x0. Leider hab ich keine Infos zu dem Zeug, aber wie ich schon vor langer Zeit sagte falls mit diesen GPUs nun tatsaechlich ein dedizierter sound chip redundanter werden sollte, kann ich dem Schachzug nur applaudieren.

Die brennende Frage hier ist ob es sich um zusaetzliche dedizierte HW fuer audio handelt oder ob man die jeweiligen "calls" einfach durch die ALUs stroemt. Dabei kommt es auch natuerlich darauf an wieviel HW bzw. Transistoren hierbei hypothetisch eingesetzt wurden.

Erstens erklaert mir die eine These die Notwendigkeit fuer sehr viel Bandbreite auf R600 mit dual HDMI und zweitens erklaert es mir auch die die-Groesse des RV630.

Creative's Soundkarten werden mit der Zeit stets resource-hungriger in einem System und integrierte Loesungen sind zwar um einiges besser geworden aber sind auch nicht gerade das gelbe vom Ei. Wenn ich mir das Bildchen im obrigen Link etwas besser ueberdenke, dann klingt es erstmal nach einer guten Idee.

Mir bleiben aber einige wichtige (und ehrliche) Fragezeichen im Hinterkopf:

a) Stroemt man in Echtzeit N Anzahl von sound-calls durch die ALUs in einem Spiel, kann ich mir nur vorstellen dass man hier an den insgesamten ALU-Resourcen knabbert. Ja ja thread-scheduling, aber ein Rettungsboot fuer alle Faelle klingt mir das nicht.

b) Ich sehe auf dem zweiten Teil des Bilds zwei HD audio controller. Einer auf der Southbridge und einen auf der GPU. Schoen man braucht kein Kabel fuer den zweiten und es waere auch laecherlich wenn dieses so waere, was mir aber Kopfschmerzen macht ist der insgesamte Datenstrom den ich bei bestem Willen als Laie nicht kapieren kann. XFis haben neben dem onboard Speicher auch ausgetueftelte caching Algorithmen um so viel wie moeglich onboard zu bearbeiten und so wenig wie moeglich ueber den PCI bus zu jagen.

Hat hier irgend jemand von unseren Gurus Lust zu versuchen das Ganze in eine korrekte Perspektive zu setzen? Fazit: klingt gut, aber wie soll das Ganze etwa vorgehen (auch Spekulationen helfen hier).

Moralelastix
2007-03-23, 06:50:34
R600 Layout?

http://www.hardware.info/images/articles/r600-dragon-schema.jpg

Moralelastix
2007-03-23, 06:53:20
Warum habt ihr euch nicht Jaweds Posting angeschaut?;(
Wie sollen mit diesem Kühler 16 Speicherchips gekühlt werden, wenn da Platz für acht ist?
Ab hier: http://forum.beyond3d.com/showthread.php?p=953017#post953017


Und wieso nich auch auf der Rückseite?

Henroldus
2007-03-23, 07:47:48
Was mich von Anfang an interessierte ist was genau mit Audio los ist und R6x0/RV6x0. Leider hab ich keine Infos zu dem Zeug, aber wie ich schon vor langer Zeit sagte falls mit diesen GPUs nun tatsaechlich ein dedizierter sound chip redundanter werden sollte, kann ich dem Schachzug nur applaudieren.

würde eine integration von soundfunktionalität in den chip nicht zwingend ein (2)HDMI Ausgänge nach sich ziehen?
auf keinem der mir bekannten bilder des R600 Boards war ein solcher zu sehen!?
DVI kann IMO keine Sounddaten ausgeben

MuLuNGuS
2007-03-23, 08:35:12
Enttäuschend? Was erwartest du denn vom R600? Dass er den G80GTX um 50 % abzieht? Das wird nicht passieren. Viel wahrscheinlicher ist ein ungefährer Gleichstand. Mal ist R600 schneller, mal G80, aber natürlich auch nicht mit Abständen von 50 % oder so.

bei zeitgleichen erscheinen würde ich einen geringen performance-vorteil oder meinetwegen einen gleichstand als völlig o.k. bezeichnen, mit dieser erscheinungsverzögerung wäre es aber halt etwas enttäuschend.

anders natürlich wenn er in so ziemlich jeden bench/game mit 50%+ im vergleich zur 8800gtx davonziehen wird, das würde ich schon als ok bezeichnen. ;)
®

James Ryan
2007-03-23, 08:36:25
R600 Layout?

http://www.hardware.info/images/articles/r600-dragon-schema.jpg

Sieht stark danach aus! :)

MfG :cool:

seahawk
2007-03-23, 08:39:14
Ist das 2-2-1 oder 3-3-2 ?

Spasstiger
2007-03-23, 08:47:19
Ich finds interessant, dass noch vor dem eigentlichen Grafikkarten Alternativkühler für den R600 vorgestellt werden. Dann kann aber immerhin davon ausgehen, dass beim X2900-XTX-Release auch gleich eine leise Kühllösung verfügbar sein wird. Vielleicht erbarmt sich ja auch ein Hersteller, sowas gleich ab Werk zu verbauen, sollte der ATI-Kühler nicht leise sein.

Gast
2007-03-23, 08:50:38
R600 Layout?

http://www.hardware.info/images/articles/r600-dragon-schema.jpg
Der Chip ist ja garnicht mehr um 45° rotiert!

James Ryan
2007-03-23, 08:52:16
Der Chip ist ja garnicht mehr um 45° rotiert!

Das Chip-Package war auch nie gedreht, nur die GPU selber. ;)

@seahawk
Die Anordnung ist 3-3-2.

MfG :cool:

PCGH_Carsten
2007-03-23, 09:33:33
...und der der X1950 XTX ist bei der 7800 GTX abgekupfert, der wiederum bei der X850 XT und der wiederum bei der 6800 GT/U und der wiederum entliehen von der 5800U und der wiederum von irgendeinem Pro-CAD-Chip und die habens wiederum aus einer Klimaanlage geklaut.

Was soll also das verleugnen, dass der Lüfter der vorgeblichn 2900 dem der 8800 zum verwechseln ähnlich sieht? Wenn das Ding gut ist, ist doch nix dabei - hauptsache kühlt und ist leise genug.
Meine Kekse bringen mich nochmal um...

Demirug
2007-03-23, 10:29:14
@Ailuros:
Nachdem Microsoft mit Vista dem Hardware Sound ja erst mal den Stecker rausgezogen hat bin ich mir nicht so sicher ob sich ATI auf so was eingelassen hat.

deekey777
2007-03-23, 10:32:06
Ich hab schon so oft von zu hohen Erwartungen fuer R600 gewarnt, dass es keinen besonderen Sinn mehr macht dieses konstant zu wiederholen. Wenn Euch die jeweiligen Indizien nichts sagen sollten, kann man natuerlich beruehigt auf eine "Bombe" hoffen.

Was mich von Anfang an interessierte ist was genau mit Audio los ist und R6x0/RV6x0. Leider hab ich keine Infos zu dem Zeug, aber wie ich schon vor langer Zeit sagte falls mit diesen GPUs nun tatsaechlich ein dedizierter sound chip redundanter werden sollte, kann ich dem Schachzug nur applaudieren.

Die brennende Frage hier ist ob es sich um zusaetzliche dedizierte HW fuer audio handelt oder ob man die jeweiligen "calls" einfach durch die ALUs stroemt. Dabei kommt es auch natuerlich darauf an wieviel HW bzw. Transistoren hierbei hypothetisch eingesetzt wurden.

Erstens erklaert mir die eine These die Notwendigkeit fuer sehr viel Bandbreite auf R600 mit dual HDMI und zweitens erklaert es mir auch die die-Groesse des RV630.

Creatives Soundkarten werden mit der Zeit stets resource-hungriger in einem System und integrierte Loesungen sind zwar um einiges besser geworden aber sind auch nicht gerade das gelbe vom Ei. Wenn ich mir das Bildchen im obrigen Link etwas besser ueberdenke, dann klingt es erstmal nach einer guten Idee.

Mir bleiben aber einige wichtige (und ehrliche) Fragezeichen im Hinterkopf:

a) Stroemt man in Echtzeit N Anzahl von sound-calls durch die ALUs in einem Spiel, kann ich mir nur vorstellen dass man hier an den insgesamten ALU-Resourcen knabbert. Ja ja thread-scheduling, aber ein Rettungsboot fuer alle Faelle klingt mir das nicht.

b) Ich sehe auf dem zweiten Teil des Bilds zwei HD audio controller. Einer auf der Southbridge und einen auf der GPU. Schoen man braucht kein Kabel fuer den zweiten und es waere auch laecherlich wenn dieses so waere, was mir aber Kopfschmerzen macht ist der insgesamte Datenstrom den ich bei bestem Willen als Laie nicht kapieren kann. XFis haben neben dem onboard Speicher auch ausgetueftelte caching Algorithmen um so viel wie moeglich onboard zu bearbeiten und so wenig wie moeglich ueber den PCI bus zu jagen.

Hat hier irgend jemand von unseren Gurus Lust zu versuchen das Ganze in eine korrekte Perspektive zu setzen? Fazit: klingt gut, aber wie soll das Ganze etwa vorgehen (auch Spekulationen helfen hier).
Ich glaub, da steckt einiges an PR-Unzeug drin. Dieser HD-Audiocontroller ist zunächst nur für die digitale Ausgabe zuständig. Wie man auf der Folie sieht, bleibt die analoge Tonausgabe der Soundkarte vorbehalten. Aber auch die digitale Tonausgabe wie zB über S/PDIF bleibt die Aufgabe der Soundkarte.
Da fragt man sich, was jetzt die Radeon überhaupt als Ton ausgeben soll. Meiner Meinung nach, gibt sie nichts aus, sondern weiter.
Was ist der Sinn des HDMI? (Geschützte) Digitale Bild- und Tonübertragung an ein Ausgabegerät. Auch kann man zwischen dem TV und dem PC einen HDMI-Receiver zwischenschalten.
Um weitere Kabel (zB von S/PDIF der Soundkarte zum Receiver) zu vermeiden, haben einige Hersteller auf ihre Grafikkarten imlpementiert, dem Video auch den Ton von der Soundkarte beizumischen, dazu musste man einfach mit einem Kabel die Grafikkarte bzw. deren HDMI mit dem SPDIF der Soundkarte verbinden. Okay, wenn stört so ein kleines Kabel? Als interne Lösung keinen, als externe Lösung sah das zwar furchtbar aus, aber wer schaut schon auf die Rückseite des PC? Das wahre Problem ist: Die Nutzung des digitalen Ausgangs ist mit Qualitätseinbussen verbunden, da die Bandbreite dieser sehr gering ist. Unkomprimiert ist nur PCM Stereo möglich. Die neuen Mehrkanalformate der DVD-Nachfolger kann man mit dieser Lösung vergessen.
Und genau hier kommt ATi zum Zug: Der digitale Ton von der DVD, HD DVD, BD oder HDD etc. geht jetzt nicht zur Southbridge -> Soundkarte, sondern von der CPU direkt an die Grafikkarte bzw. den HD-Audiocontroller der Grafikkarte. Ich glaube so gar, dass dieser Audiocontroller auch die Decodierung übernehmen kann. Durch dieses geschlossene System wird die Kopierschutzkette bewahrt.
Für Spiele bleibt wohl weiterhin die Soundkarte/HD-Audiocontroller zuständig, genau wie für die analoge Tonausgabe.
Und wieso nich auch auf der Rückseite?
Aber natürlich sind sie auf der Rückseite. :)
Wie soll man sonst 512-Mbit-Chips mit 32-bit-Anbindung sonst an ein ein 512-bit-SI anbinden? Mit 16 solcher Chips hätte man die 1-GB-Version, mit 16 256-Mbit-Chips dann die 512MB-Version.
Die FireGL3D 7350 hat auch Speicherchips auf der Rückseite, nur teilen diese sich die Anbindung an den MC mit den Chips auf der Vorderseite.

Moralelastix
2007-03-23, 11:17:57
Warum habt ihr euch nicht Jaweds Posting angeschaut?;(
Wie sollen mit diesem Kühler 16 Speicherchips gekühlt werden, wenn da Platz für acht ist?
Ab hier: http://forum.beyond3d.com/showthread.php?p=953017#post953017

Ich komm do nimmi mit.

Was willste damit sagen das der Kühler unvollständig is?

deekey777
2007-03-23, 11:20:04
Ich komm do nimmi mit.

Was willste damit sagen das der Kühler unvollständig is?

Nein. An dem Kühler kann man sehen, wie die Speichercips auf der R600 angeordnet sind. Mein Link zu B3D sollte so verstanden werden, dass man nicht nur das eine Posting liest, sondern auch nachunten scrollt.:)

ShadowXX
2007-03-23, 11:21:55
Ich glaub, da steckt einiges an PR-Unzeug drin. Dieser HD-Audiocontroller ist zunächst nur für die digitale Ausgabe zuständig. Wie man auf der Folie sieht, bleibt die analoge Tonausgabe der Soundkarte vorbehalten. Aber auch die digitale Tonausgabe wie zB über S/PDIF bleibt die Aufgabe der Soundkarte.
Da fragt man sich, was jetzt die Radeon überhaupt als Ton ausgeben soll. Meiner Meinung nach, gibt sie nichts aus, sondern weiter.
Was ist der Sinn des HDMI? (Geschützte) Digitale Bild- und Tonübertragung an ein Ausgabegerät. Auch kann man zwischen dem TV und dem PC einen HDMI-Receiver zwischenschalten.
Um weitere Kabel (zB von S/PDIF der Soundkarte zum Receiver) zu vermeiden, haben einige Hersteller auf ihre Grafikkarten imlpementiert, dem Video auch den Ton von der Soundkarte beizumischen, dazu musste man einfach mit einem Kabel die Grafikkarte bzw. deren HDMI mit dem SPDIF der Soundkarte verbinden. Okay, wenn stört so ein kleines Kabel? Als interne Lösung keinen, als externe Lösung sah das zwar furchtbar aus, aber wer schaut schon auf die Rückseite des PC? Das wahre Problem ist: Die Nutzung des digitalen Ausgangs ist mit Qualitätseinbussen verbunden, da die Bandbreite dieser sehr gering ist. Unkomprimiert ist nur PCM Stereo möglich. Die neuen Mehrkanalformate der DVD-Nachfolger kann man mit dieser Lösung vergessen.
Und genau hier kommt ATi zum Zug: Der digitale Ton von der DVD, HD DVD, BD oder HDD etc. geht jetzt nicht zur Southbridge -> Soundkarte, sondern von der CPU direkt an die Grafikkarte bzw. den HD-Audiocontroller der Grafikkarte. Ich glaube so gar, dass dieser Audiocontroller auch die Decodierung übernehmen kann. Durch dieses geschlossene System wird die Kopierschutzkette bewahrt.
Für Spiele bleibt wohl weiterhin die Soundkarte/HD-Audiocontroller zuständig, genau wie für die analoge Tonausgabe.

Sehe ich genauso. Das Ding ist definitiv nicht als Soundkartenersatz gedacht (hätte auch nicht viel sinn, da quasi auf jedem Mainboard sowieso ein Sound-Teil mit drauf ist).
Allerdings glaube ich noch nicht daran, das der HD-Contoller auf dem ATI-Chip auch Decodiert. Ich schätze der schleift nur durch.

Was ich mich allerdings immer Frage: Was will man mit dem Soundsignal am Monitor?
Ohne eine weitere "Zwischenstation" ist das ganze doch sowieso nichts für den Video-Enthusiasten, denn der möchte den 5.1/7.1 Sound ja nicht aus dem Monitor/Ferseher hören, sondern auf seiner Anlage.
Oder zweigt von so einem HDMI-Kanel auch immer ein "Tonkabel" zum Anschluss an den Receiver ab? Und wie sieht das überhaupt mit den Receiver aus, müssen diese dann auch "Kopiersicher" sind (auf deutsch: benötigt man neue)?

Auch ja: ist einem dieser Teil mit ins Auge gesprungen?

Für den Einsatz in HTPCs (Home Theatre PC) hat sich AMD für die Mainstream- und Low-cost-Varianten der R600-Familie etwas besonderes einfallen lassen.....

Auch ist auf dem Bild/Grafik nur von RV6xx die Sprache. Kommt das vielleicht für die großen r600-Karten gar nicht?

deekey777
2007-03-23, 11:33:56
Stimmt, die Decodierung übernimmt wohl der Software-Player. Somit leitet der "Audio-Controller" einfach den unkomprimierten (Mehrkanal-)Ton weiter. Das ist seit HDMI 1.0 nichts Neues.
Was man mit dem Sound am Monitor will? Gar nichts, wenn dieser keine Lautsprecher hat. :biggrin:
Die HDMI-Receiver haben einen Ein- und Ausgang. Sie greifen den Ton ab und leiten den Datenstrom dann an den TV weiter. Ganz unproblematisch ist das natürlich nicht, denn zB die Humax-Receiver für Premiere HD hatten ein Problem mit solchen Receivern und das Bild blieb schwarz.

Das ist schon länger aufgefallen, insbesondere weil die Bilder der Retail-R600irgendwas kein HDMI hatten.

Ailuros
2007-03-23, 12:51:12
@Ailuros:
Nachdem Microsoft mit Vista dem Hardware Sound ja erst mal den Stecker rausgezogen hat bin ich mir nicht so sicher ob sich ATI auf so was eingelassen hat.

Danke erstmal. Es klingt ja gerade so als ob man solche Ideen dann fuer die etwas weniger vorhersehbare Zukunft verschoben hat oder?

Ailuros
2007-03-23, 12:58:13
Ich glaub, da steckt einiges an PR-Unzeug drin. Dieser HD-Audiocontroller ist zunächst nur für die digitale Ausgabe zuständig. Wie man auf der Folie sieht, bleibt die analoge Tonausgabe der Soundkarte vorbehalten. Aber auch die digitale Tonausgabe wie zB über S/PDIF bleibt die Aufgabe der Soundkarte.
Da fragt man sich, was jetzt die Radeon überhaupt als Ton ausgeben soll. Meiner Meinung nach, gibt sie nichts aus, sondern weiter.
Was ist der Sinn des HDMI? (Geschützte) Digitale Bild- und Tonübertragung an ein Ausgabegerät. Auch kann man zwischen dem TV und dem PC einen HDMI-Receiver zwischenschalten.

Danke. Aeusserst interessant.

Und genau hier kommt ATi zum Zug: Der digitale Ton von der DVD, HD DVD, BD oder HDD etc. geht jetzt nicht zur Southbridge -> Soundkarte, sondern von der CPU direkt an die Grafikkarte bzw. den HD-Audiocontroller der Grafikkarte. Ich glaube so gar, dass dieser Audiocontroller auch die Decodierung übernehmen kann. Durch dieses geschlossene System wird die Kopierschutzkette bewahrt.
Für Spiele bleibt wohl weiterhin die Soundkarte/HD-Audiocontroller zuständig, genau wie für die analoge Tonausgabe.

Tja das mit der Kopierschutzkette klingt erstmal gut. Ueberhaupt mit dem gesamten Kopierungschutz-Mist den man in Vista finden kann.

Sehr dumme Frage: benutzt jetzt jemand eine Soundkarte die zum Kopierungschutz-Mist nicht konform sein sollte, umgeht man eine moegliche Soundkarten Aufruestung mit einer solchen GPU dann gleich?

Moralelastix
2007-03-23, 13:04:12
AMD's R600 launch will be in Africa
http://uk.theinquirer.net/?article=38442

.......
Our sources continue to confirm to us that a later one - the "production" chip - is a die shrink.

Yes, we are talking about a 720M trannie chip manufactured on a 65nm process over at TSMC. When the 65nm chip will break cover remains to be seen. µ




Wie kommen die alleine schon auf die Idee den Chip in Tunesien zu launchen währs net besser auf Island oder Spitzbergen schon der Temperatur wegen?:biggrin:

Ailuros
2007-03-23, 13:07:05
Was man mit dem Sound am Monitor will? Gar nichts, wenn dieser keine Lautsprecher hat. :biggrin:

Nun ja anscheinend nehmen die Bildschirme mit Lautsprechern zu, nur taugen sie leider nicht viel. Ist zwar verdammt OT, aber fuer jegliches System ueber dem Durchschnitt klingen zwei mickrige Lautsprecher aeusserst banal. Es gibt anstaendige =/>4.1 Lautsprecher-Systeme fuer sehr vernuenftige Preise und man muss das Zeug auch nicht unbedingt fuer Spiele benutzen. Selbst nur fuer DVD-Wiedergabe ist der Unterschied gross genug dass sich die Investition lohnt.

Coda
2007-03-23, 13:17:34
Ich nehme schon an, dass das Ding einen einfachen digitalen Audio-Transmitter eingebaut hat.

Mehr braucht man für Vista eh nicht, weil sämtliche Hardwarefunktionalität eh nicht verwendet wird.

Ailuros
2007-03-23, 13:22:45
Wie kommen die alleine schon auf die Idee den Chip in Tunesien zu launchen währs net besser auf Island oder Spitzbergen schon der Temperatur wegen?:biggrin:

Die Teilnehmer schwitzen dann eben so viel dass es schwer wird sich zu konzentrieren :biggrin: Spass beiseite so bruehend heiss ist es um die Jahreszeit in Tunesien nun auch wieder nicht.

Gast
2007-03-23, 13:27:08
nur taugen sie leider nicht viel.
Es gibt zwischen den Brüllwürfeln der Bildschirme gewaltige Unterschiede!

Bei dem einen Schirm klingen sie einfach nur scheiße, beim anderen fehlt nur der Subwoofer, für einen ordentlichen Klang.

Anarchy-HWLUXX
2007-03-23, 13:46:59
AMD's R600 launch will be in Africa
http://uk.theinquirer.net/?article=38442

.......
Our sources continue to confirm to us that a later one - the "production" chip - is a die shrink.

Yes, we are talking about a 720M trannie chip manufactured on a 65nm process over at TSMC. When the 65nm chip will break cover remains to be seen. µ




Wie kommen die alleine schon auf die Idee den Chip in Tunesien zu launchen währs net besser auf Island oder Spitzbergen schon der Temperatur wegen?:biggrin:

Die 65nm geschichte macht sowas von garkein sinn :

- eine 65nm Version würd einen höheren Takt erreichen als die 80er -das hätte zur folge das Benchmarks und Test selbiger komplett überflüssig wären.

- dann noch die tatsache das ATI lauffähige Prototypen so kurz vorm launch haben muss um diese in der Praxis zu testen.

- die Prototypen kann man dann auch direkt vorführen

- die Retail Ware muss 2-3 Wochen später scho in den Regalen sein, zum Zeitpunkt des launches müssen die Produktionsstraßen scho lang voll ausgelastet sein um genug Karten zu haben da es sonst kein Hard-Launch wird

Nakai
2007-03-23, 13:50:46
Die 80Nm-Version ist zu heiß.^^:confused:
Die 65Nm-Version wird da einen guten Fortschritt machen, sofern die Yields auch gut sind.

mfg Nakai

Ailuros
2007-03-23, 13:53:32
Es gibt zwischen den Brüllwürfeln der Bildschirme gewaltige Unterschiede!

Bei dem einen Schirm klingen sie einfach nur scheiße, beim anderen fehlt nur der Subwoofer, für einen ordentlichen Klang.

Ich bezog mich eher auf die Anzahl der Lautsprecher. Als Beispiel duerfte ein billiges Logitech 5.1 Dingsbums etwas mehr als 50 Euro momentan kosten.

Gast
2007-03-23, 14:01:19
AMD's R600 launch will be in Africa
http://uk.theinquirer.net/?article=38442

.......
Our sources continue to confirm to us that a later one - the "production" chip - is a die shrink.

Yes, we are talking about a 720M trannie chip manufactured on a 65nm process over at TSMC. When the 65nm chip will break cover remains to be seen. µ




Wie kommen die alleine schon auf die Idee den Chip in Tunesien zu launchen währs net besser auf Island oder Spitzbergen schon der Temperatur wegen?:biggrin:

nochn Monat....:/

foenfrisur
2007-03-23, 14:35:30
da steht aber noch mehr...

We are pretty sure that AMD will show R600 chips from the initial production batch - the 80nm one. The R600 is 80nm chip with the launch boards sportingm GDDR3 memory. Our sources continue to confirm to us that a later one - the "production" chip - is a die shrink.

also ich versteh das so, das erst ein 80nm präsentiert wird und später in 65nm kommt...also im mai dann oder wie?
sehr komisch das ganze^^

mfg

mapel110
2007-03-23, 14:41:32
da steht aber noch mehr...

We are pretty sure that AMD will show R600 chips from the initial production batch - the 80nm one. The R600 is 80nm chip with the launch boards sportingm GDDR3 memory. Our sources continue to confirm to us that a later one - the "production" chip - is a die shrink.

also ich versteh das so, das erst ein 80nm präsentiert wird und später in 65nm kommt...also im mai dann oder wie?
sehr komisch das ganze^^

mfg
Sind doch alles nur blöde Ausreden, damit sie hinterher zumindest beim Launch des R600 nicht dämlich dastehen, wenn er "nur" in 80nm kommt. Dann schieben sie einfach eine Meldung hinterher und sagen "65nm R600 cancelled due to bad yield..."

Gast
2007-03-23, 14:50:20
da steht aber noch mehr...

We are pretty sure that AMD will show R600 chips from the initial production batch - the 80nm one. The R600 is 80nm chip with the launch boards sportingm GDDR3 memory. Our sources continue to confirm to us that a later one - the "production" chip - is a die shrink.

also ich versteh das so, das erst ein 80nm präsentiert wird und später in 65nm kommt...also im mai dann oder wie?
sehr komisch das ganze^^

mfg
Könnte auch bedeuten, dass der R600 mit all seinen Nachteilen in 80 nm zu Anfang in sehr sehr kleinen Stückzahlen verkauft wird, sozusagen für die Fanboys, die unbedingt eine High End Karte von AMD brauchen und schon innerlich brennen.
Dürften nicht allzu viele sein.
Später könnte dann die 65 nm Version kommen, die auch für den "normalen" User Sinn macht.

Anarchy-HWLUXX
2007-03-23, 14:57:30
Könnte auch bedeuten, dass der R600 mit all seinen Nachteilen in 80 nm zu Anfang in sehr sehr kleinen Stückzahlen verkauft wird, sozusagen für die Fanboys, die unbedingt eine High End Karte von AMD brauchen und schon innerlich brennen.
Dürften nicht allzu viele sein.
Später könnte dann die 65 nm Version kommen, die auch für den "normalen" User Sinn macht.

Und dann kommen sich die ATi Fans extrem verarscht vor da se die miesen GPUs bekommen haben die dann beim 65nm release auch noch massiv an wert verlieren, dann fangen se an ATI zu hassen und wandern zu nV ab - super idee ;D

Gast
2007-03-23, 15:09:06
Und dann kommen sich die ATi Fans extrem verarscht vor da se die miesen GPUs bekommen haben die dann beim 65nm release auch noch massiv an wert verlieren, dann fangen se an ATI zu hassen und wandern zu nV ab - super idee ;D
Glaube ich ned. Weil jede GPU verliert an Wert. Die Leute, die sich zu Anfang ne GTX für über 650 Kröten geholt haben, deren erste Treiber unter aller Sau waren, ist jetzt noch 480 € Wert. Könnten genauso sagen, hätte ich gewartet, hätte ich Geld und Ärger gespart.
Im High End zählen rationale Gründe weniger.

reunion
2007-03-23, 15:25:12
AMD's R600 launch will be in Africa
http://uk.theinquirer.net/?article=38442

.......
Our sources continue to confirm to us that a later one - the "production" chip - is a die shrink.

Yes, we are talking about a 720M trannie chip manufactured on a 65nm process over at TSMC. When the 65nm chip will break cover remains to be seen. µ




Wie kommen die alleine schon auf die Idee den Chip in Tunesien zu launchen währs net besser auf Island oder Spitzbergen schon der Temperatur wegen?:biggrin:

Also wurde der Launch doch nur um ein Monat verschoben.

Anarchy-HWLUXX
2007-03-23, 15:29:39
Glaube ich ned. Weil jede GPU verliert an Wert. Die Leute, die sich zu Anfang ne GTX für über 650 Kröten geholt haben, deren erste Treiber unter aller Sau waren, ist jetzt noch 480 € Wert. Könnten genauso sagen, hätte ich gewartet, hätte ich Geld und Ärger gespart.
Im High End zählen rationale Gründe weniger.

Wer 650€ für gezahlt hat war ganz schön blöde oder hatte eben das Geld um den Bleeding-Edge aufschlag zu zaheln der nunmal auch nachteile mitsich bringt - 3-4 Wochen später warn es scho ~550 und die GTX sind nach 4 Monaten immernoch satte 500€ wert - da gibt es absolut nix zu meckern.

Bei einer nachträglichen einführung von einer zweiten 65nm Batch würd keiner mehr ne 80er wollen es sei den schöööööön Billig ... bei der R520 -> R580 war es auch so, die die beim Launch gekauft hatten konnten den Wert der Karten dramatisch einbrechen sehen - da ist die 8800GTX geradezu ne sichere Geldanlage im vergleich.

PCGH_Carsten
2007-03-23, 17:44:09
Also wurde der Launch doch nur um ein Monat verschoben.
Das Event ist IMO nebensächlich, Interessant ist, wann das NDA fallen wird.

reunion
2007-03-23, 17:46:19
Das Event ist IMO nebensächlich, Interessant ist, wann das NDA fallen wird.

Achso, das ist nur eine art "Einweihungsfeier" für die Presse?

Gast
2007-03-23, 17:51:59
Wann fällt es denn??????

28. März?

(+44)
2007-03-23, 17:52:13
Das Event ist IMO nebensächlich, Interessant ist, wann das NDA fallen wird.


Ja, und wenn in deiner PCGH dann stolz und in riesigen Lettern ein "Radeon X2900"-Bericht steht, man die Teile aber noch nicht oder nur zu überhöhten Preisen kaufen kann hat das NDA uns allen geholfen :redface:

Hab euer Abo übrigens seit ner Weile gekündigt, ihr solltet man n bisschen "Back to the roots" gehn, is nichmehr schön was da aktuell teilweise verzapft wird :(
Immer schön allen Herstellern hinterherhecheln und kaum Kritik üben - hauptsache es ist "in", immer den neusten Scheiss zu kaufen und darüber in der PCGH zu lesen, die eine Stimmung des "kauft ne GeForce 8800, kauft aber auch ne Radeon X2900 sobald sie kommt!" verbreitet.

Aber naja, das wird etwas OT :(

Sphinx
2007-03-23, 17:53:34
Und dann kommen sich die ATi Fans extrem verarscht vor da se die miesen GPUs bekommen haben die dann beim 65nm release auch noch massiv an wert verlieren, dann fangen se an ATI zu hassen und wandern zu nV ab - super idee ;D

Ouch... Leute Spekulationen sind "Spekulationen" und nichts offizielles.
Wenn sich einer hier "verkackeiert" fühlt sind es Menchen die jede Spekulation für eine wahre Münze halten.

Mal was anderes ~ wie währe es mit _ wie würden sich die stolzen "G80 Besitzer" fühlen wenn sie vor dem ersten DX10 Titel merken das ihre G80 Karte langsamer ist als ein Konkurrenz Produkt...

AnarchX
2007-03-23, 18:04:20
Achso, das ist nur eine art "Einweihungsfeier" für die Presse?

Das wird wohl nur der Techday sein, dessen Zeitpunkt AFAIK schonmal in diese Richtung angekündigt wurde, also Ende April.
Aber INQ macht natürlich mit etwas Phantasie wieder "den weltgrößten, bisher nie dagewesenen Launch wo alle Produkte gelauncht werden".;)

robbitop
2007-03-23, 19:29:25
Aber INQ macht natürlich mit etwas Phantasie wieder "den weltgrößten, bisher nie dagewesenen Launch wo alle Produkte gelauncht werden".;)
Nunja, so wurde es im Interview auch uns erzaehlt.

AnarchX
2007-03-23, 19:38:43
Nunja, so wurde es im Interview auch uns erzaehlt.

Wurde auch dieses Datum genannt?

Dass ATi einen Family-Launch machen will, wurde ja auch schon von anderen Stellen angedeutet, auch wenn es nicht da aller beste ist was man machen kann um viel Aufmerksamkeit auf jedes Produkt zu lenken.

reunion
2007-03-23, 19:45:50
Dass ATi einen Family-Launch machen will, wurde ja auch schon von anderen Stellen angedeutet, auch wenn es nicht da aller beste ist was man machen kann um viel Aufmerksamkeit auf jedes Produkt zu lenken.

Nunja, das sieht AMD offenbar anders.
Mit etwas Glück könnte es gleichzeitig auch den Barcelona-Launch geben, dann wäre es tatsächlich der größte Launch aller Zeiten.

Spasstiger
2007-03-23, 19:49:54
Dass ATi einen Family-Launch machen will, wurde ja auch schon von anderen Stellen angedeutet, auch wenn es nicht da aller beste ist was man machen kann um viel Aufmerksamkeit auf jedes Produkt zu lenken.
Das Hauptaugenmerk wird doch auf die High-End-Karten gerichtet sein. Und geblendet davon werden dann die zugehörigen Mittelklassekarten gekauft. Das könnte doch die Strategie von AMD sein.

PCGH_Carsten_ohne_Keks
2007-03-23, 19:52:36
Ja, und wenn in deiner PCGH [...]
Ist leider nicht "meine" PCGH - ich arbeite dort nur. Aber du hast völlig recht, es ist OT hier - immerhin hast du uns aber jetzt mal schön die Meinung gesagt.

Schrotti
2007-03-23, 19:53:08
Ich hatte auch mal ein ABO der PCGH aber nachdem fast jeden Monat das gleiche drin stand, habe ich gekündigt.

Kennt jemand das hier schon?

VR-Zone testet R600 auf CeBIT --> http://www.k-hardware.de/news.php?s=c&news_id=6441

PCGH_Carsten_ohne_Keks
2007-03-23, 19:53:42
Achso, das ist nur eine art "Einweihungsfeier" für die Presse?
Bisher waren "Launch-Events" eigentlich immer im Vorfeld der echten Verfügbarkeit - 7800 GTX mal ausgenommen.

PCGH_Carsten_ohne_Keks
2007-03-23, 19:54:31
Ich hatte auch mal ein ABO der PCGH aber nachdem fast jeden Monat das gleiche drin stand, habe ich gekündigt.

Wie wär's mit einem Poll auf der Spielwiese: Wer außer mir findet PCGH noch doof?

Schrotti
2007-03-23, 19:56:45
Wie wär's mit einem Poll auf der Spielwiese: Wer außer mir findet PCGH noch doof?

Was soll das jetzt?

Wo steht, das ich PCGH doof finde? ;)

Gast
2007-03-23, 20:12:08
Könnt ihr euch woanders anmachen bitte? Launchtermin der X2900 wird nicht vorgezogen. Verfügbarkeit ist Mai, NDA vermutet man ja schon länger, April da zur Cebit nix gezeigt werden durfte.

Gast
2007-03-23, 21:07:28
Ich hatte auch mal ein ABO der PCGH aber nachdem fast jeden Monat das gleiche drin stand, habe ich gekündigt.

Kennt jemand das hier schon?

VR-Zone testet R600 auf CeBIT --> http://www.k-hardware.de/news.php?s=c&news_id=6441


Ich meine hier mal gelesen zu haben das der benchmark mit unterschiedlichen prozzis gemacht wurde, oder irre ich mich da jetzt ?

laser114
2007-03-23, 21:15:17
Wie wär's mit einem Poll auf der Spielwiese: Wer außer mir findet PCGH noch doof?

Ich glaube er meinte die Kritik ernst. Auch wenn du da wahrscheinlich nur arbeitest und sowas nur weiterleiten kannst. ;)

------------

Wie wahrscheinlich ist eigentlich, das die VR-Zone da mit aktuellen Treibern testen konnte (falls das stimmt)? Die Frage wäre eben, wie gut deren Beziehungen sind...

Gast
2007-03-23, 21:20:28
Dass ATi einen Family-Launch machen will, wurde ja auch schon von anderen Stellen angedeutet, auch wenn es nicht da aller beste ist was man machen kann um viel Aufmerksamkeit auf jedes Produkt zu lenken.


das kann durchaus sinn machen wenn man mit einem der produkte hinter den erwartungen bleibt, kann das im hype für die anderen produkte schön überdeckt werden ;)

Spasstiger
2007-03-23, 21:27:05
kann das im hype für die anderen produkte schön überdeckt werden ;)
Genauergesagt: Im Hype um die High-End-Karten. Wenn die High-End-Karten nicht hypenswert sind, haut die Strategie eher nicht hin.

Gast
2007-03-23, 21:34:09
Was soll das jetzt?

Wo steht, das ich PCGH doof finde? ;)
Ich find's nur witzig, wenn jemand mit PCGH-Nick hier postet, hat auf einmal jeder eine Meinung zur Zeitschrift, zum Abo, zu den Inhalten usw. und meint, hier wäre ein guter Ort, um diese mal kundzutun.

Kritik wäre besser aufgehoben im PCGH-Forum - da lesen auch die Verantwortlichen mit - hier ist es nur OT.

Da bleib ich lieber komplett anonym und "provoziere" solche Diskussionen durch meinen Nick erst gar nicht.


Ciao.

Gast
2007-03-23, 21:36:13
Genauergesagt: Im Hype um die High-End-Karten. Wenn die High-End-Karten nicht hypenswert sind, haut die Strategie eher nicht hin.

ich meine eigentlich nicht nur die grafikkarten, nehmen wir mal an der K8L/K10 oder wie auch immer kann intels core2 nicht übertreffen, dann wäre es durchaus diese negativmeldung mit positivmeldungen über den R600 zu überdecken.

es wäre natürlich auch umgekehrt möglich, dass der R600 mit der 8800GTX kaum mithalten kann und man deswegen wenigstens die schnellste cpu zeitgleich präsentieren will.

AMD/ATI sind in beiden märkten stark in verzug und die teile müssen nun bald mal raus, ob sie schneller sind als die konkurrenz oder auch nicht, lange kann man diese hinhaltetaktik nicht mehr durchhalten, da macht es durchaus sinn beide gleichzeitig zu launchen, wenn man zumindest in einem marktbereich überzeugen kann.

laser114
2007-03-23, 21:50:31
Genauergesagt: Im Hype um die High-End-Karten. Wenn die High-End-Karten nicht hypenswert sind, haut die Strategie eher nicht hin.

Hypen kann man doch alles mögliche, auch wenn das Produkt nicht gut ist. Da bekommt man eben etwas mehr für den Preis und dazu noch eine Soundkarte (ob das so etwas ist, wäre dann noch eine andere Frage), und entsprechende Midrange-Karten ala gute Leistung zum Preis und weiteres. Oder man überhypt den Stromverbrauch, oder anderes...

@Gast #2007-03-23 21:34:09: Ist schon richtig, hat hier eigentlich wenig zu suchen. Das PCGH-Kürzel hinzuschreiben bringt eben Vor- und Nachteile. ;)

Spasstiger
2007-03-23, 22:10:16
Hypen kann man doch alles mögliche
Die GeForce-FX-Karten wurden nach Release nicht mehr gehypt. Ich bin aber zuversichtlich, dass dem R600 nicht das gleiche Schicksal bevorsteht. ;)

laser114
2007-03-23, 22:17:03
Die GeForce-FX-Karten wurden nach Release nicht mehr gehypt.

Der Release ist ja auch in die Hose gegangen. ;)

Zum R600 kann man derzeit aber nur sagen: Abwarten. Und wenn man jetzt in der Klasse braucht, nimmt man eben die Geforce 8800.

Gast
2007-03-23, 22:43:36
Die GeForce-FX-Karten wurden nach Release nicht mehr gehypt. Ich bin aber zuversichtlich, dass dem R600 nicht das gleiche Schicksal bevorsteht. ;)
Er wird garantiert kein Rohrkrepierer wie die FX. Er kann aber wahrscheinlich nichts wesentlich besser als G80 und kommt zu spät. Ähnlich wie die PS3 gegenüber der Xbox360. Dazu wird er höchstwahrscheinlich noch einen schlechteren Wirkungsgrad in puncto Verbrauch als G80 haben. Schlussendlich wird's dann wohl heißen, wer eine GTX besitzt, braucht nicht zu wechseln, wer Multi-GPU User ist braucht nicht zu wechseln. Der kleine übriggebliebene Rest kann zuschlagen.

Gast
2007-03-23, 23:10:20
Der Rest wird vieleicht nicht zuschlagen weil die Refreshs im Herbst kommen, genauso die Spiele für die man die neue Generation brauch.
Also wo ist der Grund nen R600 zu kaufen, außer man hat nen TFT der 1920*1200+ Auflösungen darstellen kann?

Was viel besser kommt, wenn man jetzt noch ne Midrange Gurke ala 7600GT/X1600XT hat, die gegen eine X2600/8600GTS getauscht, bringt um einiges mehr und sollte Preislich mit der "alten" Highend Generation gleichaufsein dann (200€).
Ok, die echten HighendUser lassen wir mal außen vor, die verticken ihre G80/R600 im Herbst oder kaufen noch eine dazu, wenn Crysis kommt ^^

Gast
2007-03-23, 23:13:23
Eine Schwachstelle der R600 Karte mit "nur" 512MB Grakaram könnten Highres Benchmarks werden. Was nützt mir ein 512Bit-SI bei +100GB/sec Bandbreite, wenn mir in der hohen Auflösung Spiele wie COD2 Texturen um die Ohren schlagen die 600+ MB Ram brauchen? Wird interessant, da auch 6xAA dann flachfällt (wenns das noch gibbet).

Spasstiger
2007-03-24, 00:24:19
Eine Schwachstelle der R600 Karte mit "nur" 512MB Grakaram könnten Highres Benchmarks werden. Was nützt mir ein 512Bit-SI bei +100GB/sec Bandbreite, wenn mir in der hohen Auflösung Spiele wie COD2 Texturen um die Ohren schlagen die 600+ MB Ram brauchen? Wird interessant, da auch 6xAA dann flachfällt (wenns das noch gibbet).
COD2 ist schon lange nicht mehr das extremsten Beispiel in Sachen Speicherbelegung, 512 MB RAM sollten dafür ausreichen.
Oblivion mit Quarls-Texturen z.B. ist da noch ein ganzes Stück anspruchsvoller, das ist mit 256/320-MB-Karten bei aktivem HDR+AA unspielbar, Karten mit gleicher Rohleistung und mindestens 512 MB Grafikspeicher kommen da teils auf die sechsfache Framerate (siehe Raffs Benchmark in der PC Games Hardware).

Gast
2007-03-24, 00:32:32
Deswegen steht da auch "Spiele wie ...", verlinken wir mal "unseren" Testthread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823

Company of Heroes dürfte ja das aktuelleste Spiel zusammen mit Medival2 sein, da darf sich dann eine 512MB Karte messen lassen.

robbitop
2007-03-24, 00:47:03
Nunja, das sieht AMD offenbar anders.
Mit etwas Glück könnte es gleichzeitig auch den Barcelona-Launch geben, dann wäre es tatsächlich der größte Launch aller Zeiten.
Nicht nur mit etwas Glueck. Barcelona wird zum Launch der Oeffentlichkeit vorgestellt laut AMD.

tombman
2007-03-24, 07:19:23
Naja, schlappe 9700 zu 9500 3DM06-Punkte (16x12) für die R600. Und das bei krassen 800mhz. Irgendwas hat Nvidia mit der shader clock domain richtig gemacht ;)
OK- waren ja nur Betatreiber usw, aber für mich zeigt das schon mal ganz klar, daß die R600 den G80 auf keinen Fall "ownen" wird.
Ich schätze mal, die 8800GTX ULTRA und die X2900XTX werden auf ähnlichem Niveau sein- also eh so wie es immer war bei den beiden "Raufbolden" :)

Heißt für mich und einige andere hier: zurücklehnen und abwarten- schlimmstenfalls verkaufen wir unsere 8800GTX und holen uns Ultras. Aber auch das ist ned wirklich notwendig, denn moderne games hängen eh praktisch alle an der CPU, weniger an der GPU.
Bei Stalker zb langweilen sich meine 8800er zu Tode, weil sie immer auf die CPU warten müssen ;)

Blutmaul
2007-03-24, 08:58:10
Vielleicht warten sie ja nur noch auf den neuen 3Dmark oder Rydermark um ihre Karten auf einen gehörigen Vorsprung benchen zu können ;D

Also, wegen ein paar 3dmarkwerten würde ich nicht lachen oder weinen.
Stromaufnahme und reale Spieleleistung sind das Maß (welche Spiele eigentlich, gibt doch noch gar keine für Dx10).

AnarchX
2007-03-24, 09:32:00
Nicht nur mit etwas Glueck. Barcelona wird zum Launch der Oeffentlichkeit vorgestellt laut AMD.

Na da wird wohl der April noch ziemlich spannend, aber seltsam, dass bisher immer von Mai die Rede war oder wird das Event in Tunis nur ein Paperlaunch?

btw.

[Water-Cooled X2900 XTX Card Pictured] (http://www.vr-zone.com/index.php?i=4854)

http://666kb.com/i/amw6jlbpylmdq339j.jpg
We seen enough of retail X2900 XTX card photos over the past few days and this time round we will bring you the water-cooled version of the R600 card to enjoy over the weekend.[...]

robbitop
2007-03-24, 10:56:21
Warum 8800Ultras kaufen, wenn die Teile nix anderes sind als die von EVGA angebotene von Werk aus uebertaktete Karten?
Zur Not kann man auch selbst uebertakten.

AnarchX
2007-03-24, 10:58:35
Warum 8800Ultras kaufen, wenn die Teile nix anderes sind als die von EVGA angebotene von Werk aus uebertaktete Karten?


Und wer sagt, dass die Ultra nur soetwas sein wird?
AFAIK bietet Qimonda im Q2 0.83ns GDDR3 an. ;)

horn 12
2007-03-24, 10:59:06
Definitic KEIN Paperlaunch und er wird ca. eine Woche nach NV Mid- End und 8800 Ultra stattfinden.
Atis Palette (kommt wie schon gesagt von ATI öfterrs Mitte April für Middle Karten) und somit nun auch die XTX .. ... XL und Konsorten.
Auch eine große verfügbarkeit solll gewährleistet sein, und A/A sagte immer es wird eine große Überraschung geben, wo alle zufrieden sind.
Deshalb würde ich von 65um ausgehen, die XL und XTX werden 65um daherkommen, ebenso Mid-End jedoch nur die OEM Versionen werden auf das Niveau der 65um Chips hochgeschraubt (Mhz mässig) mit dem Monsterkühler.
Dies wird wohl die Überraschung werden und ATI hat auch deshalb den Launch verschoben.
Aber genug, lasst EUCH / Mich überraschen.

robbitop
2007-03-24, 11:05:04
Und wer sagt, dass die Ultra nur soetwas sein wird?
AFAIK bietet Qimonda im Q2 0.83ns GDDR3 an. ;)
Der Chip ist nach meinen Informationen nur ein normaler G80, ohne Shrink ohne Respin. Vieleicht baut man ja noch GDDR4 drauf oder so.

AnarchX
2007-03-24, 11:09:38
Der Chip ist nach meinen Informationen nur ein normaler G80, ohne Shrink ohne Respin. Vieleicht baut man ja noch GDDR4 drauf oder so.

Was nicht bedeuten muss, dass man nicht den Takt der bisherigen OC-Versionen noch übertrifft(selektierte G80-GPUs) bzw. es von der Ultra auch noch OC-Versionen(gabs bei der GTX 512MB auch) geben könnte.

Aber natürlich ist es klar, dass die Ultra mehr oder weniger nur eine Prestigkarte sein wird, die den wohl nicht ganz so hohen Vorsprung des R600 einholen soll.

reunion
2007-03-24, 11:19:15
Interessant wird vorallem, ob nV ihre Prestigekarte auch liefern kann, ein GTX512 deja vue wäre doch etwas mager.

AnarchX
2007-03-24, 11:22:29
Interessant wird vorallem, ob nV ihre Prestigekarte auch liefern kann, ein GTX512 deja vue wäre doch etwas mager.

Ich hab das Gefühl bei der R600XTX GDDR4 könnte es ähnlich sein.