Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 6
foenfrisur
2007-03-17, 13:30:01
also ich habe kein muß auf den augen..."es flimmert nichts"
und ich weiss, wie das aussieht ;) hatte das auch mal auf irgendeiner ati...k.a. welche das noch genau war...evtl. mal den crt auf weit über 60hz stellen ;D *scherz*
ich will hier ja wirklich nicht streiten, aber es ist nunmal nicht wahrnehmbar für das träge menschliche auge ;)
auf a.i. adv. könnte ich es mir vorstellen, aber nicht mit cf...da ist wirklich nichts zu bemängeln bei der quali...
mfg
Was hier manche sagen ist echt lustig " hast du den G80 verpennt":|
Ich würd nie abstreiten das der G80 nen besseres AA hat, aber in sachen AF ist er sicher nicht besser, ich hatte auch nen x1950XTX Crossfire gespann(auch einzlne Karte) und ich kann (konnte) kein unterschied sehen zwischen den beiden beim AF.
Jetzt beim G80 ist AF sehr gut so wie bei ATI, aber sicher nicht besser)
Bei AA stimm ich da völlig zu, grad die Hybriden AA sieht sehr gut aus und fast Perfekt, aber was nützt mir nen Perfektes Bild wenn ich nur 10 FPS habe?
Ist zwar ne nette Spielerei aber eigentlich nicht zu gebrauchen.
Es ist besser, zumindest zeigen das die Theoretischen Messungen. Ein Ingame Vergleich zwischen A.I Off + HQAF (ati) und HQ (nv) wird man kaum machen, da sieht man quasi nichts, muss man sehr spezielle Winkel konstruieren wo der R580 noch ein paar Kanten in der AF Blume hat um das Sichtbar zu machen. Der G80 macht nen Blumigen Kreis und ist somit in der Theorie akurater, was in bessere BQ Resultiert.
Die Hybriden AA Modi kannst du nur bewerten wenn du sie selbst siehst, 8xS geht immer, 16xS kommt aufs Spiel drauf an, das das in Crysis nicht machbar sein wird sollte klar sein, dafür geht da sicher 16xCSAA ;)
deekey777
2007-03-17, 13:32:35
Seid ihr jetzt fertig? Weitere OT-Postings führen zur Löschung des Beitrages oder zu Farbkarten.
Och mann, jetzt hatte ich ein langes Posting über die AI-Sauerein geschrieben, dann sehe ich Deekeys Text. Hab mir das Abschicken dann verkniffen.
Also zurück zum R600. Wenn diese 65nm-News stimmen sollte, müsste das doch bedeuten, dass wir den ursprünglichen R600 nie zu Gesicht bekommen werden, oder? Irgendwie glaube ich nicht, dass ATI den R600 von Anfang an für 65 nm geplant hat. Genausowenig kann es aber sein, dass sie erst in letzter Minute auf 65 nm gewechselt sind. Ist der aktuelle R600 also in der Tat der Chip, der eigentlich als Refresh geplant war?
laser114
2007-03-17, 13:48:22
Hmm, die PCGH (http://www.pcgameshardware.de/?article_id=571781) hat mal wieder eine News bzgl. des R600:
In einem Gespräch mit AMD [...] erfuhr PC Games Hardware, dass AMD wie Nvidia eng mit bestimmten Spieleentwicklern im Rahmen des kommenden R600-Launches zusammmen arbeitet. Entwickler hätten schon seit einiger Zeit R600-Testkarten, um Direct-X-10-Effekte zu testen, auch wenn die Karte noch nicht der Öffentlichkeit vorgestellt wurde. Weinand betonte, dass AMD bei der Treiberentwicklung einen Vorsprung vor Nvidia habe, auch beim Direct-X-10-Part.
Da können als Lücken entstehen bzw. entstanden sein...
PCGH vermutet übrigens, das Valve ein solcher Partner ist, der bereits an DX-10-Material arbeitet was dann zum R600-Launch vorgestellt werden soll.
@Gast: Das kann ich mir gut vorstellen, das der R600 den wir wohl präsentiert bekommen, eigentlich als Refresh gedacht war. Von Anfang hat ATI sicher nicht mit 65nm geplant.
65nm ist EIN Gerücht das alle anderen Seiten mit in die Welt getragen haben ohne Quelle, einer hat das Gerücht gepostet und dann ging die "Welle" los. Kann ich mir nicht vorstellen das man geplant hat Mitte 2007 erst den R580 Nachfolger zu bringen. 80nm für einen Release direkt nach der Vista Einführung war mit Sicherheit das Ziel, ist ja ne gute Marketing Welle mit der man hätte Reiten können.
Denkt man darüber nach, in 65nm mit den bisher kurierenden TDP Angaben? Niemals, das im August ein Refresh kommt ist sicher möglich wenn ATI viel viel Geld dafür hinblettert den R600 auf gedeih und verderb zu Shrinken.
Aber ein Chip wird für einen Fertigungsprozess Designed und Entwickelt, mit Resteps macht man Bugfixes und höhere Taktraten. Aber man schmeißt doch nicht ein Jahr Resteps über Bord und setzt den Chip gleich runter auf 65nm.
Finanziell ist das sehr Risikoreich...
Was AMD reitet den R600 immer weiter zu verschieben wird man wohl niemals wirklich wissen, aber man hätte sicher eine Version der GPU jetzt bringen können mit etwas niedrigeren Taktraten.
Vieleicht hat man auch kalkuliert das sich ein neuer Chip zwischen November 06 und Juni 07 nicht sonderlich verkaufen wird, also designd man weiter daran herum. Wenn man es sich "Leisten" kann, was AMD wohl kann oder glaubt zu können, neues Management neues Glück in der GPU Devision ^^
Hmm, die PCGH (http://www.pcgameshardware.de/?article_id=571781) hat mal wieder eine News bzgl. des R600:
Da können als Lücken entstehen bzw. entstanden sein...
PCGH vermutet übrigens, das Valve ein solcher Partner ist, der bereits an DX-10-Material arbeitet was dann zum R600-Launch vorgestellt werden soll.
Ich glaube nicht das man ein Performance Booster bei Valve für den "R600 DX10 Pfad" baut, der G80 wird davon ebenfalls im gleichen Maße profitieren. Der R600 müsste ja genau dort eine stärke aufweisen wo der G80 eine deftige Schwäche hat um sich richtig abzusetzen. Aber HalfLife ist nicht gerade das beste Beispiel für ein Spiel das viel Arithmetik Power braucht *g Selbst mit HDR nicht, da glänzt der G80 mit seiner Texelpower.
puntarenas
2007-03-17, 14:00:21
Denkt man darüber nach, in 65nm mit den bisher kurierenden TDP Angaben? Niemals, das im August ein Refresh kommt ist sicher möglich wenn ATI viel viel Geld dafür hinblettert den R600 auf gedeih und verderb zu Shrinken.
Wieso tust du 65nm als undenkbares Gerücht ab und argumentierst gleichzeitig mit der kursierenden Verlustleistung, die doch genauso unbestätigt ist? Mir scheint 65nm dagegen eine denkbare Erklärung für die immense Verspätung zu sein, wir werden sehen...
laser114
2007-03-17, 14:02:40
65nm ist EIN Gerücht das alle anderen Seiten mit in die Welt getragen haben ohne Quelle, einer hat das Gerücht gepostet und dann ging die "Welle" los.
Ja, es ist ja fast alles zu dem R600 noch ein Gerücht. Die gesicherten Fakten hält AMD ja soweit wie möglich zurück.
Ich glaube ja auch nicht, das man den R600 für das 2. Quartal 2007 angesetzt hat, ATI hat sicherlich auch mit dem 4. Quartal 2006 gerechnet, kurz vor Vista. Wenn das mit den 65 nm stimmt (was ich übrigens glauben kann), hat man aber sicher auch schon 2006 gemerkt das die 80nm-Version nicht so richtig funktioniert, und dann gleich auf 65nm geshrinkt. Oder AMD war bei der Übernahme etwas übermütig. Genau wissen werden wir es wohl nie.
Lehrgeld haben sie wohl vermutlich gezahlt.
foenfrisur
2007-03-17, 14:03:27
es ist aber auch risikoreich und zu teuer, wenn man den r600 in 80nm in massen fertigen würde, aber niemand ihn haben will, wenn er 270watt verballert...dann lieber gleich 65 ;)
denn rumgemeckert haben alle, als sie das gelesen haben...
mfg
Vielleicht sind die OEMs die 80nm Teile, die am Lager waren.
Die TDPs kamen aus unterschiedlichen Quellen, nicht alle haben es aus einem Draft abgeschrieben. Ich weis das mehrere Gerüchte die in eine Richtung deuten sicher nicht ein Beweis darstellen, aber für mich ist das dann "mehr" Wahrscheinlicher als ein Gerücht ohne Quelle das alle nachplappern...
Kann ja jeder daher kommen ^^
Ob die Bilder der R600 Karten alle echt sind kann auch niemand sagen, aber es sind die ersten ATI Karten Bilder die die selben Stromstecker aufweisen wie die einer G8800GTX, und ein Bild zeigte ja einen noch größeren Stecker zur Stromversorgung, also kann ich davon ausgehen das die Karte mehr Saft brauch als eine G80, was in einer höheren TDP resultiert, und das in 65nm ?
laser114
2007-03-17, 14:05:06
denn rumgemeckert haben alle, als sie das gelesen haben...
Wenn, dann ist die Entscheidung für 65nm sicherlich eher gefallen. In 2 Monaten kriegen sie den Chip sicher nicht auf ein kleineres Fertigungsvefahren...
Aber so eine hohe TDP passt ja auch nicht zu dem Image von AMD. Diese Übernahme hat schon ein paar Probleme bereitet, an die man wohl so oberflächlich zunächst nicht denkt...
puntarenas
2007-03-17, 14:06:36
Die TDPs kamen aus unterschiedlichen Quellen, nicht alle haben es aus einem Draft abgeschrieben.
Jetzt stehen die 65nm-Gerüchte ja uch im entsprechenden Artikel hier und den News von heute. Ich bezweifle nichtmal den Wahrheitsgehalt der alten Gerüchte, ich hoffe und glaube nur, dass sie sich auf den "alten" R600 in 80nm bezogen, den wir dann Gott sei dank nie zu Gesicht bekommen werden.
Sollte dies zutreffen wäre die Übernahme durch AMD bereits jetzt als Segen zu bezeichnen :)
w0mbat
2007-03-17, 14:08:58
http://img250.imageshack.us/img250/6136/r600vrzone1rw5.jpg
es ist aber auch risikoreich und zu teuer, wenn man den r600 in 80nm in massen fertigen würde, aber niemand ihn haben will, wenn er 270watt verballert...dann lieber gleich 65 ;)
denn rumgemeckert haben alle, als sie das gelesen haben...
mfg
Wenn das der Fall wäre, hätte man die Taktrate/Voltage senken können um den Stromverbrauch zu senken. Wenn dann die Performance ebenbürtig zur Konkurenz gewesen wäre/ist, hätte man ja releasen können.
Wäre/ist das nicht der Fall, ist das design in die Hose gegangen, bei gleicher Leistung eine weitaus höhere Verlustleistung...
Ich mein was ist das für ein Chip bitte? 700Mio Transistoren soll er haben, nicht viel mehr als ein G80, ok er hat ein 512Bit SI, wird schon was gekostet haben, aber das alleine kann die Verlustleistung doch net 2Himmel nach oben hiefen.
BTW, deuten auch die Gerüchte zur Verlustleistung der kleinen R6xx Derivate auf einen hohen Stromverbrauch des gesammten Designs hin, oder?
reunion
2007-03-17, 14:12:26
Also was sich VR-Zone leistet, grenzt wirklich schon an Verarschung. Man zeigt inzwischen schon mit drei Bilder .... ähhh nichts! Wenn man eine Retail-R600-Karte hat, dann soll man diese gefälligst vernünftig ablichten, oder man erspart sich das ganze gleich völlig. Aber nur auf möglichst viele Klicks aus zu sein, und die interessierten Leute weit auf die Folter zu spannen, ist wirklich unverschämt.
BTW, deuten auch die Gerüchte zur Verlustleistung der kleinen R6xx Derivate auf einen hohen Stromverbrauch des gesammten Designs hin, oder?
Vielmehr zeigt sich einmal mehr, dass die TDP nur wenig mit der tatsächlichen Verlustleistung zu tun hat.
AnarchX
2007-03-17, 14:14:39
Also was sich VR-Zone leistet, grenzt wirklich schon an Verarschung. Man zeigt inzwischen schon mit drei Bilder .... ähhh nichts! Wenn man eine Retail-R600-Karte hat, dann soll man diese gefälligst vernünftig ablichten, oder man erspart sich das ganze gleich völlig. Aber nur auf möglichst viele Klicks aus zu sein, und die interessierten Leute weit auf die Folter zu spannen, ist wirklich unverschämt.
Sie müssen halt vorsichtig sein:
AMD is keeping a very close watch so we gotta be real careful on what we post. Anyway here's another pic for you guys only.
Aber aus dem vorhanden Bildmaterial kann man sich imo schon einen Eindruck machen.
Wenn das der Fall wäre, hätte man die Taktrate/Voltage senken können um den Stromverbrauch zu senken. Wenn dann die Performance ebenbürtig zur Konkurenz gewesen wäre/ist, hätte man ja releasen können.
Wäre/ist das nicht der Fall, ist das design in die Hose gegangen, bei gleicher Leistung eine weitaus höhere Verlustleistung...
Ich mein was ist das für ein Chip bitte? 700Mio Transistoren soll er haben, nicht viel mehr als ein G80, ok er hat ein 512Bit SI, wird schon was gekostet haben, aber das alleine kann die Verlustleistung doch net 2Himmel nach oben hiefen.
Naja, man kann wahrscheinlich G80 nicht mit dem R600 vergleichen. NV hatte da angeblich 4 Jahre gebraucht um ihn zu konstruieren. Denke mal, dass das beim R600 nicht der Fall ist. Könnte man eher von der Effizienz mit einem R580 mal 2 vergleichen. Und von der Performance dürfte es bei moderaten Taktraten auch nicht viel mehr gewesen sein. NV hat mit dem G80 einen immensen Vorteil, den ATi wahrscheinlich nur schwer wieder einholen kann, wenn man bedenkt, wie wenig der G80 in 65 nm verbrauchen könnte und welches Taktpotenzial da noch brach liegt.
Ja, aber ^^
ATI hat schon einen US-Chip designed, auch wenn er abgespeckt ist für eine Konsole, d.h. sehr zugeschnitten ist. Einflüsse davon und vorallem die Erfahrung die daraus resultiert muss sich doch im parallel entwickelten PC Design niederschlagen. Selbst die GPU für den Wii hat einige Tricks auf Lager und is keine Krücke wie viele vermuten.
All das sollte in der Summe eigentlich in eine gute Richtung führen, zumal es genug Beispiele doch gibt das ein setzen auf hohe Taktrate nicht grade eine Chip Kühler laufen lässt.
Mittlerweile sollte auch jedem Bewust sein das TDP nicht gleich TDP ist. Bei NV ist damit die maximale Stromaufnahme gemeint, 180Watt für eine GTX muss im WorstCase Fall geliefert werden, was ATI unter TDP versteht ist nicht raus.
PCGH_Raffael
2007-03-17, 14:48:20
Ist eine BQ-Diskussion angesichts eines neuen Chips wirklich offtopic? Wie wir in einem Exklusivinterview mit Terry Makedon erfahren haben, "beeinflusst A.I. die Bildqualität nicht". Was diese Überzeugung für den R600 bezüglich A.I. bedeutet, kann man sich ja denken. Mehr zu Atis Treibern gibt's in einer kommenden PCGH.
MfG,
Raff
Ist eine BQ-Diskussion angesichts eines neuen Chips wirklich offtopic? Wie wir in einem Exklusivinterview mit Terry Makedon erfahren haben, "beeinflusst A.I. die Bildqualität nicht". Was diese Überzeugung für den R600 bezüglich A.I. bedeutet, kann man sich ja denken. Mehr zu Atis Treibern gibt's in einer kommenden PCGH.
MfG,
Raff
Das Problem bsteht doch noch weiterhin. Kann mich noch an Thread erinnern, wo man Videos mit Fraps von einer X1800XT und 7900 in CS aufgenommen hat. Die ganze Dikussion ist dann mal wieder nahe am Entgleisen gewesen. Fakt war, dass ATi erst mit AI off in den meisten Games mit NV HQ mithalten oder übertrumpfen konnte. Man sah mit A.I. standard zum Teil deutliche Unterschiede im Vergleich zu off. Vor allem spielt sich das meistens nicht im Horizont ab, sondern sehr nahe vor den Füßen des Gamers. Aber eh alles egal, solange A.I. off alles sauber darstellt. An die Koppelung von Fixes mit A.I. glaube ich eh nicht, ist vielmehr ein Pseudoargument von ATi.
Eigentlich sind nur CF Benutzer gearscht.
Mancko
2007-03-17, 15:47:56
Aber eh alles egal, solange A.I. off alles sauber darstellt. An die Koppelung von Fixes mit A.I. glaube ich eh nicht, ist vielmehr ein Pseudoargument von ATi.
Eigentlich sind nur CF Benutzer gearscht.
Die Kopplung macht ATI doch absichtlich, damit alle Tester wunderschön mit Filtertricks testen, die zwar die IQ reduzieren aber Performance bringen. Die meissten Tester werden sich dafür entscheiden die Performancebringenden Profile mit AI zu nutzen, da sie ja den Hersteller nicht benachteiligen wollen. Auf der anderen Seite werden dann noch ein paar kleine Filtertricks/cheats dem Tester untergejubelt.
Das Problem lässt sich ganz einfach lösen. Alle testen nur noch mit AI auf off und schon ist ATI gezwungen das Coding zu trennen. Dann kann man auch vernünftig die Unterschiede herausarbeiten, die sich durch die Profile ergeben und die, die sich durch die Filtertricks auf Kosten der Bildqualität ergeben.
Das sollte ATI schleunigst ändern. der G80 setzt Maßstäbe in der BQ.
Right. Ein objektiver Test (in Sachen BQ) muss heute klar A.I. Off gegen NV-HQ testen. Bei G7x vs. R5x0 ist HQ gegen A.I. On je nach Spieleauswahl vertretbar.
MfG,
Raff
seahawk
2007-03-17, 15:50:19
Ist eine BQ-Diskussion angesichts eines neuen Chips wirklich offtopic? Wie wir in einem Exklusivinterview mit Terry Makedon erfahren haben, "beeinflusst A.I. die Bildqualität nicht". Was diese Überzeugung für den R600 bezüglich A.I. bedeutet, kann man sich ja denken. Mehr zu Atis Treibern gibt's in einer kommenden PCGH.
MfG,
Raff
Es gibt zwei denkbare Antworten
a) Mr. Makedon erzählt die Wahrheit und sie haben notwendige Bug-Fixes und "unnötige" Optimierungen im neuen CAT getrennt
b) Mr Makedon erzählt nur den alten Text von ATI und man wird wieder Optimierungen finden.
Liszca
2007-03-17, 16:36:00
schaut mal in den heutigen news, bei r600 die zweite von k-hardware, dort beim vorletzten bild wird angedeutet, dass die grafikkarte eine "soundkarte" integriert haben könnte. klingt auch logisch, da ati ja mit vollständig und bester hdmi kompatibilität wirbt, da muss dass ja so sein. bin ja mal gespannt ob das dann auch funktioniert^^
Liszca
2007-03-17, 16:38:02
auf beyond 3d schreiben die auch von einer soundkarte:eek:
55nm noch dieses Jahr? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=161&Itemid=1)
deekey777
2007-03-17, 17:47:53
Ist eine BQ-Diskussion angesichts eines neuen Chips wirklich offtopic? Wie wir in einem Exklusivinterview mit Terry Makedon erfahren haben, "beeinflusst A.I. die Bildqualität nicht". Was diese Überzeugung für den R600 bezüglich A.I. bedeutet, kann man sich ja denken. Mehr zu Atis Treibern gibt's in einer kommenden PCGH.
MfG,
Raff
Ja, sie ist OT, wenn sie so geführt wird, wie auf der letzten Seite.
Armaq
2007-03-17, 18:28:13
Sry 4 OT, aber ist Raff gleichzusetzen mit PCGH_Raffael?
dildo4u
2007-03-17, 18:29:23
Ja ist er Raff schreibt für die PCGH.
deekey777
2007-03-17, 18:39:15
55nm noch dieses Jahr? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=161&Itemid=1)
R600 ist ein 80-nm-Chip, R650 ein 65-nm-Chip, R680 auch (wie der R580 mit mehr Power). Erst der R700 soll in 55 nm gefertigt werden.
Zu VALVe und ATi: VALVe hat nichts anderes zu tun, als für ATi einen D3D10-Renderer zu schreiben.
Möglichkeit eins: Flight Sim X bekommt pünktlich zum Start der R600 einen D3D10-Renderer (dafür spricht der Blogeintrag eines Programmierers, der über den GS des R600 spricht).
Zwei: Es ist Halo 2 (;D ).
Drei: 3DMark 2007.
Wann kommt "Hellgate: London"? Dass Crytek beim Launch dabei sein wird, ist zu erwarten, aber nicht Crysis. UT3? Wird das Spiel von Anfang an einen D3D10-Renderer haben?
AnarchX
2007-03-17, 18:50:41
CeBIT: AMD Presents R600 DirectX10 GPU (http://www.cdrinfo.com/Sections/News/Details.aspx?NewsId=20005)
[...]Bergman also said that AMD is preparing an 65nm version of the R600, that will feature a lower power consumption and will be used in the future DirectX 10-enables notebooks, possibly available later this year.
Wobei der Rest der Meldung etwas sonderbar ist...
Tja, so entstehen Gerüchte...
Es war jedoch vollkommen klar, dass der r600 nicht in 65nm ist, da die ganzen Angaben zu Größe und Stromverbrauch, welche natürlich ebenfalls nur Gerüchte waren, einfach zu hoch waren.
dildo4u
2007-03-17, 18:53:41
"However, power consumption of the R600 series of GPUs is high. The consumption of the high-end model is expected to be higher than 250W"
Wird immer mher. :|
"However, power consumption of the R600 series of GPUs is high. The consumption of the high-end model is expected to be higher than 250W"
Wird immer mher. :|
Gerücht.
Da steht nicht, dass es von Bergman gesagt wurde, sondern sie gehen davon aus.
AnarchX
2007-03-17, 18:55:41
"However, power consumption of the R600 series of GPUs is high. The consumption of the high-end model is expected to be higher than 250W"
Wird immer mher. :|
Nicht nur dies, sie sprechen auf von 48ALUs und verwechseln RV610 und RV630.
Etwas sonderbar, aber die Erklärung für das "R600 in 65nm"-Gerücht könnte man durchaus hier finden.
deekey777
2007-03-17, 19:01:08
Da schon der R420 über 12 extreme Pipelines verfügt und der G80 ein Non-USA-Grafikchip ist, da die Zeit dafür nicht reif war, sollte man sehr vorsichtig sein, was die Offiziellen von sich geben.
Ich will nicht sagen, dass der R600 in 65 nm kommt, aber nach der Verarschung mit dem G80 weiß man nie.
Ich will nicht sagen, dass der R600 in 65 nm kommt, aber nach der Verarschung mit dem G80 weiß man nie.
Dann wäre das Endprodukt, nicht die Leistung betrachtet, eine herbe Enttäuschung.
deekey777
2007-03-17, 19:13:15
Dann wäre das Endprodukt, nicht die Leistung betrachtet, eine herbe Enttäuschung.
So sieht's aus: Man macht keine "Lügen-Compagne" mit 65 nm und liefert dann den R600 in 80 nm aus.
Den R600 in 80 nm gibt es seit Februar oder gar Januar, und der lief, Anfang März gab's "teraflop in a box". Die OEMs könnten die Monster-Version bekommen (andererseits klingt 65 nm im OEM-Geschäft besser). Oder die 80-nm-Version landet auf der X2900Pro oder GT/GTO oder gar XL, da die RV630XT nur in 3D 2006 die Konkurrenz schlägt (aus der Erfahrung mit der X1600XT). Nur die X2900XT/XTX kommen dann in den Genuss der 65-nm-Version.
reunion
2007-03-17, 19:20:54
So sieht's aus: Man macht keine "Lügen-Compagne" mit 65 nm und liefert dann den R600 in 80 nm aus.
Eine solche "Lügen-Campagne" muss ja nicht von AMD kommen, sondern könnte auch von der Konkurrenz entzündet worden sein. Man erinnere sich zurück: Dass bis zuletzt sehr hartnäckige Gerücht, wonach R520 32pp haben wird, kam auch von nV. Oder ein Gerücht, wonach R600 >50% schneller als G80 sei. Usw. Ein 65nm Chip dieser größenordung sollte zum jetzigen Zeitpunkt ein Ding der Unmöglichkeit sein.
Okay, dann halt nicht in 65nm. Nachdem dieses Argument entfällt, frage ich mich umsomehr, weshalb er sich derart verspätet hat.
Na wenn man sein Produkt nicht auf den Markt bringen kann, glaube ich schon das die Marketing Abteilung alle Stricke zieht um im Gespräch der Internet Foren zu bleiben. Seitens AMD gab es zu GPUs ja rein gar nichts zu vermelden auser das die LowCost Teile direkt 65nm und nicht 80nm sind. Dat wars aber auch schon.
Da müssen halt paar Gerüchte her, wie das läuft sieht man ja, mal ein VorserienModell nem etwas windigen Hersteller überlassen damit die ihre Kühllösung schonmal vorbereiten können, schon ist ein 3DMark in nem Chinesischen Forum verbreitet...
Ich bin auf den echten Chip und vorallem die miserablen Vista Treiber gespannt HRHR.
von:
http://www.xfastest.com/viewthread.php?tid=1471
AMD/ATI 的R600好像真的很強?
R600的測試數據都是馬路消息,畢竟還沒公怖。
不過馬路的數據有點誇張
8800 GTX SLI @ 原時脈
Intel(R) Core(TM) 2 Extreme X6800
Nvidia Geforce 8800GTX SLI @ 575MHz/1800MHz
3DMark Score 13298 3DMarks
SM 2.0 Score 7163 Marks
SM 3.0 Score 6019 Marks
CPU Score 2506 Marks
R600 @ 原時脈
Intel(R) Core(TM)2 Duo E6600
ATI Radeon X2900XTX 1GB 512bit 0.72ns GDDR4 @ 814MHz/2360MHz
3DMark Score 13298 3DMarks
SM 2.0 Score 7245 Marks
SM 3.0 Score 7394 Marks
CPU Score 2087 Marks
http://www.fx57.net/?p=446
超頻:
Extremely overclocked G80 GPU
Intel(R) Core(TM)2 Extreme QX6700 @ 4455MHz
Nvidia 8800GTX 768MB 384bit 1.0ns GDDR3 @ 950MHz/2400MHz
3DMark Score 18220 3DMarks
SM 2.0 Score 7452 Marks
SM 3.0 Score 7369 Marks
CPU Score 6662 Marks
Extremely overclocked R600 GPU
Intel(R) Core(TM)2 Duo E6600 @ 3200MHz
ATI Radeon X2900XTX 1GB GDDR4 @ 1351MHz/3350MHz @ vCore1.63v vMem2.53v
3DMark Score 18342 3DMarks
SM 2.0 Score 10205 Marks
SM 3.0 Score 10524 Marks
CPU Score 2763 Marks
http://www.fx57.net/?p=446
Rick
Winter[Raven]
2007-03-17, 19:53:15
Also wenn die Benches war sind, dann ist der R600 aber mehr als "enttäuschend"...
deekey777
2007-03-17, 19:56:58
Was soll das denn?
Das Zeug ist von Ende Februar: http://www.forumdeluxx.de/forum/showpost.php?p=5567792&postcount=212
WR: die kannst du in die Tonne kloppen.
ich finde die Werte auch arg entäuschend :(
deshalb vielleicht auch die Geheimnisskrämerei..... nun gut
Rick
Quatsch, die OC Werte sind ja der absolute Brüller ^^
1,3GHz Core wartemal das hatten wir doch schonmal irgendwann...
w0mbat
2007-03-17, 20:04:24
;5334165']Also wenn die Benches war sind, dann ist der R600 aber mehr als "enttäuschend"...
Machst du Witze? Wenn daß die realen Werte wären, hätte nVidia geschissen. Ist aber BS.
BTW: ATI-Techdemo: http://www.youtube.com/watch?v=EJ6aMxPh6k0
Nice, LaraCroft hat nun Rote Haare und gibt sich mal zugeknöpft ^^
Enterprise
2007-03-17, 20:13:09
http://rage3d.com/board/showpost.php?p=1334853027&postcount=3688
Schaut mal der SSXeon im Rage3D Forum ist eigentlich jemand der Kontakt zur Branche hat und viel Ahnung. Wenn man dem Glauben schenken mag dann haben wir noch was interessantes zu erwarten. Naja mal schauen.
mfg
raoul
Ich bin auch ein Experte!!!!!!!!!111111
/Sarkasmus Off
Nicht alles glauben, was Menschen schreiben.
Winter[Raven]
2007-03-17, 20:16:16
@w0mbat
NV:
3DMark Score 13298 3DMarks
SM 2.0 Score 7163 Marks
SM 3.0 Score 6019 Marks
ATI:
3DMark Score 13298 3DMarks
SM 2.0 Score 7245 Marks
SM 3.0 Score 7394 Marks
CPU Score 2087 Marks
Sehr Enttäuschend...
http://rage3d.com/board/showpost.php?p=1334853027&postcount=3688
Schaut mal der SSXeon im Rage3D Forum ist eigentlich jemand der Kontakt zur Branche hat und viel Ahnung. Wenn man dem Glauben schenken mag dann haben wir noch was interessantes zu erwarten. Naja mal schauen.
mfg
raoul
Falls die wirklich mit 65nm so weit sind, und schon nach 2 Monaten einen Refresh einplanen, dann würde das ATI mit Sicherheit nicht öffentlich zugeben.
Nur mit dem kleinen Unterschied, dass der NV-Score ein SLI-System ist. ;)
dargo
2007-03-17, 20:19:41
Nur mit dem kleinen Unterschied, dass der NV-Score ein SLI-System ist. ;)
Eben. ;)
Aber die Werte sind höchstwahrscheinlich eh Fake.
foenfrisur
2007-03-17, 20:24:10
finds aber auch merkwürdig, das die scores zufällig identisch sind...
mfg
w0mbat
2007-03-17, 20:30:16
;5334228']@w0mbat
NV:
3DMark Score 13298 3DMarks
SM 2.0 Score 7163 Marks
SM 3.0 Score 6019 Marks
ATI:
3DMark Score 13298 3DMarks
SM 2.0 Score 7245 Marks
SM 3.0 Score 7394 Marks
CPU Score 2087 Marks
Sehr Enttäuschend...
Wieso gibst du bei der nV-Wertung nicht die CPU-Score an (dien nämlich höher ist) und weißt nicht auf das SLi hin? Ist aber egal. Wir sollte uns darüber nicht streiten, da es eh wahrscheinlich ein Fake ist.
Cubitus
2007-03-17, 20:33:42
;5334228']@w0mbat
NV:
3DMark Score 13298 3DMarks
SM 2.0 Score 7163 Marks
SM 3.0 Score 6019 Marks
ATI:
3DMark Score 13298 3DMarks
SM 2.0 Score 7245 Marks
SM 3.0 Score 7394 Marks
CPU Score 2087 Marks
Sehr Enttäuschend...
Das ATI Ergebnis halte ich für realistisch:D .
Aber NV so wenig Punkte mit SLI ??
ganz klar;D
ich frage mich soweiso warum niemand mit dem 03 Testet. Dort belasten die Graphiktests auch wirklich nur die Graphikkarte.
Armaq
2007-03-17, 20:43:11
Wieso gibst du bei der nV-Wertung nicht die CPU-Score an (dien nämlich höher ist) und weißt nicht auf das SLi hin? Ist aber egal. Wir sollte uns darüber nicht streiten, da es eh wahrscheinlich ein Fake ist.
Wobei ich die Übertaktungsergebnisse wirklich interessant finde.
Die sehen nämlich nach höherer Takteffizienz seitens nV aus und das entspricht nun schon der Warheit - zumindest bisher.
Ati dreht ja nicht umsonst immer an der Taktschraube.
Ich bin mehr als gespannt, zumal mich die 8800GTS 320 wirklich mehr als zufriedenstellt. War bisher meine "beste" Grafikkarte.
Edit: Sehe gerade den CPU-Score. Vergiss was da oben steht.
Gouvernator
2007-03-17, 20:46:29
Wobei ich die Übertaktungsergebnisse wirklich interessant finde.
Die sehen nämlich nach höherer Takteffizienz seitens nV aus und das entspricht nun schon der Warheit - zumindest bisher.
Ati dreht ja nicht umsonst immer an der Taktschraube.
Wenn es sich nicht um Fakes handelt, dann stimmt deine Meinung vorne und hinten net. Weisst du auch warum? Weil die Werte mit OC@GTX mit nem CoreDuo@ über 4,0ghz waren und die des R600 nur mit 3,2ghz -->Cpu Limit.
von:
http://www.xfastest.com/viewthread.php?tid=1471
AMD/ATI 的R600好像真的很強?
R600的測試數據都是馬路消息,畢竟還沒公怖。
不過馬路的數據有點誇張
8800 GTX SLI @ 原時脈
Intel(R) Core(TM) 2 Extreme X6800
Nvidia Geforce 8800GTX SLI @ 575MHz/1800MHz
3DMark Score 13298 3DMarks
SM 2.0 Score 7163 Marks
SM 3.0 Score 6019 Marks
CPU Score 2506 Marks
R600 @ 原時脈
Intel(R) Core(TM)2 Duo E6600
ATI Radeon X2900XTX 1GB 512bit 0.72ns GDDR4 @ 814MHz/2360MHz
3DMark Score 13298 3DMarks
SM 2.0 Score 7245 Marks
SM 3.0 Score 7394 Marks
CPU Score 2087 Marks
http://www.fx57.net/?p=446
超頻:
Extremely overclocked G80 GPU
Intel(R) Core(TM)2 Extreme QX6700 @ 4455MHz
Nvidia 8800GTX 768MB 384bit 1.0ns GDDR3 @ 950MHz/2400MHz
3DMark Score 18220 3DMarks
SM 2.0 Score 7452 Marks
SM 3.0 Score 7369 Marks
CPU Score 6662 Marks
Extremely overclocked R600 GPU
Intel(R) Core(TM)2 Duo E6600 @ 3200MHz
ATI Radeon X2900XTX 1GB GDDR4 @ 1351MHz/3350MHz @ vCore1.63v vMem2.53v
3DMark Score 18342 3DMarks
SM 2.0 Score 10205 Marks
SM 3.0 Score 10524 Marks
CPU Score 2763 Marks
http://www.fx57.net/?p=446
Rick
NV Cpu is ja stärker,und das macht im cpumark viel aus
brauch da mal Infos
Wie schnell ist eine 8800gtx ohne Sli mit gleichem System ?
Warum zur Hölle testet mal immer unreale Marks und nicht Oblivion,Bf2,Company of Heroes oder sonst was
Die AA-Postings finden sich nun hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=353995
MfG,
Raff
Wie schnell ist eine 8800gtx ohne Sli mit gleichem System ?
Ca. 10769 -> http://www.techreport.com/reviews/2007q1/geforce-8800-sli/index.x?pg=10
dildo4u
2007-03-17, 22:08:02
Mit genug CPU Power kommt ein 8800GTX SLI auf 18000-20000 Punkte.
Tombmans System
http://service.futuremark.com/compare?3dm06=945931
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5179177&postcount=132
Die große Show zum R600-Start
von Bernd Kling: Samstag 17 März 2007, 8:57
Die bislang größte Show zur Einführung eines neuen Grafikprozessors soll mit 200 geladenen Journalisten stattfinden. Während der fiebrigen Vorbereitungen in der Pressestelle drangen weitere Einzelheiten über die GPU-Produktion nach draußen.
Wir wir bereits berichten konnten, hat die Firma offenbar in einem ganz unerwarteten Schritt die Herstellung beim Auftragshersteller TSMC komplett auf 65 Nanometer umgestellt. Es scheint sich nun eine neue Allianz von Herstellern in 65 nm herauszubilden, da AMD sich in verschiedenen partnerschaftlichen Abkommen mit IBM befindet und damit auch mit Sony, Toshiba, Chartered, UMC und natürlich TSMC.
AMD wird voraussichtlich gut über 100 Millionen 65-Nanometer-Chips im Jahr 2007 ausliefern und hat sich entschieden, das eigene Grafik-Abenteuer mit einem lauten Paukenschlag zu beginnen. Wir wir erfuhren, lädt die Firma tonnenweise Partner für eine 3D-Einführung ein. Knapp 200 Schreiber werden für diese Presseveranstaltung erwartet, und ein jeder von ihnen soll die 65-nm-Chips verkosten können.
http://de.theinquirer.net/2007/03/17/die_grosse_show_zum_r600start.html
"Given the state of the NV drivers for the G80 and that ATI hasn’t released their
hw yet; it’s hard to see how this is really a bad plan. We really want to see final
ATI hw and production quality NV and ATI drivers before we ship our DX10
support. Early tests on ATI hw show their geometry shader unit is much more
performant than the GS unit on the NV hw. That could influence our feature
plan. "
http://blogs.msdn.com/ptaylor/archive/2007/03/03/optimized-for-vista-does-not-mean-dx10.aspx
deekey777
2007-03-17, 22:49:54
"Given the state of the NV drivers for the G80 and that ATI hasn’t released their
hw yet; it’s hard to see how this is really a bad plan. We really want to see final
ATI hw and production quality NV and ATI drivers before we ship our DX10
support. Early tests on ATI hw show their geometry shader unit is much more
performant than the GS unit on the NV hw. That could influence our feature
plan. "
http://blogs.msdn.com/ptaylor/archive/2007/03/03/optimized-for-vista-does-not-mean-dx10.aspx
Das ist etwas unneu. :smile:
Die_Allianz
2007-03-17, 23:14:08
irgendwie fehlt mir bei der inq-meldung ein kleine info:
WANN soll denn diese Show sein?
dargo
2007-03-17, 23:16:34
http://de.theinquirer.net/2007/03/17/die_grosse_show_zum_r600start.html
Lustig finde ich das hier:
http://de.theinquirer.net/2007/03/16/cebit_alle_r6xxchips_von_ati_g.html
Zitat:
Obwohl AMD hinsichtlich des großen Schaukampfes G80 gegen R600 um sechs Monate zurück liegt, ist die Firma um sechs Monate voraus gegenüber NV55, zuvor bekannt als G81 und derzeit bekannt als G90 (oder eben NV55 in der Gegend von Satan Clara).
:|
Hoffentlich nicht an einem Freitag:lol:
laser114
2007-03-17, 23:40:33
Satan Clara
Ist das ein absichtlicher Tippfehler? :D
Der INQ meint also, der R600 wird ein Konkurrenzprodukt zum G90. Wie soll man das nun interpretieren... :rolleyes:
100Mio GPUs in 6 Monaten, na da baut wohl TMSC eigens ne Fabrik für AMD oder was ^^
Ist FUAD eigentlich zum "Show" Event eingeladen, sicher nicht, das hat wohl ein NDA ^^
Bin auch gespannt wieviel "DX10" wir in 2 Jahren sehen werden, das ganze wird in Crysis und UT07 doch so ne Luftblase wie SM3 für Farcry...
Zumal ja Defered Rendering Engines noch ein problemchen mit AA haben, was sie aber ja nicht wirklich brauchen sind sie doch eher auf den Konsolenmarkt zugeschnitten und der PC Bereich kann auch ohne AA leben.
der PC Bereich kann auch ohne AA leben.
Du meinst Konsolenmarkt, richtig?
100 Millionen 65-Nanometer-Chips im Jahr 2007...
Also K10, K8 eingeschlossen...
Du meinst Konsolenmarkt, richtig?
Sagen wir mal so, Gothic3 ist der erste Schritt *g Muss man halt in 2560*1536 zocken oder den HDTV der Konsole mim PC verbinden ^^, Pixelt das ganze auch net mehr so. Bei nur 16xHQAF dürfte jede Graka 250+€ das packen.
Godmode
2007-03-18, 02:29:54
Die große Show zum R600-Start
von Bernd Kling: Samstag 17 März 2007, 8:57
Die bislang größte Show zur Einführung eines neuen Grafikprozessors soll mit 200 geladenen Journalisten stattfinden. Während der fiebrigen Vorbereitungen in der Pressestelle drangen weitere Einzelheiten über die GPU-Produktion nach draußen.
Wir wir bereits berichten konnten, hat die Firma offenbar in einem ganz unerwarteten Schritt die Herstellung beim Auftragshersteller TSMC komplett auf 65 Nanometer umgestellt. Es scheint sich nun eine neue Allianz von Herstellern in 65 nm herauszubilden, da AMD sich in verschiedenen partnerschaftlichen Abkommen mit IBM befindet und damit auch mit Sony, Toshiba, Chartered, UMC und natürlich TSMC.
AMD wird voraussichtlich gut über 100 Millionen 65-Nanometer-Chips im Jahr 2007 ausliefern und hat sich entschieden, das eigene Grafik-Abenteuer mit einem lauten Paukenschlag zu beginnen. Wir wir erfuhren, lädt die Firma tonnenweise Partner für eine 3D-Einführung ein. Knapp 200 Schreiber werden für diese Presseveranstaltung erwartet, und ein jeder von ihnen soll die 65-nm-Chips verkosten können.
http://de.theinquirer.net/2007/03/17/die_grosse_show_zum_r600start.html
Wenn dass stimmt, dann bin ich schwer begeistert! Wie lange es dann wohl dauern wird, bis Nvidia den 65 nm Refresh bringt?
Wenn dass stimmt, dann bin ich schwer begeistert!Was genau begeistert dich an dieser Meldung?
paul.muad.dib
2007-03-18, 09:26:05
Wenn 65 nm stimmt verstehe ich die Strategie von DAMMIT nicht.Warum haben sie dann nicht wenigstens mal eine X2800 XL herausgebracht, die meinetwegen auch nur an eine 8800 GTS herankommt um wenigstens am Markt zu sein und den Boardpartnern etwas bieten zu können?
Palpatin
2007-03-18, 09:41:18
Niemand hat irgendwas von 100mio GPUs geschrieben sonderen es geht um 100mio Chips damit sind auch CPUs und evtl Maindboard Chips + halt GPUs gemeint.
Godmode
2007-03-18, 10:04:17
Was genau begeistert dich an dieser Meldung?
Weil 65nm doch erst für Ende 2007 geplant war. Bis jetzt dachte ich immer der R600 wird ne Krücke! Aber wenn sie diesen Chip nun in 65nm fertigen, dann dürfte sich da einiges machen lassen, in Bezug auf Performance und Stromverbrauch.
seahawk
2007-03-18, 11:40:04
Die Logik des Inq verstehe ich nicht. Wenn TSMC in der LAge ist einen R650 in 65nm zu fertigen, dann können sie auch einen G81/G90/NV55 in 65nm fertigen. Der Zusammenhang zu AMD erschließt sich mir dabei gar nicht.
reunion
2007-03-18, 12:35:06
Die Logik des Inq verstehe ich nicht. Wenn TSMC in der LAge ist einen R650 in 65nm zu fertigen, dann können sie auch einen G81/G90/NV55 in 65nm fertigen. Der Zusammenhang zu AMD erschließt sich mir dabei gar nicht.
Nur müsste dazu G81/G90/NV55 auch erstmal fertig sein, nur die Fabrik alleine macht keine Chips. Auch könnte AMD durch den frühen Einsatz von 65nm eine art vorrecht auf die zu beginn sicherlich stark begrenzten Kapazitäten haben, und zu guter letzt bringt nV mit Sicherheit erstmal Low- und Midragechips in 65nm, und selbst dieser sind nicht vor H2 zu erwarten. Die sechs Monate Vorsprung von AMD könnten also durchaus hinkommen. Wobei ich R600 auf 65nm im Mai weiterhin für unrealistisch halte.
Sphinx
2007-03-18, 14:07:27
http://www.youtube.com/watch?v=EJ6aMxPh6k0
Nja was besseres kann man wohl nicht kriegen an leaks. [Edit Quelle : From Rage3d Forum]
boxleitnerb
2007-03-18, 14:19:50
Wurde schon vorher gepostet :)
Sphinx
2007-03-18, 14:21:23
Wurde schon vorher gepostet :)
Hehe sry ,=) habs aufgegeben ganze threads von anfang an durchzulesen.
seahawk
2007-03-18, 14:45:08
Nur müsste dazu G81/G90/NV55 auch erstmal fertig sein, nur die Fabrik alleine macht keine Chips. Auch könnte AMD durch den frühen Einsatz von 65nm eine art vorrecht auf die zu beginn sicherlich stark begrenzten Kapazitäten haben, und zu guter letzt bringt nV mit Sicherheit erstmal Low- und Midragechips in 65nm, und selbst dieser sind nicht vor H2 zu erwarten. Die sechs Monate Vorsprung von AMD könnten also durchaus hinkommen. Wobei ich R600 auf 65nm im Mai weiterhin für unrealistisch halte.
Imho alle srecht unrealistisch. Aus TSMCs Sicht ist NV der langfristig wichtigere pArtner, da ATI/AMd ihre Chips irgendwann selber bauen könnten.
NV hat den G80 im Nov. 06 verfügbar am MArkt gehabt. Also waren sie mit der Entwicklung im August 06 fertig. Ich kann mir nicht vorstellen, dass die ein halbes JAhr Däumchen gedreht haben. Außerdem deutet einiges draufhin, dass nV 80nm im High-End überspringen könnte und G90 back to school kommen könnte.
An die Jungs der PCGH:
Könnt ihr nicht mal ein Foto der ganzen Karte veröffentlichen?
Meinet wegen auch verschwommen wie bei VR-Zone zuvor.
http://www.forum-3dcenter.org/vbulletin/images/icons/icon12.gif
Wink
Gruß
Ghostface
Wenn dass stimmt, dann bin ich schwer begeistert! Wie lange es dann wohl dauern wird, bis Nvidia den 65 nm Refresh bringt?
80 nm war eine half node. 65 erfordert ganz neue Bibliotheken - da ist nix mit "unerwartet" umstellen.
Das einzige, was 65nm ist, sind die RV-Dinger. R600 ist 80nm.
reunion
2007-03-18, 15:52:03
Imho alle srecht unrealistisch. Aus TSMCs Sicht ist NV der langfristig wichtigere pArtner, da ATI/AMd ihre Chips irgendwann selber bauen könnten.
IMO ziemlich weit hergeholt. Nur weil ATi theoretisch irgendwann mal auch GPUs in den eigenen Fabriken fertigen könnte, macht sie das nicht weniger wichtig in bezug auf eine langfristige Partnerschaft. AMD gab sogar vor kurzem an, Fusion bei TSMC fertigen zu wollen. Auch verliert man ja dadurch mit Sicherheit nicht nV als Partner, da es kaum Alternativen zu TSMC bei der GPU-Fertigung gibt. Es war nunmal schon immer so, dass derjenige, der einen neuen Prozess vorangetrieben hat, dann auch ein vorrecht auf die ersten Kapazitäten hat.
NV hat den G80 im Nov. 06 verfügbar am MArkt gehabt. Also waren sie mit der Entwicklung im August 06 fertig. Ich kann mir nicht vorstellen, dass die ein halbes JAhr Däumchen gedreht haben. Außerdem deutet einiges draufhin, dass nV 80nm im High-End überspringen könnte und G90 back to school kommen könnte.
Was ist denn das für eine Begründung? Innerhalb eines halben Jahres muss ein Refresh automatisch fertig sein, oder wie? Die Frage ist, wann nV G90 vorgesehen hat, und da man sicherlich zuerst im Low- und Midragebereich auf 65nm umsteigen wird, und es bis dato noch nichtmal die 80nm Produkte in diesem Segment gibt, darf man G92/G93 wohl nicht vor dem späten Q3 erwarten. G90 dürfte dann frühestens irgendwann im Q4 kommen.
80 nm war eine half node. 65 erfordert ganz neue Bibliotheken - da ist nix mit "unerwartet" umstellen.
Das einzige, was 65nm ist, sind die RV-Dinger. R600 ist 80nm.
Die RV-Dinger wurden AFAIK auch von 80nm auf 65nm nachträglich umgestellt. Das war allerdings höchstwahrscheinlich auch von Anfang an so geplant.
seahawk
2007-03-18, 17:28:32
ein halbes JAhr ist viel in der GPU Entwicklung. Und NV baut ja schon 65nm Chips, nur eben keine aktuellen ...
Wann NV eine Refresh des G80 vorgesehen hat dürfte aus der Hsitorie leicht zu erknnen sein. 3Q07 erscheint mir sehr realistisch.
Die RV-Dinger wurden AFAIK auch von 80nm auf 65nm nachträglich umgestellt. Das war allerdings höchstwahrscheinlich auch von Anfang an so geplant.
Das höre ich zum ersten Mal. Und wie (so) sollte das von Anfang an geplant gewesen sein?
Dann hätte AMD sich die Kohle auch sparen können und direkt auf die neuen 65nm-Bibliotheken optimierens
Na wenn das stimmt mir 65nm, dann kann nividia mit ihren stromfressenden heizungen endgültig einpacken.
gruss
Na wenn das stimmt mir 65nm, dann kann nividia mit ihren stromfressenden heizungen endgültig einpacken.
gruss
Und wer sagt, dass der r600 besser wäre?
Ein r520 hat auch mehr Strom verbrauch als ein G70 -trotz dem kleineren Fertigungsprozeß.
Ailuros
2007-03-18, 20:40:09
Na wenn das stimmt mir 65nm, dann kann nividia mit ihren stromfressenden heizungen endgültig einpacken.
gruss
Von einpacken mit so grossen Verspaetungen seitens ATI wuerde ich nicht so leicht denken. Und schon gar nicht von stromfressenden Heizungen; angesichts dem was die wahre R600 verbraucht zerbeisst Du Dir doch bald wohl die Zaehne.
Von einpacken mit so grossen Verspaetungen seitens ATI wuerde ich nicht so leicht denken. Und schon gar nicht von stromfressenden Heizungen; angesichts dem was die wahre R600 verbraucht zerbeisst Du Dir doch bald wohl die Zaehne.
Wenn ATi/AMD mit 65nm GPu kommen haben sie 6 Monate vorsprung vor Nividia. Wer hätte das gedacht?? (hahaha)
gruss
Nakai
2007-03-18, 20:43:55
Von einpacken mit so grossen Verspaetungen seitens ATI wuerde ich nicht so leicht denken. Und schon gar nicht von stromfressenden Heizungen; angesichts dem was die wahre R600 verbraucht zerbeisst Du Dir doch bald wohl die Zaehne.
Naja falls es überhaupt 65Nm ist, wird er etwas über dem G80 seinen Stromverbrauch liegen.
mfg Nakai
reunion
2007-03-18, 20:45:09
Das höre ich zum ersten Mal. Und wie (so) sollte das von Anfang an geplant gewesen sein?
Dann hätte AMD sich die Kohle auch sparen können und direkt auf die neuen 65nm-Bibliotheken optimierens
Vielleicht ist das auch nur BS, keine Ahnung. Zumindest wurde das von DigiTimes mal behauptet. Ich würde dir den Link gerne posten, allerdings kommt man ans Newsarchiv nur ran, wenn man sich dort registriert, wozu ich keine lust habe.
Ja die Chance das das R600 @ 65nm nicht stimmt is fifty-fifty ^^
Was vieleicht dafür sprechen KÖNNTE, wäre das der R600, wie hier und da mal von einigen Personen fallengelassen wurde, mehrere Probleme im Chipdesign selber hatte. Stichwort was hier gefallen ist: ROPs.
2-3 Respins auf 80nm, Stromverbrauch bei gewünschter Taktrate zu hoch, hm also noch 2 weitere Respins sich vieleicht einhandeln oder man macht einen größeren Schritt und setzt gleich auf 65nm um. Die Entscheidung sollte aber spätestens im September Oktober 06 gefallen sein.
Imho alle srecht unrealistisch. Aus TSMCs Sicht ist NV der langfristig wichtigere pArtner, da ATI/AMd ihre Chips irgendwann selber bauen könnten.
Näh, AMD wird nicht ne eigene Fabrik für GPUs bauen. Die CPUGPU Geschichte wird ja kein Highend DX10 Monster sondern so ne X1300 mit A64 CPU Sache werden, wenn überhaupt ein DIE daraus wird, oder nicht beide auf einen Sockel gepflanzt werden.
Selber fertigen heißt nicht immer das das auch profitabler ist, bei TSMC gibt es sicher Probleme die niemals an die IHVs weitergetragen werden. Der Kunde ist auch im Semiconductor Bereich König ;)
reunion
2007-03-18, 20:57:44
Von einpacken mit so grossen Verspaetungen seitens ATI wuerde ich nicht so leicht denken. Und schon gar nicht von stromfressenden Heizungen; angesichts dem was die wahre R600 verbraucht zerbeisst Du Dir doch bald wohl die Zaehne.
Ailuros, was sagt du eigentlich zu den 65nm Gerüchten?
Ailuros, was sagt du eigentlich zu den 65nm Gerüchten?
Das hier:
Ich hab erst vorgestern wieder mit zwei hochrangigen Kerlen von NV geplaudert und der einzige Punkt wo sie "unruhig" erscheinen hab ich schon erwaehnt. Genaues haben sie natuerlich nicht gesagt, ich weiss eben nur rein "zufaellig" dass ein 20% kleinerer die genug Grund zur Unruhe ist.
:wink:
reunion
2007-03-18, 21:09:54
Das war auf RV610 vs. G86 bezogen.
Ailuros
2007-03-18, 22:33:13
Wenn ATi/AMD mit 65nm GPu kommen haben sie 6 Monate vorsprung vor Nividia. Wer hätte das gedacht?? (hahaha)
gruss
Vorsprung in Umsatz, Gewinn, Margen, verkauften Einheiten, OEM deals, Deiner Phantasie...was genau?
Ailuros
2007-03-18, 22:36:11
Ja die Chance das das R600 @ 65nm nicht stimmt is fifty-fifty ^^
Was vieleicht dafür sprechen KÖNNTE, wäre das der R600, wie hier und da mal von einigen Personen fallengelassen wurde, mehrere Probleme im Chipdesign selber hatte. Stichwort was hier gefallen ist: ROPs.
2-3 Respins auf 80nm, Stromverbrauch bei gewünschter Taktrate zu hoch, hm also noch 2 weitere Respins sich vieleicht einhandeln oder man macht einen größeren Schritt und setzt gleich auf 65nm um. Die Entscheidung sollte aber spätestens im September Oktober 06 gefallen sein.
Der "letzte" Launch wurde regelrecht in letzter Minute storniert; wie schon mal erwaehnt waren schon Fluege und Hotels fuer die Teilnehmer gebucht. Spricht alles wohl dagegen.
Ailuros
2007-03-18, 22:46:52
Ailuros, was sagt du eigentlich zu den 65nm Gerüchten?
Kein IHV kann zaubern und innerhalb von nur 2 Monaten auf einen kleineren Prozess steigen. Entweder sind die 65nm Geruechte nur BS oder AMD wird auch die angebliche Mai/Juni Projektion nicht einhalten koennen.
Sie sind still geworden, was normalerweise nichts gutes heisst.
Von dem abgesehen so wie es aussieht hab ich das Gefuehl dass NV nicht mehr mit den Treibern weiter "warten" wird und in kurzer Zeit kommen neue Treiber fuer XP und Vista mit moderaten Leistungssteigerungen und hybriden modi zur Oeffentlichkeit.
Nur ein Kerl eines grossen AIB die von beiden IHVs einkaufen hat sich geaeussert. Die Beschreibung fuer R600 war alles andere als schmeichelnd und dass sie es auch so langsam satt haben sollte man verstehen koennen.
Also bleibts bei 80nm, Frage ist warum der Launch immer weiter verschoben wird. Probleme mit der Kühlung sollte es ja nicht mehr geben, schließlich hat man den G80 Kühlkörper Notfalls als Vorlage *g
Mai als Launch is aber wirklich der letzte Termin, man will ja jetzt die komplette Chipfamilie vorstellen. Juni ist doch unrealistisch zu spät für die Midrange Karten. Die OEM Einkäufer müssen doch 2 Monate vor der "Back to School" Zeit ihre Sachen ordern.
Gab noch nie einen Launch einer neuen Generation ohne Highend.
Vorsprung in Umsatz, Gewinn, Margen, verkauften Einheiten, OEM deals, Deiner Phantasie...was genau?
?????
Alles was du auferzählt hast ist für die jeweiligen Firmen interesant, nicht für Endkunden. Ich meíne LEISTUNG und TECHNIK, das was mich als kunden interesiert.Oder ist 65nm technologie nicht vortschrittlicher als 90nm??
gruss
Ailuros
2007-03-18, 23:16:13
?????
Alles was du auferzählt hast ist für die jeweiligen Firmen interesant, nicht für Endkunden. Ich meíne LEISTUNG und TECHNIK, das was mich als kunden interesiert.Oder ist 65nm technologie nicht vortschrittlicher als 90nm??
gruss
Der benutzte Herstellungsprozess sagt ueberhaupt nichts ueber die Effizienz und Leistung einer GPU aus. Falls Dir ein Beispiel fehlt dann NV30 vs. R300.
Von dem abgesehen wenn Du wirklich glauben willst dass es AMD geschafft hat innerhalb so kurzer Zeit auf 65nm zu steigen und dass sie mit anstaendiger Verfuegbarkeit schon im Mai damit ankommen koennten, dann hast Du gerade die Faktoren des Unmoeglichen mit 10^2 multipliziert.
Der einzige moegliche "Ausweg" waere mit voller Pulle sich auf den R6x0 Refresh konzentrieren und zu hoffen dass NVIDIA in der Zwischenzeit nicht wieder frueher mit G90 antanzt.
deekey777
2007-03-18, 23:21:58
Hinter einem Proxy von AOL würde ich auch ziemlich große Töne spucken.
Ailuros
2007-03-18, 23:24:38
Also bleibts bei 80nm, Frage ist warum der Launch immer weiter verschoben wird. Probleme mit der Kühlung sollte es ja nicht mehr geben, schließlich hat man den G80 Kühlkörper Notfalls als Vorlage *g
Mai als Launch is aber wirklich der letzte Termin, man will ja jetzt die komplette Chipfamilie vorstellen. Juni ist doch unrealistisch zu spät für die Midrange Karten. Die OEM Einkäufer müssen doch 2 Monate vor der "Back to School" Zeit ihre Sachen ordern.
Gab noch nie einen Launch einer neuen Generation ohne Highend.
Ich hab von keinen weiteren Problemen gehoert; leg aber trotz allem nicht meine Hand ins Feuer denn es spricht sich einiges herum. IMHO bekommt R600 einen leichten Taktschub und kommt zeitgleich mit RV6x0 auf die Regale.
robbitop
2007-03-18, 23:29:03
@65nm
das ist FUD. K-Hardware und TI behaupten, AMD Leute haetten das bestaetigt. Da habe ich auf der CeBIT gleich mal nachgefragt. Als Antwort bekam ich ein Lachendes "Schwachsinn" und sowas haette man "natuerlich nie bestaetigt".
Ich wuesste gern, wo das herkommt. So einfach ist es nicht, mal eben ein so komplexe GPU auf 65 nm zu shrinken. Erstens sind die libaries ganz anders und zweitens duerften die Yields noch sehr arm sein.
Ailuros
2007-03-18, 23:34:00
@65nm
das ist FUD. K-Hardware und TI behaupten, AMD Leute haetten das bestaetigt. Da habe ich auf der CeBIT gleich mal nachgefragt. Als Antwort bekam ich ein Lachendes "Schwachsinn" und sowas haette man "natuerlich nie bestaetigt".
Ich wuesste gern, wo das herkommt. So einfach ist es nicht, mal eben ein so komplexe GPU auf 65 nm zu shrinken. Erstens sind die libaries ganz anders und zweitens duerften die Yields noch sehr arm sein.
B3D (noch unter Wavey's Leitung) berichtete vor einiger Zeit dass fuer R600 sowohl 80 als auch 65nm benutzt wurde. Es wird natuerlich ausdruecklich klar gemacht dass 80nm= high end und 65nm= midrange/low-end.
Man sucht eben irgend einen "guten" Grund die Verspaetung zu begruenden.
Ich hab von keinen weiteren Problemen gehoert; leg aber trotz allem nicht meine Hand ins Feuer denn es spricht sich einiges herum. IMHO bekommt R600 einen leichten Taktschub und kommt zeitgleich mit RV6x0 auf die Regale.
Ah danke für die Info (btw, Gast ist nicht gleich Gast :)). Quasi zwingt jetzt AMD sich selbst den R600 zu releasen, weil der Rest der Familie in die Regale will ^^
Frage ist nur was mit diesen OEM Karten (die Lange Version) auf sich hat. Ist wohl extra für den Release gedacht, Alienware und solche die die Early Adaptors bedienen wollen?
G80 hatte ja auch in den ersten 2-3 Wochen nur wenige Lieferungen weltweit gehabt (aber fast alle die eine haben wollten haben eine gegkrigt, es sei denn die die 2 haben wollten haben im selben Shop bestellt ;O), was vieleicht auch an den Missgeschick mit dem Widerstand gelegen haben kann.
Ailuros
2007-03-18, 23:53:07
Ah danke für die Info (btw, Gast ist nicht gleich Gast :)). Quasi zwingt jetzt AMD sich selbst den R600 zu releasen, weil der Rest der Familie in die Regale will ^^
Frage ist nur was mit diesen OEM Karten (die Lange Version) auf sich hat. Ist wohl extra für den Release gedacht, Alienware und solche die die Early Adaptors bedienen wollen?
G80 hatte ja auch in den ersten 2-3 Wochen nur wenige Lieferungen weltweit gehabt (aber fast alle die eine haben wollten haben eine gegkrigt, es sei denn die die 2 haben wollten haben im selben Shop bestellt ;O), was vieleicht auch an den Missgeschick mit dem Widerstand gelegen haben kann.
Auch NVIDIA hat oefters in der Vergangenheit monstroese GPU Versionen in den OEM Markt geschickt; eigentlich nichts Neues. AMD wollte einfach nicht die A13 Revision zum Fenster hinauswerfen und ausser der groesseren PCB Laenge und leicht hoeherem Stromverbrauch sollen ja A13 und 15 keine anderen Unterschiede haben. Nach den letzten Indizien wird A15 etwas besser ausgeschliffen.
seahawk
2007-03-19, 07:26:19
@65nm
das ist FUD. K-Hardware und TI behaupten, AMD Leute haetten das bestaetigt. Da habe ich auf der CeBIT gleich mal nachgefragt. Als Antwort bekam ich ein Lachendes "Schwachsinn" und sowas haette man "natuerlich nie bestaetigt".
Ich wuesste gern, wo das herkommt. So einfach ist es nicht, mal eben ein so komplexe GPU auf 65 nm zu shrinken. Erstens sind die libaries ganz anders und zweitens duerften die Yields noch sehr arm sein.
FUD der aber nicht von den genannten Webseiten kommt, sondern ihnen zugeworfen wurde und zwar nicht von der "üblichen" Quelle.
Der R600-Hype flachte nämlich mit der Absage des Techdays ziemlich ab und es machte sich eine gewisse Ernüchterung breit. Die Bereitschaft zu warten schwand.
James Ryan
2007-03-19, 09:48:16
@65nm
das ist FUD. K-Hardware und TI behaupten, AMD Leute haetten das bestaetigt. Da habe ich auf der CeBIT gleich mal nachgefragt. Als Antwort bekam ich ein Lachendes "Schwachsinn" und sowas haette man "natuerlich nie bestaetigt".
Ich wuesste gern, wo das herkommt. So einfach ist es nicht, mal eben ein so komplexe GPU auf 65 nm zu shrinken. Erstens sind die libaries ganz anders und zweitens duerften die Yields noch sehr arm sein.
Danke für diesen Post :massa:
Habe es selber eh nicht geglaubt dass der R600 in 65nm kommt, durch dich habe ich jetzt quasi die Bestätigung.
Mal sehen was als nächstes Gerücht kommt... 2 GB GDDR5 Speicher vielleicht? ;D
MfG :cool:
Wobei ich an dieser Stelle auch mal denke, das selbst falls der R600 in 65nm kommen sollte, sie es natürlich dementieren.
Ich denke das wir warten müssen bis AMD die karten auf den Tisch legt, erst dann wissen wirs.
In dem buisness ist nichts unmöglich^^
So long
der_guru
James Ryan
2007-03-19, 11:01:29
Wobei ich an dieser Stelle auch mal denke, das selbst falls der R600 in 65nm kommen sollte, sie es natürlich dementieren.
Ich denke das wir warten müssen bis AMD die karten auf den Tisch legt, erst dann wissen wirs.
In dem buisness ist nichts unmöglich^^
So long
der_guru
Warum sollte AMD es dementieren?
MfG :cool:
robbitop
2007-03-19, 11:07:07
Mal eben ein fertiges Design zu shrinken in einen Prozess, der voellig andere Libraries von den Foundries braucht ist schwer und langwierig genug, als dass es nicht mal eben funktionieren wuerde. Hinzukommt, dass 65 nm bei TSMC fuer so grosse ASICs ein verdammt junger und schwieriger Prozess ist.
seahawk
2007-03-19, 11:10:10
Warum sagt man einen geplanten Techday ab, wenn der Chip nicht fast fertig ist ?
65nm ist zu unterschiedlich zu 80nm, als ein Shrink schnell gehen könnte.
Ganz unter Vorbehalt : NV hat NVIO integriert, was wäre wenn ATI ein Problem bekommen hat, dass NV damit verhindert hat.
Zocker_28
2007-03-19, 11:15:02
Danke für diesen Post :massa:
Habe es selber eh nicht geglaubt dass der R600 in 65nm kommt, durch dich habe ich jetzt quasi die Bestätigung.
Mal sehen was als nächstes Gerücht kommt... 2 GB GDDR5 Speicher vielleicht? ;D
MfG :cool:
man ich lach mich hier schon schief was ihr alle quatscht hier;D , der eine sagt was, das glaubt man ihm, dann aber wieder nicht, das ist wie nen Katz und Maus Spiel hier.
Du hast garnix bestätigt bekommen weil noch keine Karte davon zu haben ist, und ich würde keinem glauben wenn mir einer aus dem Internet was erzählen würde:rolleyes:
Ich glaube nur das was ICH sehe und nicht anders, also abwarten.
James Ryan
2007-03-19, 11:19:15
man ich lach mich hier schon schief was ihr alle quatscht hier;D , der eine sagt was, das glaubt man ihm, dann aber wieder nicht, das ist wie nen Katz und Maus Spiel hier.
Du hast garnix bestätigt bekommen weil noch keine Karte davon zu haben ist, und ich würde keinem glauben wenn mir einer aus dem Internet was erzählen würde:rolleyes:
Ich glaube nur das was ICH sehe und nicht anders, also abwarten.
Sorry, aber robbitop ist schon eine recht zuverlässige und vor allem neutrale Quelle was so etwas angeht.
Gegenbeispiel: Ein User aus dem Hwluxx (ich nenne jetzt nicht den Namen) schnappt etwas von 65nm auf, schreibt es dort und es wird sofort und absolut ohne Skepsis für bare Münze genommen, selbst von einigen Hardwareseiten.
Aber im Prinzip hast du schon Recht, man sollte nur das glauben was man selber sieht... leider will AMD nicht dass ich etwas sehe, also muss ich auf Aussagen der Leute vertrauen die ich schon in der Vergangenheit als zuverlässig in solchen Dingen erlebt habe.
MfG :cool:
Mr Power
2007-03-19, 11:21:55
Ist es nicht möglich, dass man den R600 in 80nm bringt, aber den R650 in 65nm einfach früher?
Man verkauft die bereits produzierten R600 als Radeon X2900XL oder whatever und den (vorausgesetzt man ist im Plan fertig und gar schneller) R650 dann als Radeon X2900XTX PE oder so (in geringer Stückzahl, um weingstens Konkurrenzfähig zu sein)?
dreas
2007-03-19, 11:26:33
Selbst Truppenteile wie Intel bekommen sowas nich mal eben schnell in 2 Monaten hin. Und die haben nicht so ne Transitorenmonster. Es wird wohl so abgelaufen sein.
PM: wir müssen auf den Markt.
Ing: wir schaffen nur nen Paperlaunch, wenn überhaupt.
PM: dann müssen wir ein paar Happen hinwerfen.
Ing: Der RV sollte ja eh später kommen in 65nm.
PM: O.K: wir machens so: wir sagen wir stellen auf 65nm um.
und schinden damit Zeit für den R600.
Jeder wird denken es wäre eine technologisch-ökonomische Entscheidung /das verdeckt unsere Probleme (Intern:Aktion Nebelwerfer)
MFG Dreas
Jeder wird denken es wäre eine technologisch-ökonomische Entscheidung /das verdeckt unsere Probleme (Intern:Aktion Nebelwerfer)MFG Dreas
Wobei man damit arge Probleme bekommen wird. Wenn der R600 bei gleicher Leistung oder angenommenen +20% bei einer XTX im Vergleich zum G80 wirklich über 200W braucht und mit den Taktraten am Anschlag ist, BRAUCHT AMD den Shrink auf 65nm, um gegen den G80-Refresh bestehen zu können. Umgekehrt kann nVidia (falls das da oben zutrifft) 80nm ganz locker angehen - 20% sind auch bei 90nm und mit neuen Treibern drin.
Gandharva
2007-03-19, 11:52:57
Sorry, aber robbitop ist schon eine recht zuverlässige und vor allem neutrale Quelle was so etwas angeht.
Ja sicher... er hat auch behauptet FAB 36 starte sicher mit 65nm...
Fast keiner hier weiß warum der R600 so spät kommt und ob er nun in 65nm kommt oder nicht. Die die es wissen dürfen nix sagen weil sie unter NDA stehen.
robbitop
2007-03-19, 12:10:36
Ja sicher... er hat auch behauptet FAB 36 starte sicher mit 65nm...
Fast keiner hier weiß warum der R600 so spät kommt und ob er nun in 65nm kommt oder nicht. Die die es wissen dürfen nix sagen weil sie unter NDA stehen.
Diese Behauptung kam aus einer privaten Unwissenheit heraus.
Die Aussage mit den 65 nm hingegen kam aus einem geschaeftlichen Interview mit ATI/AMD. Das sind voellig unterschiedliche Dinge.
Da TI und K-Hardware behaupten, dass AMD ihnen das Geruecht bestaetigt habe und ich diese Aussage nachgeprueft habe, riecht es schonmal ziemlich faul. Wenn man die Schwierigkeiten der Fertigungstechnik im Hinterkopf hat, passt die Aussage von ATI/AMD auch.
Die Ursache der Verspaetung wollte ATI/AMD nicht richtig herausruecken. Vermutlich hatten sie noch nicht genug Karten.
Als Grund wurde im Interview genannt, dass sie einen weltweiten (Hard-)Launch anstreben, der sich nur mit einer Kompletten Produktpalette machen laesst. Laut ATI/AMD befinden sich darin R600/RV630/RV610 und der K10 Abkoemmling Barcelona.
Botcruscher
2007-03-19, 12:16:48
Wenn ein Umstieg auf 65nm sowieso geplant war, dann laufen die Projekte dazu eh parallel zum ursprünglischen Design. Falls also 80nm arge Probleme bereitet hat und 65nm dafür unverhofft gut ging, dann wäre es durchaus möglich. Genaueres werden wir erst beim Start erfahren.
Armaq
2007-03-19, 12:24:01
Schonmal daran gedacht, dass AMD vielleicht einen Launch zeigt, wo auch schon ihre Prozessoren mit dabei sind? Nicht kaufbar, aber als Benchplattform?!
Um zu zeigen, hier kommt AMD mit dicken fetten Walzschritten. Für mich wäre das marketingstrategisch eine durchaus sinnvolle Option.
Mr Power
2007-03-19, 12:28:17
Schonmal daran gedacht, dass AMD vielleicht einen Launch zeigt, wo auch schon ihre Prozessoren mit dabei sind? Nicht kaufbar, aber als Benchplattform?!
Um zu zeigen, hier kommt AMD mit dicken fetten Walzschritten. Für mich wäre das marketingstrategisch eine durchaus sinnvolle Option.
Und deshalb sollte man nVidia das Feld kampflos überlassen? Länger als gedacht und nötig? Halte ich für unwahrscheinlich.
robbitop
2007-03-19, 12:28:26
Schonmal daran gedacht, dass AMD vielleicht einen Launch zeigt, wo auch schon ihre Prozessoren mit dabei sind? Nicht kaufbar, aber als Benchplattform?!
Um zu zeigen, hier kommt AMD mit dicken fetten Walzschritten. Für mich wäre das marketingstrategisch eine durchaus sinnvolle Option.
Etwas zu spaet:
Als Grund wurde im Interview genannt, dass sie einen weltweiten (Hard-)Launch anstreben, der sich nur mit einer Kompletten Produktpalette machen laesst. Laut ATI/AMD befinden sich darin R600/RV630/RV610 und der K10 Abkoemmling Barcelona.
Anarchy-HWLUXX
2007-03-19, 12:29:18
Der Launch soll ja "der größte der Geschichte" werden ... laut Inq :lol:
Da kann man alles möglich evermuten ... z.B. : Nen launch der gesamten NextGen GraKa Palette UND den Desktop QuadCore als FX -> so geringe Stückzahlen sind evtl. möglich, keine Probleme mit Lieferbarkeit, frisst den aktuellen CPUs nicht die Käufer weg und schaut viel besser bei benches aus ...
Man will ja net die eigene Top Karte mit nem Intel Quadcore Untersatz präsentieren - ein A64er Core reicht einfach nicht wenn die R600 20-30% ober mehr Power hat als ne 8800GTX ! Quad FX kann da auch nichts reissen weil die zwei CPUs sich dann weit oberhalb der 3GHz bewegen müssten ...
Bin scho ganz wuschig bei dem gedanken :eek: *argh* Warten ist doof ...
[dzp]Viper
2007-03-19, 12:36:42
Wenn ein Umstieg auf 65nm sowieso geplant war, dann laufen die Projekte dazu eh parallel zum ursprünglischen Design. Falls also 80nm arge Probleme bereitet hat und 65nm dafür unverhofft gut ging, dann wäre es durchaus möglich. Genaueres werden wir erst beim Start erfahren.
genau so sehe ich das auch. Der R600 in 65nm wird ja nicht erst geplant und vorproduziert wenn der R600 in 80nm fertig ist sondern das ganze läuft ja parallel.
Da passt die nochmalige Verschiebung von 2-3 Monate gut dazu. Warum also nicht? Vielleicht brauch man auch nur genau diese Zeit um den R600 in 65nm entgültig fertigzustellen?
Ich denke schon, dass das einen Gedanken wert ist
robbitop
2007-03-19, 12:38:25
Ein R600 in 65 nm und 80 nm war AFAIK nie geplant. Dafuer gibt es R680, der von der Verspaetung des R600 nicht betroffen sein sollte. Ich persoenlich bezweifle arg, dass TSMCs 65 nm High Performance Prozess schon fuer so komplexe und hochgetaktete ASICs bereit ist (bei guten Yields natuerlich).
Ailuros, was sagt du eigentlich zu den 65nm Gerüchten?
Ich bin zwar nicht Ailuros, aber wenn ich mir die Meldungen bei B3D so anschaue, dann braucht Nvidia nicht allzu unruhig zu sein.
B3D berichten, der G86 sei 11,5x10 mm groß und RV630 dagegen 13,3x11,5 mm.
Entweder nix ist's mit 80 zu 65 nm, oder Nvidia hat auch 65nm-Chips oder der RV630 hat massiv mehr Funktionseinheiten und damit wahrscheinlich auch mehr Leistung.
Bin gespannt.
PCGH_Carsten
2007-03-19, 12:44:29
Ich bin zwar nicht Ailuros, aber wenn ich mir die Meldungen bei B3D so anschaue, dann braucht Nvidia nicht allzu unruhig zu sein.
B3D berichten, der G86 sei 11,5x10 mm groß und RV630 dagegen 13,3x11,5 mm.
Entweder nix ist's mit 80 zu 65 nm, oder Nvidia hat auch 65nm-Chips oder der RV630 hat massiv mehr Funktionseinheiten und damit wahrscheinlich auch mehr Leistung.
Bin gespannt.
Meine Keksdose war alle. :(
AnarchX
2007-03-19, 12:48:08
Na wer will eine X2900 OEM? ;)
http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=160095063471&ru=http%3A%2F%2Fsearch.ebay.com%3A80%2Fsearch%2Fsearch.dll%3Fsofocus%3Dbs%26sbrf tog%3D1%26from%3DR10%26submitsearch%3DSearch%26satitle%3D160095063471%26sacat%3D-1%2526catref%253DC6%26sargn%3D-1%2526saslc%253D2%26sadis%3D200%26fpos%3DZIP%252FPostal%26ftrt%3D1%26ftrv%3D1%26 saprclo%3D%26saprchi%3D%26fpos%3DZIP%252FPostal%26lsot%3D%26fsop%3D1%2526fsoo%25 3D1%26coaction%3Dcompare%26copagenum%3D1%26coentrypage%3Dsearch%26fgtp%3D%26fpos %3DZIP%252FPostal%26fvi%3D1
(Die Bilder sind imo neu.)
edit:
Da hat wohl der Verkäufer noch mitbekommen was er da hat -> Auktion beendet...
Anarchy-HWLUXX
2007-03-19, 12:53:12
Na wer will eine X2900 OEM? ;)
http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=160095063471&ru=http%3A%2F%2Fsearch.ebay.com%3A80%2Fsearch%2Fsearch.dll%3Fsofocus%3Dbs%26sbrf tog%3D1%26from%3DR10%26submitsearch%3DSearch%26satitle%3D160095063471%26sacat%3D-1%2526catref%253DC6%26sargn%3D-1%2526saslc%253D2%26sadis%3D200%26fpos%3DZIP%252FPostal%26ftrt%3D1%26ftrv%3D1%26 saprclo%3D%26saprchi%3D%26fpos%3DZIP%252FPostal%26lsot%3D%26fsop%3D1%2526fsoo%25 3D1%26coaction%3Dcompare%26copagenum%3D1%26coentrypage%3Dsearch%26fgtp%3D%26fpos %3DZIP%252FPostal%26fvi%3D1
(Die Bilder sind imo neu.)
edit:
Da hat wohl der Verkäufer noch mitbekommen was er da hat -> Auktion beendet...
Jup, die sind neu ... das Bild der unterseite ist besonders Interesannt, das Blech geht über die komplette länge und die massive Metall-Nabe des Lüfters sieht irgendwie nach 10k RPM aus :eek:
dreas
2007-03-19, 12:55:55
Jup, die sind neu ... das Bild der unterseite ist besonders Interesannt, das Blech geht über die komplette länge und die massive Metall-Nabe des Lüfters sieht irgendwie nach 10k RPM aus :eek:
JuHu und auch die erste Graka welche man alternativ als Hantel verwenden kann.
mfg dreas
Moralelastix
2007-03-19, 12:57:53
Der hat die Auktion bestimmt nur abgebrochen weil das Slotblech fehlt. :biggrin:
Anarchy-HWLUXX
2007-03-19, 13:03:32
JuHu und auch die erste Graka welche man alternativ als Hantel verwenden kann.
mfg dreas
Öm, nein ... nur weil du noch nie eine Follsize Karte gesehen hast ist das noch lange keine Weltneuheit ;)
http://www.tweakers.net/ext/i.dsp/1016661858.jpg
Niedlich :)
Ansonsten Schraubt Dell auch gerne griffe an seine High-End Karten ...
deekey777
2007-03-19, 13:08:50
Ich bin zwar nicht Ailuros, aber wenn ich mir die Meldungen bei B3D so anschaue, dann braucht Nvidia nicht allzu unruhig zu sein.
B3D berichten, der G86 sei 11,5x10 mm groß und RV630 dagegen 13,3x11,5 mm.
Entweder nix ist's mit 80 zu 65 nm, oder Nvidia hat auch 65nm-Chips oder der RV630 hat massiv mehr Funktionseinheiten und damit wahrscheinlich auch mehr Leistung.
Bin gespannt.
Der G84 soll in etwa so groß sein wie der RV630.
Stimmt es eigentlich, dass der RV530 den gleichen Memorycontroller hat(te) wie der R520/R580?
Black-Scorpion
2007-03-19, 13:09:39
JuHu und auch die erste Graka welche man alternativ als Hantel verwenden kann.
mfg dreas
Mit Sicherheit nicht.
Jup, die sind neu ... das Bild der unterseite ist besonders Interesannt, das Blech geht über die komplette länge und die massive Metall-Nabe des Lüfters sieht irgendwie nach 10k RPM aus :eek:
Kann wahrscheinlich sein. Wenn man sich die Länge und Breite der Kühlfinnen betrachtet, das ist schon extrem. Gab es afaik bei PC-Kühlern noch nie. Ich denke, das wird auch der einzige Grund für die Verschiebung sein, nämlich die massive Abwärme schnell abzuführen. Wahrscheinlich kommt dazu noch, dass der Chip bedingt durch die hohen Taktraten für Stabilität nicht die hohen Temperaturen wie andere GPUs verträgt. Bin mal gespannt, wie ATi dieses Problem lösen wird. Vielleicht liefern sie standardmäßig ne Wakü mit oder liefen die Graka ohne Kühler aus und der User selbst schraubt sich einen passenden Wakükühler drauf. Aber mit Luftkühlung wird das wohl nix werden, jedenfalls ned ohne einen "Hörschaden" zu bekommen.
seahawk
2007-03-19, 13:59:05
Naja, das wäre immerhin mal ne gute Erklärung für die Verschiebung. Die OEMs haben dieses Kühlmonster abgelehnt und verlangten auch nach der neusten Chiprevision mit "normaler" Kühlung.
The_Invisible
2007-03-19, 14:49:43
Na wer will eine X2900 OEM? ;)
http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=160095063471&ru=http%3A%2F%2Fsearch.ebay.com%3A80%2Fsearch%2Fsearch.dll%3Fsofocus%3Dbs%26sbrf tog%3D1%26from%3DR10%26submitsearch%3DSearch%26satitle%3D160095063471%26sacat%3D-1%2526catref%253DC6%26sargn%3D-1%2526saslc%253D2%26sadis%3D200%26fpos%3DZIP%252FPostal%26ftrt%3D1%26ftrv%3D1%26 saprclo%3D%26saprchi%3D%26fpos%3DZIP%252FPostal%26lsot%3D%26fsop%3D1%2526fsoo%25 3D1%26coaction%3Dcompare%26copagenum%3D1%26coentrypage%3Dsearch%26fgtp%3D%26fpos %3DZIP%252FPostal%26fvi%3D1
(Die Bilder sind imo neu.)
edit:
Da hat wohl der Verkäufer noch mitbekommen was er da hat -> Auktion beendet...
wie kommen solche leute bitte an eine solche grafikkarte? versteh ich nicht...
mfg
w0mbat
2007-03-19, 14:54:12
wie kommen solche leute bitte an eine solche grafikkarte? versteh ich nicht...
mfg
Der Typ hat einen Hardwareladen (verkauft allgemein sehr viele GPUs) und hat wahrscheinlich ein R600 OEM Testexample bekommen. Nur konnte er damit nichts anfangen und wollte sie deswegen verkaufen.
ShadowXX
2007-03-19, 14:58:03
Der Typ hat einen Hardwareladen (verkauft allgemein sehr viele GPUs) und hat wahrscheinlich ein R600 OEM Testexample bekommen. Nur konnte er damit nichts anfangen und wollte sie deswegen verkaufen.
Seit wann bekommen "Hardwareläden" OEM-Testsamples für dich sich wahrscheinlich manch große HW-Seite oder Developer ein Bein ausreißen würde?
Ausserdem hätte er dann ganz genau gewußt, was für eine Karte das ist, da AMD/ATI wohl nicht mal so eben eine Karte dieses Kalibers ohne jegliche Anmerkung an jemanden verschickt.
Ich schätze eher, das die Karte vom Laster gefallen ist.
wie kommen solche leute bitte an eine solche grafikkarte? versteh ich nicht...
mfg
Könnte auch ein Grund gewesen sein, warum der R600 auf der Cebit auch nicht in "geschlossenenen Räumen" gezeigt wurde. Hätte leicht passieren können, dass sonst ein paar Prototypen beim Transport auf unerklärliche Weise verschwunden wären. Da muss man schon einen hohen Sicherheitsaufwand betreiben, fast schon so heikel wie ein Geldtransport. Wenn's so weitergeht wird der R600 in der Form immer ein Prototyp bleiben und später ein paar von ihnen bei ebay zu Mondpreisen verkauft.
Der G84 soll in etwa so groß sein wie der RV630.
Stimmt es eigentlich, dass der RV530 den gleichen Memorycontroller hat(te) wie der R520/R580?
Ja, RV530 hatte einen Ringbus-Controller, wenn du das meinst.
foenfrisur
2007-03-19, 15:45:53
die 200w+ scheinen sich auch langsam wiederholt zu bestätigen :)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=185&Itemid=1
ja, ich weiss...fuad ;)
mfg
die 200w+ scheinen sich auch langsam wiederholt zu bestätigen :)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=185&Itemid=1
ja, ich weiss...fuad ;)
mfg
Dann wahrscheinlich R600 um die 240 W TDP und 200 W Durchschnitts-verbrauch.
Beim G80 185 W TDP und 135-150 W Durchschnittsverbrauch. Wenn man die Kühlerdimensionen beider Karten vergleicht, könnte das auch hinkommen. Also so um die 20-25 % sollte R600 dann schon schneller sein, um das auch zu rechtfertigen.
w0mbat
2007-03-19, 17:41:13
CeBIT : 65nm R600 Suffers Poor Yield (http://www.vr-zone.com/?i=4828)
Interessant. VR-Zone ist sich mit dem 65nm R600 also ziemlich sicher. Und die haben ja schon ein ES.
Anarchy-HWLUXX
2007-03-19, 17:53:15
CeBIT : 65nm R600 Suffers Poor Yield (http://www.vr-zone.com/?i=4828)
Interessant. VR-Zone ist sich mit dem 65nm R600 also ziemlich sicher. Und die haben ja schon ein ES.
Irgendwie logisch ... wenn se WIRKLICH auf 65nm gehen ist so ne Situation zu erwarten :|
Blutmaul
2007-03-19, 18:01:03
Naja, das wird wohl so ziemlich die teuerste Grafikkarte in der Eintwicklung die es bislang so gab für den Desktop.
Naja, das wird wohl so ziemlich die teuerste Grafikkarte in der Eintwicklung die es bislang so gab für den Desktop.
Hoffentlich spiegelt sich das nicht so stark im Verkaufspreis wider! X-D
AnarchX
2007-03-19, 18:41:47
CeBIT : 65nm R600 Suffers Poor Yield (http://www.vr-zone.com/?i=4828)
Interessant. VR-Zone ist sich mit dem 65nm R600 also ziemlich sicher. Und die haben ja schon ein ES.
Wenn dem so ist, kann man wohl erst mit einem Launch frühestens im Juni oder gar Juli rechnen, wenn man eine entsprechende Verfügbarkeit sicherstellen will.
Da müssen ja die Probleme mit 80nm sehr schwerwiegend gewesen sein, dass man einen Schritt mit so weitreichenden Konsequenzen macht. :|
reunion
2007-03-19, 18:44:20
Ich bin zwar nicht Ailuros, aber wenn ich mir die Meldungen bei B3D so anschaue, dann braucht Nvidia nicht allzu unruhig zu sein.
B3D berichten, der G86 sei 11,5x10 mm groß und RV630 dagegen 13,3x11,5 mm.
Entweder nix ist's mit 80 zu 65 nm, oder Nvidia hat auch 65nm-Chips oder der RV630 hat massiv mehr Funktionseinheiten und damit wahrscheinlich auch mehr Leistung.
Bin gespannt.
G86 ist AFAIK der Konkurrent des RV610, welcher es auf nur knapp über 80mm² bringt. RV630 und G84 sind allerdings wirklich fast gleichgroß, was für eine deutlich höhere Transistorenanzahl bei ersterem spricht.
reunion
2007-03-19, 18:50:12
CeBIT : 65nm R600 Suffers Poor Yield (http://www.vr-zone.com/?i=4828)
Interessant. VR-Zone ist sich mit dem 65nm R600 also ziemlich sicher. Und die haben ja schon ein ES.
Ich halte das weiterhin für äußerst unwahrscheinlich. Argumenten wurde ja inzwischen genug gebracht. Auch passt das überhaupt nicht zu der sehr kurzfristigen Verschiebung des R600-Launches, denn dann müsste man R600 schon sehr früh auf 65nm geshrinkt haben, wodurch der lange geplanter Termin Ende März nie realistisch gewesen wäre. Außer 65nm läuft tatsächlich so gut, dass man sich kurzfristig entschieden hat, den 80nm Core zu canceln.
deekey777
2007-03-19, 18:50:17
Ja, RV530 hatte einen Ringbus-Controller, wenn du das meinst.
Ich meine wirklich den gleichen MC wie beim R520, sprich mit 8x32-bit-Kanälen im Chip, von denen nur die Hälfte aktiv war.
G86 ist AFAIK der Konkurrent des RV610, welcher es auf nur knapp über 80mm² bringt. RV630 und G84 sind allerdings wirklich fast gleichgroß, was für eine deutlich höhere Transistorenanzahl bei ersterem spricht.
Genau, ein halber R600 sollte es sein, je nachdem wie modular das SI des R600 ist, wird man 128Bit oder 256Bit SI sehen.
Wobei ein hochgetakteter RV630 mit 256Bit SI zwischen eine 8600GTS und eine 8800GTS springen könnte, sollte ein equivalenter Chip basierend auf R600 (nur bissl abgespeckt) zu teuer sein.
AnarchX
2007-03-19, 19:13:38
Außer 65nm läuft tatsächlich so gut, dass man sich kurzfristig entschieden hat, den 80nm Core zu canceln.
Oder der 80nm Core war so unakzeptabel.;)
Genau, ein halber R600 sollte es sein, je nachdem wie modular das SI des R600 ist, wird man 128Bit oder 256Bit SI sehen.
Wobei ein hochgetakteter RV630 mit 256Bit SI zwischen eine 8600GTS und eine 8800GTS springen könnte, sollte ein equivalenter Chip basierend auf R600 (nur bissl abgespeckt) zu teuer sein.
Bei RV630 kann man schon ziemlich sicher von einem 128Bit SI ausgehen.
reunion
2007-03-19, 19:18:20
Oder der 80nm Core war so unakzeptabel.;)
Da kommt man normalerweise nicht zwei Wochen vorm geplanten Launch drauf.
robbitop
2007-03-19, 19:21:40
CeBIT : 65nm R600 Suffers Poor Yield (http://www.vr-zone.com/?i=4828)
Interessant. VR-Zone ist sich mit dem 65nm R600 also ziemlich sicher. Und die haben ja schon ein ES.
Da steht weder eine Quelle (vermutlich bei den anderen abgeschrieben), noch dass sie ein solches 65nm ES haetten.
Ich erinnere mich noch ans Anti-Hyperthreading und den K10 der erst 2008 kommen sollte (er wird laut AMD im April praesentiert)...da gibt es noch genug anderen FUD. Je mehr voneinander abschreiben, desto ueberzeugender wird es. Bisher gab es jedoch noch keine einzige valide Quelle fuer das Geruecht (die angeblichen AMD Executives gelten nicht, da AMD das auf Nachfrage ganz klar beneint hat).
mapel110
2007-03-19, 19:29:00
Da steht weder eine Quelle (vermutlich bei den anderen abgeschrieben), noch dass sie ein solches 65nm ES haetten.
Ich erinnere mich noch ans Anti-Hyperthreading und den K10 der erst 2008 kommen sollte (er wird laut AMD im April praesentiert)...da gibt es noch genug anderen FUD. Je mehr voneinander abschreiben, desto ueberzeugender wird es. Bisher gab es jedoch noch keine einzige valide Quelle fuer das Geruecht (die angeblichen AMD Executives gelten nicht, da AMD das auf Nachfrage ganz klar beneint hat).
VR Zone halt... die haben auch bis zu letzt an 32 Pipes beim R520 festgehalten und dass dieser dann nicht kam, haben sie auch mit schlechter Ausbeute begründet. Hatten die nicht auch ne 24 Pipe Variante vom R520 und dann noch die Theorie vom 16 Piper mit zusätzlich 8 deaktiverten Pipes?!
deekey777
2007-03-19, 22:06:54
Ich hab um ehrlich zu sein aufgehoert zu fragen, aber eine andere These, die von einer Vorstellung mit extrem begrenzter Verfuegbarkeit unter 80nm und irgend eine merkwuerdige "herumschleicherei" bis man mit 65nm mit voller Pulle nachladen kann, koennte vielleicht schon stimmen.
Macht aber dann eben genauso viel Sinn wie die "Terraflop in a box" Bildchen.
Over at CeBIT, we overheard some production problems with R600. The yield at 65nm is very low at this point of time. It is projected by middle of April, AMD is only able to churn out some 20,000 Radeon X2900 XTX graphics cards and XT SKU might not even make it for the launch in May.
Hm.
Es wird dennoch keinen R600 in 65 nm geben. Es sei denn, AMD wird (um das Gesicht zu wahren), die Chips umlabeln.;)
Ailuros
2007-03-19, 22:15:11
Du haettest ein anderes Zitat von mir verwenden sollen fuer den newsblurb:
Der Vorteil von RV610/630 ist 65nm und der Nachteil 65nm
;)
horn 12
2007-03-19, 23:09:03
Wann genau plant A/A den Tech Day zum R600 und lässt die Katze aus dem Sack... ? 31 März oder 2 -ter April.
Dann wird es nicht mehr lange dauern.
Ailuros
2007-03-19, 23:24:30
Wann genau plant A/A den Tech Day zum R600 und lässt die Katze aus dem Sack... ? 31 März oder 2 -ter April.
Dann wird es nicht mehr lange dauern.
Am 01/04/07 wohl garantiert nicht ;)
Das is mir gerade übern weg gelaufen.
http://www.k-hardware.de/news.php?s=c&news_id=6395
Irgendwie erzählt der eine das und der andere was anderes.
Ich glaube im moment ist alles drin. Von 65nm bis zu 800-900 Mhz Core Takt.
So long
der_guru
Was mich an deinem zu K-Hardware verlinkten Beitrag wundert, wenn der R600 schon in 65nm gefertigt werden soll, daß dann bei TSMC und nicht bei AMD selber geschieht.
Wie es scheint, will AMD den Chip von Anfang an in 65 nm bringen. Grund hierfür seien Probleme bzw. die schlechte Ausbeute des 80 nm Prozesses, der wohl nicht unerhebliche Schwierigkeiten mit Leckströmen haben soll. Gefertigt wird der R600 übrigens weiterhin bei TSMC
Am 01/04/07 wohl garantiert nicht ;)
Dann wird es wohl im nächsten Jahr stattfinden........ *g
StefanV
2007-03-20, 01:54:02
Was mich an deinem zu K-Hardware verlinkten Beitrag wundert, wenn der R600 schon in 65nm gefertigt werden soll, daß dann bei TSMC und nicht bei AMD selber geschieht.
Weil:
a) AMD momentan selbst alle Hände voll zu tun hat, CPUs zu fertigen
b) weil die Fertigung von AMD nicht auf GPUs angepasst wurd.
erst hiess es 512bit...alle haben gelacht
jetzt 65nm....alle lachen
karte soll fast 300watt haben....alle glauben es sofort und ziehn über ati her
fazit: keiner hat Plan aber man macht sich wichtig
http://www.hardtecs4u.com/images/news/amd_r600_demo.jpg
AnarchX
2007-03-20, 09:52:24
[R600 Card Uses Theater 200 Video Decoder Chip] (http://www.vr-zone.com/index.php?i=4831)
http://666kb.com/i/ams501agfhylegtpl.jpg
The R600 card has adapted the Theater 200 video decoder chip from the previous All-in-Wonder multimedia family since AIW 9600XT to provide all the audio and video functionalities.[...]
Da kann man nur hoffen, dass der Rest der X2-Serie nicht durch den R600 weiter verschoben wird, die negativen Auswirkungen dieser Situation sieht man schon:
ATI messed Nvidia partner - ATI’s delay caused Nvidia G84 launch delay (http://www.fudzilla.com/index.php?option=com_content&task=view&id=201&Itemid=34)
Gaestle
2007-03-20, 09:55:48
Gleiche Quelle informiert, dass es weiterhin von Hook keine plausiblen Erklärungen zur Start-Verzögerung gegeben habe, aber man habe für den April eine groß angelegte Launch-Feier arrangiert - Ort: Tunesien, in welche die Presse geladen wir - bei welcher man die Einführung der neuen "Produkt-Palette" feiern wird.
Wir erinnern uns, dass die letzte wirklich groß angelegte AMD-Launch-Feier zu Ehren des Opteron ging. Offenbar sind die ATI R6xx-Modelle einem solchen Anlass würdig. Obwohl - die Quelle berichtete ebenfalls, dass man Fragen zum Stromverbrauch und der Richtung, welche AMD/ATI künftig hier beschreiten möchte, sehr ausgewichen sei.
Quelle:
http://www.hardtecs4u.de/?id=1174347172,60439,ht4u.php
Interessanter Artikel übrigens ....
Was die Spekulation zum Grund des Launches angeht: Wollte AMD nicht ein KOMPLETTSYSTEM vorstellen? Das würde auf R600 + Barcelona weisen. Der soll doch aber erst in Q3 kommen... Oder meinen die das Geschäftsquartal? Und warum jetzt aufeinmal doch April?
Da kann man nur hoffen, dass der Rest der X2-Serie nicht durch den R600 weiter verschoben wird, die negativen Auswirkungen dieser Situation sieht man schon:
ATI messed Nvidia partner - ATI’s delay caused Nvidia G84 launch delay (http://www.fudzilla.com/index.php?option=com_content&task=view&id=201&Itemid=34)
Na hoffen wir mal nich :( zumal ich auf die 8600 Serie gespannt bin. Wie wir alle denk ich.
Also AMD/ATI, macht kein scheiss mit eurer FX600 zzzz
AnarchX
2007-03-20, 10:06:44
Quelle:
http://www.hardtecs4u.de/?id=1174347172,60439,ht4u.php
Interessanter Artikel übrigens ....
Bei so einem verhalten, würde es mich nicht wundern, wenn mancher ATi-only-AIB, auch künftig Produkte der Konkurrenz ins Sortiment aufnimmt.
Was die Spekulation zum Grund des Launches angeht: Wollte AMD nicht ein KOMPLETTSYSTEM vorstellen? Das würde auf R600 + Barcelona weisen. Der soll doch aber erst in Q3 kommen... Oder meinen die das Geschäftsquartal? Und warum jetzt aufeinmal doch April?
Was im Q3 kommen soll ist der K10 für den Desktop, aber Barcelona(Agena-FX) sollte schon noch im Q2 kommen.
Kann mir den Radeon X2...-Launch im April aber auch nicht wirklich vorstellen, nachdem andere Quellen sogar schon von Ende Mai sprachen.
Aber vielleicht will man NV die viele Produkte am 17. April launchen wollen, die Show stehlen, wobei das für den R600 dann wohl ein Paperlaunch werden könnte.
edit:
AMD-ATI then... (http://www.guru3d.com/article/article/422/3/)
Oy! Even worse! I had a couple of meetings with board-partners like TUL (PowerColor) and HiS Technology. These were supposed to be NDA (disclosed) meetings with a presentation of new R600 based product.
AMD decided to pull the plug on these presentations as they really do not have anything to show. The way it is right now is that the press-briefings have been delayed towards likely the end of April. I still believe we'll see four models of the R600 based chipset. I think one of the biggest issues right now is the low yield levels due to data leakage (successful working products). It was rumored at the CeBIT that at the initial launch only 30,000 products will be available "World-wide"! That's both retail and OEM (which takes easily half of the products).
Da wird es wohl eher beim Mai-Launch bleiben, wenn überhaupt.
Na hoffen wir mal nich zumal ich auf die 8600 Serie gespannt bin. Wie wir alle denk ich.
Also AMD/ATI, macht kein scheiss mit eurer FX600 zzzz
Dass sie am 17. April kommen ist imo schon sicher, nur sind die Partner böse, da sie schon jetzt genügend Karten hätten um einen Launch auf der CeBIT zu machen.
PCGH_Carsten
2007-03-20, 10:14:03
Ja, RV530 hatte einen Ringbus-Controller, wenn du das meinst.
Mist, schon wieder keine Kekse...
Habt ihr was an der Cookie-Verwaltung geändert oder liegt das an mir?
PCGH_Carsten
2007-03-20, 10:15:20
Ich meine wirklich den gleichen MC wie beim R520, sprich mit 8x32-bit-Kanälen im Chip, von denen nur die Hälfte aktiv war.
Nein, dafür war RV530 zu klein. Das ist aber nur meine persönliche Meinung, kein gesicherter Fakt.
AnarchX
2007-03-20, 10:23:15
Cebit 2007: R600 nur 20 Prozent schneller als R580? (http://www.pcgameshardware.de/?article_id=571982)
Wie aus einer AMD-Präsentation hervorgeht, erreicht das mittlerweile bekannte "Teraflop-in-a-Box"-System mit Barcelona und zwei R600-Stream-Prozessoren (also doch...) knapp über ein Teraflop Rechenleistung. Pikant an der Präsentation ist allerdings der Vergleich zu einem mit Opteron-CPU und zwei R580-basierten Stream-Prozessoren ausgerüsteten System. Dieses erreicht immer noch knapp über 700 GFLOPs - somit wäre die Teraflop-Box nur knapp über 40 Prozent schneller. Heruntergebrochen auf eine einzelne R600 würde dies nur noch einen Vorsprung von etwa 20 Prozent gegenüber einer R580 bedeuten.
Waren das nicht 220GFLOPs für den R580, die das F@H-Team gemessen hatte?
Aber schon ziemlich unklug diese Folie von AMD. X-D
edit: Ich denke hier hatte Carsten einen kleinen Denkfehler, selbst "heruntergebrochen" bleiben es 40% - 350 vs 500 GFLOPs.
seahawk
2007-03-20, 10:26:31
Kann mir den Radeon X2...-Launch im April aber auch nicht wirklich vorstellen, nachdem andere Quellen sogar schon von Ende Mai sprachen.
Aber vielleicht will man NV die viele Produkte am 17. April launchen wollen, die Show stehlen, wobei das für den R600 dann wohl ein Paperlaunch werden könnte.
Da wird es wohl eher beim Mai-Launch bleiben, wenn überhaupt.
Tech-day müßte dann ja im April sein, damit die Presse bis zum Fall des NDA noch testen kann und Artikel schreiben.
Cebit 2007: R600 nur 20 Prozent schneller als R580? (http://www.pcgameshardware.de/?article_id=571982)
Waren das nicht 220GFLOPs für den R580, die das F@H-Team gemessen hatte?
Aber schon ziemlich unklug diese Folie von AMD. X-D
Ohne AA/AF wäre eine 20% Steigerung in niedrigen Auflösungen grob auf G80 Niveau. Was man imho am ehesten verlgeichen kann.
AnarchX
2007-03-20, 10:36:36
Ohne AA/AF wäre eine 20% Steigerung in niedrigen Auflösungen grob auf G80 Niveau. Was man imho am ehesten verlgeichen kann.
Auch den Link angeklickt?
Die arithmetische Leistung in synthetischen Test ist doch ein ganzes Stück höher als 20% beim G80 gegenüber dem R580.
Und wie kommst du auf 20%? Das kommt wohl höchstens in cpu-limitierten Szenarien vor, in grafiklastigen kann es ohne AA/AF auch schon mal 100% sein. (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/16/#abschnitt_oblivion)
James Ryan
2007-03-20, 10:36:39
Quelle:
http://www.hardtecs4u.de/?id=1174347172,60439,ht4u.php
Interessanter Artikel übrigens ....
Allerdings...
Sorry, aber AMDs Verhalten lässt den Schluss zu, dass der R600 bei weitem nicht so "gut" ist wie erhofft und AMD sich einfach die Peinlichkeit nicht geben will dies auch zuzugeben.
Rein logisch gesehen: Sollte der R600 wirklich die Bombe werden, warum zeigt man dies dann nicht auf der CeBit? Stattdessen werden solche Kindergartenaktionen veranstaltet. AMD wird mir zunehmend unsympatischer. :|
MfG :cool:
deekey777
2007-03-20, 10:44:38
Cebit 2007: R600 nur 20 Prozent schneller als R580? (http://www.pcgameshardware.de/?article_id=571982)
Waren das nicht 220GFLOPs für den R580, die das F@H-Team gemessen hatte?
Aber schon ziemlich unklug diese Folie von AMD. X-D
At least through CUDA and DX9/GL fragment programs, we've seen ~340GFlops for MAD on G80. We've never found the magic extra MUL, and the CUDA documentation and the CUDA forums says it isn't there, at least not for general use. R580 is ~240GFlops if just using MADs, and 360GFlops for ADD+MAD (you can do this with pain via DX/GL, but you can do it easily in CTM since you can write actual ASM). Of course, all of these shaders are contrived and your experience will vary with real code. ;)
Und wieviel erreicht der R600 an reiner MAD-Leistung? 512 GFLOP/s? ;)
Was gemeint ist: Wenn man den R580 ausreizt, kommt man dem theoretischen Wert sehr nah (MADD+ADD); den Recheneinheiten des R600 ist es wiederum egal, denn seine ALUs sind vollständig MADD-fähig (5*MADD gegenüber 4*MADD+4*ADD).
Die Folie ist wirklich etwas ungünstig. Aber bei Teraflop-in-a-box wurde die MADD-Leistung betonnt. ;)
PCGH_Carsten
2007-03-20, 10:46:59
edit: Ich denke hier hatte Carsten einen kleinen Denkfehler, selbst "heruntergebrochen" bleiben es 40% - 350 vs 500 GFLOPs.
Stimmt - wird gleich korrigiert...
MartinRiggs
2007-03-20, 10:48:47
So langsam sollten sie wirklich mal reinen Tisch machen, das ist echt langsam Kindergarten.
Glaube daher auch(leider) das der R600 keine Bombe wird, wenn es so wäre hätte man doch genau wie Intel ein paar ES streuen können, die wären bei XS aufgetaucht und alle freaks wären total nass gewesen auf den R600.
Zumal sich viele in den Arsch beissen wenn sich die Warterei nicht gelohnt hat...
deekey777
2007-03-20, 10:56:53
So langsam sollten sie wirklich mal reinen Tisch machen, das ist echt langsam Kindergarten.
Glaube daher auch(leider) das der R600 keine Bombe wird, wenn es so wäre hätte man doch genau wie Intel ein paar ES streuen können, die wären bei XS aufgetaucht und alle freaks wären total nass gewesen auf den R600.
Zumal sich viele in den Arsch beissen wenn sich die Warterei nicht gelohnt hat...
Es gibt da einen interessanten Gedankengang.
Zunächst hieß es, dass der R600 bei GS potenter ist als der G80 (Aussage eines FSX-Entwicklers). Vor einigen Tagen kam die Meldung, dass ATi sher eng mit einem Spieleentwickler arbeitet. VALVe ist es nicht, Digitimes hat berichtet, dass der R600 mit zwei Spielen gebundelt wird: Call of Juarez und Just Cause. Beide Spiele bekommen einen D3D10-Pfad. ATi/AMD muss sich so ziemlich sicher sein, dass D3D10 deren Vorteil ist.
Cubitus
2007-03-20, 11:08:57
Wie ist das jetzt, da das top Modell mit 1Gig GDDR Ram und an einem 512bit Interface betrieben wird, kann mann definitiv sagen das AA+TSSAA bei höheren Auflösungen (1920*1200) mehr FPS bringt als wie die NV GTX ?
Simon Moon
2007-03-20, 11:11:53
Wie ist das jetzt, da das top Modell mit 1Gig GDDR Ram und an einem 512bit Interface betrieben wird, kann mann definitiv sagen das AA+TSSAA bei höheren Auflösungen (1920*1200) mehr FPS bringt als wie mit der NV GTX ?
Nein.
Zum einen, ist noch nichts definitiv, zum andern wird das je nach Spiel unterschiedlich sein.
Aber wenn man die letzten 10 - 20 Posts gelesen hat, weiss man das.
James Ryan
2007-03-20, 11:43:50
Es gibt da einen interessanten Gedankengang.
Zunächst hieß es, dass der R600 bei GS potenter ist als der G80 (Aussage eines FSX-Entwicklers). Vor einigen Tagen kam die Meldung, dass ATi sher eng mit einem Spieleentwickler arbeitet. VALVe ist es nicht, Digitimes hat berichtet, dass der R600 mit zwei Spielen gebundelt wird: Call of Juarez und Just Cause. Beide Spiele bekommen einen D3D10-Pfad. ATi/AMD muss sich so ziemlich sicher sein, dass D3D10 deren Vorteil ist.
Ja, klingt recht interessant nur kauft sich wirklich niemand halbwegs informierte Käufer einen R600/G80 wegen DX10. Sollte der R600 also in DX10 potenter sein als der G80, im Gegenzug aber in aktuellen DX9 Games Probleme haben mit dem G80 mitzuhalten wäre das mehr als arm von AMD/ATi.
Sicher wäre es toll wenn der R600 unter DX10 ähnlich perfomant bleibt wie der R300 bei DX9, nur wird NVIDIA schon die Geforce 10 oder 11 releast haben wenn DX10 wirklich massiv gefordert wird.
MfG :cool:
MartinRiggs
2007-03-20, 12:13:10
Es gibt da einen interessanten Gedankengang.
Zunächst hieß es, dass der R600 bei GS potenter ist als der G80 (Aussage eines FSX-Entwicklers). Vor einigen Tagen kam die Meldung, dass ATi sher eng mit einem Spieleentwickler arbeitet. VALVe ist es nicht, Digitimes hat berichtet, dass der R600 mit zwei Spielen gebundelt wird: Call of Juarez und Just Cause. Beide Spiele bekommen einen D3D10-Pfad. ATi/AMD muss sich so ziemlich sicher sein, dass D3D10 deren Vorteil ist.
Wäre aber nicht wirklich gut.
Dann würde ATI nur sehr wenige glücklich machen, ich warte auf den R600 weil ich schon mehr Power will, aber erstmal abwarte wer wieviel Power in bestimmten Games bringt.
DX10 interessiert mich null, hab auch kein Vista.
Ich will mehr Power in Oblivion etc. für 1680x1050.
robbitop
2007-03-20, 12:16:19
Nein, dafür war RV530 zu klein. Das ist aber nur meine persönliche Meinung, kein gesicherter Fakt.
Dem stimme ich zu. Es waere unsinnig einen so grossen SC zu verbauen, wenn man nur die Haelfte nutzen wuerde.
deekey777
2007-03-20, 12:25:51
Dem stimme ich zu. Es waere unsinnig einen so grossen SC zu verbauen, wenn man nur die Haelfte nutzen wuerde.
Es ist unsinnig, aber das wäre auch eine mögliche Erklärung, warum der RV530 um 57 Mio Transistoren mehr hat als der RV515.
Das gleiche passiert jetzt beim RV560. Anderseits meinte Dave, dass auf der X1650XT schon der echte RV560 ist und nicht der beschnittene RV570.
Welche Mehrleistung könnte man denn theoretisch erwarten ?
Mit 512bit und den bekannten Taktdaten gegenüber der 8800gtx
Welche Mehrleistung könnte man denn theoretisch erwarten ?
Mit 512bit und den bekannten Taktdaten gegenüber der 8800gtx
es war immer von 5-20% die Rede aber ob daß noch stimmt ist fraglich
Lawmachine79
2007-03-20, 12:48:50
Es gibt da einen interessanten Gedankengang.
Zunächst hieß es, dass der R600 bei GS potenter ist als der G80 (Aussage eines FSX-Entwicklers). Vor einigen Tagen kam die Meldung, dass ATi sher eng mit einem Spieleentwickler arbeitet. VALVe ist es nicht, Digitimes hat berichtet, dass der R600 mit zwei Spielen gebundelt wird: Call of Juarez und Just Cause. Beide Spiele bekommen einen D3D10-Pfad. ATi/AMD muss sich so ziemlich sicher sein, dass D3D10 deren Vorteil ist.
Das erklärt dann auch die Bildfehler bei CoJ mit dem G80...
Knacki99
2007-03-20, 12:53:02
So langsam sollten sie wirklich mal reinen Tisch machen, das ist echt langsam Kindergarten.
Glaube daher auch(leider) das der R600 keine Bombe wird, wenn es so wäre hätte man doch genau wie Intel ein paar ES streuen können, die wären bei XS aufgetaucht und alle freaks wären total nass gewesen auf den R600.
Zumal sich viele in den Arsch beissen wenn sich die Warterei nicht gelohnt hat...
Naja wenn der R600 nicht den Erwartungen entspricht kann man (wie beim R520) auch gleich auf den Refresh Chip warten (R680?). Oder man wechselt zu Nvidia die sicherlich auch im Herbst ein Produktupdate bringen.
Habe mir damals ne X1800XT gekauft, die hier immer noch ihren Dienst verrichtet...
Allerdings...
Sorry, aber AMDs Verhalten lässt den Schluss zu, dass der R600 bei weitem nicht so "gut" ist wie erhofft und AMD sich einfach die Peinlichkeit nicht geben will dies auch zuzugeben.
Rein logisch gesehen: Sollte der R600 wirklich die Bombe werden, warum zeigt man dies dann nicht auf der CeBit? Stattdessen werden solche Kindergartenaktionen veranstaltet. AMD wird mir zunehmend unsympatischer. :|
MfG :cool:
Kannst du eigentlich nur gegen Ati Hämmern?
Knacki99
2007-03-20, 13:03:58
Es gibt da einen interessanten Gedankengang.
Zunächst hieß es, dass der R600 bei GS potenter ist als der G80 (Aussage eines FSX-Entwicklers). Vor einigen Tagen kam die Meldung, dass ATi sher eng mit einem Spieleentwickler arbeitet. VALVe ist es nicht, Digitimes hat berichtet, dass der R600 mit zwei Spielen gebundelt wird: Call of Juarez und Just Cause. Beide Spiele bekommen einen D3D10-Pfad. ATi/AMD muss sich so ziemlich sicher sein, dass D3D10 deren Vorteil ist.
Ja wunderbar! Das Bundle können Sie sich trotz DX10 sparen. Erstens ist Call of Juarez von allen Grafikfetischisten schon gespielt worden und Just Cause hat aus 19 Tests eine Durchschnittswertung von 74% (bei den Spielern schneidet es sogar noch schlechter ab! Siehe: http://www.metacritic.com/games/platforms/pc/justcause )
Wenn ATI mit einem Spielebundle die Leute zum kaufen überreden wollte, sollten Sie sich vielleicht eher einen Toptitel aussuchen als kalten Kaffee wieder aufzuwärmen (UT 3, Hellgate London, Alan Wake, Bioshock, Crysis, Assasins Creed, Fallout 3...)
vielleicht sieht dann Just Cause so wie auf der xbox360 aus ;)
James Ryan
2007-03-20, 13:17:14
Kannst du eigentlich nur gegen Ati Hämmern?
Ich hämmere auf auf genug gegen NVIDIA. Der R600 soll eine Bombe werden damit endlich mal wieder Konkurrenz herrscht.
Der G80 ist weit weg davon perfekt und nicht angreifbar zu sein, allein wegen dem Treiberchaos sehe ich den R600 als attraktiver an.
Nur sollte die Karte auch verdammt nochmal kommen!
MfG :cool:
Mr. Lolman
2007-03-20, 13:20:18
Wenn ATI mit einem Spielebundle die Leute zum kaufen überreden wollte, sollten Sie sich vielleicht eher einen Toptitel aussuchen als kalten Kaffee wieder aufzuwärmen (UT 3, Hellgate London, Alan Wake, Bioshock, Crysis, Assasins Creed, Fallout 3...)
Und um diese mitlefern zu können, haben sie nach Insiderberichten auch schon den H8000 fertiggestellt, der die 5 dimensionale Form der Raumzeitkrümnmung beherrscht und damit täglich die neusten Spielereleases der Zukunft in die Gegenwart transferiert.
Knacki99
2007-03-20, 13:24:03
Und um diese mitlefern zu können, haben sie nach Insiderberichten auch schon den H8000 fertiggestellt, der die 5 dimensionale Form der Raumzeitkrümnmung beherrscht und damit täglich die neusten Spielereleases der Zukunft in die Gegenwart transferiert.
Mal ganz ehrlich, das Bundle interessiert mich am allerwenigsten. Half-Life 2 war zur Markteinführung der 9800er Karten auch noch nicht fertig. Einige Releasetermine dieser Spiele liegen im Juni, Juli diesen Jahres.
Vor diesem Zeitraum ist eine breite Verfügbarkeit von R600 Karten am Markt eh nicht gegeben.
Hauwech
2007-03-20, 13:34:50
Ich hämmere auch genug gegen NVIDIA. Der R600 soll eine Bombe werden damit endlich mal wieder Konkurrenz herrscht.
Der G80 ist weit weg davon perfekt und nicht angreifbar zu sein, allein wegen dem Treiberchaos sehe ich den R600 als attraktiver an.
Nur sollte die Karte auch verdammt nochmal kommen!
MfG :cool:
Naja, folgt man so einigen Aussagen diverser Member hier, scheint die Treiberqualität bei ATI unter Vista auch noch nicht so dolle sein, mehr Info gibt es leider aber auch nicht.
Da sind die Gerüchte seitens Nvidia über "Wundertreiber" und bessere Treiber um das Stromproblem im Idle zu mindern irgendwie handfester. Was natürlich letztlich dabei rauskommt werden wir irgendwann sehen.
Es ist unsinnig, aber das wäre auch eine mögliche Erklärung, warum der RV530 um 57 Mio Transistoren mehr hat als der RV515.
Neben dem RB-MC sind, wie du weißt, ja auch 8 Shader-(doppel)-ALUs mehr drin sowie weitere drei Vertexshader. Wenn ich das alles ebermäßig aufteile komme ich auf 4,3M pro eine der 12 Einheiten (PS, VS, MC) - denn es sind nur 52 Mio. Transitoren Differenz.
Anderseits meinte Dave, dass auf der X1650XT schon der echte RV560 ist und nicht der beschnittene RV570.
Das scheint vom Modell abzuhängen - auf allen unseren bisherigen X1650-XT-Testkarten war der RV570 drauf.
PCGH_Carsten
2007-03-20, 14:58:08
Neben dem RB-MC sind, wie du weißt, ja auch 8 Shader-(doppel)-ALUs mehr drin sowie weitere drei Vertexshader. Wenn ich das alles ebermäßig aufteile komme ich auf 4,3M pro eine der 12 Einheiten (PS, VS, MC) - denn es sind nur 52 Mio. Transitoren Differenz.
Das scheint vom Modell abzuhängen - auf allen unseren bisherigen X1650-XT-Testkarten war der RV570 drauf.
*argl* Das Krümelmonster hat schon wieder meine Kekse gefressen.
robbitop
2007-03-20, 15:58:33
Es ist unsinnig, aber das wäre auch eine mögliche Erklärung, warum der RV530 um 57 Mio Transistoren mehr hat als der RV515.
Das gleiche passiert jetzt beim RV560. Anderseits meinte Dave, dass auf der X1650XT schon der echte RV560 ist und nicht der beschnittene RV570.
Der RV530 hat erstens den Ringbuscontroller mehr und 8 ALUs inklusive eine ganzer Menge dafuer notwendige Kontrolllogik. Vieleicht wurde im RV515 zusaetzlich noch ein bisschen auf Redundanz verzichtet.
RV560 ist in der Tat ein teildeaktivierter RV570. Ob das mit dem nativen RV560 wahr ist, weiss ich nicht. Dazu muesste mal jemand ein Foto vom Kern machen.
AnarchX
2007-03-20, 16:03:21
Der RV530 hat erstens den Ringbuscontroller mehr und 8 ALUs inklusive eine ganzer Menge dafuer notwendige Kontrolllogik. Vieleicht wurde im RV515 zusaetzlich noch ein bisschen auf Redundanz verzichtet.
Dazu kommen auch noch die fetteren ROPs des RV530:
Basic Pipeline Config: 4 / 4 / 8 (Textures / Pixels / Z) (http://www.beyond3d.com/resources/chip/104)
robbitop
2007-03-20, 16:10:07
Ja die haben ein paar Z-Units mehr.
Allerdings bin ich positiv ueberrascht vom RV515: dessen ROPs koennen auch FP16 Blenden. Das koennen die LowCost NV ROPs bisher nicht.
AnarchX
2007-03-20, 16:13:07
Allerdings bin ich positiv ueberrascht vom RV515: dessen ROPs koennen auch FP16 Blenden. Das koennen die LowCost NV ROPs bisher nicht.
G72 und die aktuellen IGPs können dies, nur NV44 war in dieser Hinsicht beschitten.
Daredevil
2007-03-20, 16:25:12
Sry, aber heißt PCie 2.0 nur das die Grafikkarte einen weiteren Stromanschluss genötigt? ( Wenn ja kann man diesen dann über einen Adapter Realisieren ) oder brauch man dafür dann ein neues Mainboard/Netzteil?
reunion
2007-03-20, 16:44:27
Ja, klingt recht interessant nur kauft sich wirklich niemand halbwegs informierte Käufer einen R600/G80 wegen DX10. Sollte der R600 also in DX10 potenter sein als der G80, im Gegenzug aber in aktuellen DX9 Games Probleme haben mit dem G80 mitzuhalten wäre das mehr als arm von AMD/ATi.
Ein schneller D3D10-Chip ist unter DX9 mit Sicherheit nicht langsam.
Sicher wäre es toll wenn der R600 unter DX10 ähnlich perfomant bleibt wie der R300 bei DX9, nur wird NVIDIA schon die Geforce 10 oder 11 releast haben wenn DX10 wirklich massiv gefordert wird.
MfG :cool:
Was habe ich als Käufer davon, außer, dass ich mir wieder eine neue Graka kaufen "darf"?
Oder in der Praxis: Natürlich gibt es jetzt schon eine GF8, aber wenn ich mir eine GF7 gekauft hätte, wäre ich über die jüngsten Performanceeinbrüche in neueren Games nicht gerade glücklich. Hier fährt man mit aktuellen ATi-Karten wesentlich besser. Und dieser Trend zeigte sich bei weitem nicht nur bei der letzten Generation.
Auch auf die Gefahr hin gesteinigt zu werden:
CeBIT : Retail R600XTX Pictured & Benchmarked
http://www.vr-zone.com/?i=4830
reunion
2007-03-20, 17:09:30
Auch auf die Gefahr hin gesteinigt zu werden:
CeBIT : Retail R600XTX Pictured & Benchmarked
http://www.vr-zone.com/?i=4830
Endlich mal halbwegs brauchbare Bilder der Retailversion plus immerhin 3dmark-Werte.
Auch auf die Gefahr hin gesteinigt zu werden:
CeBIT : Retail R600XTX Pictured & Benchmarked
http://www.vr-zone.com/?i=4830
512bit und nur ein bissl schneller.....kacke,dachte der 512bit schritt macht nen großen unterschied
seahawk
2007-03-20, 17:21:16
So schlecht ist sie nicht.
512bit und nur ein bissl schneller.....kacke,dachte der 512bit schritt macht nen großen unterschiedWenn der Chip nicht stark genug ist, bringt ein breites SI auch nicht unbedingt was. Auch G80 ist nicht bandbreitenlimitiert.
reunion
2007-03-20, 17:25:50
512bit und nur ein bissl schneller.....kacke,dachte der 512bit schritt macht nen großen unterschied
Der 3dmark ist so ziemlich das wertloseste, was es gibt, um eine Performanceaussage über Grakas zu tätigen. Dort waren eigentlich schon immer beide Hersteller ungefähr gleichauf, da hier absolut tot optimiert wird. Selbst eine Geforce-FX wusste beim SM2-Test vom 3dmark nach einigen Treibertweaks zu überzeugen.
Sonst dürfte die finale Taktrate vermutlich über 800Mhz liegen, und R600 kann ohne AA seine höhere Bandbreite sowieso nicht ausspielen.
KLICK MICH!
ERSTE GLAUBHAFTE BENCHMARKS DES R6x0:
http://www.vr-zone.com/?i=4830
Markus89
2007-03-20, 17:30:00
Zu faul die letzten 2-3 Posts zu lesen?
ich denke nur die Top Karte wirds in 65nm geben,halt an Anfang in begrenzten Zahlen. Wie sie auch schreiben nur 20k
ich denke nur die Top Karte wirds in 65nm geben,halt an Anfang in begrenzten Zahlen. Wie sie auch schreiben nur 20k
Was dann de facto ein Paperlaunch wäre, den man immer vermeiden wollte. Oder irre ich mich da?
Was dann de facto ein Paperlaunch wäre, den man immer vermeiden wollte. Oder irre ich mich da?
paper heisst dass es garnichts zu kaufen gibt
Aber wartet mal auf die dualcore Karte,das Mutterschiff :O
seahawk
2007-03-20, 17:41:39
Der 3dmark ist so ziemlich das wertloseste, was es gibt, um eine Performanceaussage über Grakas zu tätigen. Dort waren eigentlich schon immer beide Hersteller ungefähr gleichauf, da hier absolut tot optimiert wird. Selbst eine Geforce-FX wusste beim SM2-Test vom 3dmark nach einigen Treibertweaks zu überzeugen.
Sonst dürfte die finale Taktrate vermutlich über 800Mhz liegen, und R600 kann ohne AA seine höhere Bandbreite sowieso nicht ausspielen.
Wenn die Karten auf der CeBit noch nicht mal finale Versionen waren, dann gute Nacht.
dargo
2007-03-20, 17:43:21
Auch auf die Gefahr hin gesteinigt zu werden:
CeBIT : Retail R600XTX Pictured & Benchmarked
http://www.vr-zone.com/?i=4830
Limitiert eigendlich ein X6800 in 1600x1200 noch?
Könnte jemand von den G8800GTX Usern mit einem C2D @3Ghz mal gegentesten wie sich die Punkte im 3DMark06 bei 1600x1200 ohne AA/AF und 1600x1200 mit 4xAA/16xAF verhalten?
Daredevil
2007-03-20, 17:45:08
Naja so groß ist der Unterschied ja echt nicht, bleibt nur zu hoffen als einer der auf die Karte wartet das der Unterschied mit Aktiver Kantenglättung und so weiterm gedöns größer wird, denn darauf kommts mir zumindest eher an.
Bin mal echt gespannt :)
reunion
2007-03-20, 17:46:01
Wenn die Karten auf der CeBit noch nicht mal finale Versionen waren, dann gute Nacht.
Hast du auch eine Begründung anzubieten? Der Launch dürfte irgendwann im Mai sein, und die finalen Taktraten legt man immer erst ganz zum Schluss fest. Natürlich wird es keine riesigen Unterschiede mehr geben, aber etwas mehr sollte durchaus realistisch sein. Ailuros hat bereits angedeutet, dass A15 mit über 800Mhz läuft:
Die Taktrate wurde aber auch nie finalisiert und A15 lief mit Sicherheit bei 820MHz absolut stabil.
Es sind eben nicht nur 800MHz wie die meisten schaetzen.
Usw.
Die mit ihren 3DMarks,ich will Realität sehn also Spiele
9800 schaffte GTX mit ein x6800
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/7/#abschnitt_3dmark06
reunion
2007-03-20, 17:48:15
9800 schaffte GTX mit ein x6800
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/7/#abschnitt_3dmark06
"Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)"
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/4/#abschnitt_testsystem
dargo
2007-03-20, 17:51:09
9800 schaffte GTX mit ein x6800
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/7/#abschnitt_3dmark06
Ui, die G8800GTX ist ohne AA/AF ganze ~50% schneller als mit 4xAA/16xAF. Hier wäre jetzt interessant zu sehen wie sich die X2900XTX mit 4xAA/16xAF verhält.
"Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)"
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/4/#abschnitt_testsystem
Jo dann zieh halt 100 ab. das bringt nix mehr Punkte gross das O/Cen.
Bei mir gings von 4000 auf 4300 Punkte C2D 1,8ghz vS. 3ghz.
Nich zufrueh freuen ;)
die R600 lief mit 800Mhz,was sollte die Final haben,nicht 1000 ?
crux2005
2007-03-20, 17:54:48
850MHz als finalen core Takt kann ich mir recht gut vorstellen ...
reunion
2007-03-20, 17:58:41
Jo dann zieh halt 100 ab. das bringt nix mehr Punkte gross das O/Cen.
Bei mir gings von 4000 auf 4300 Punkte C2D 1,8ghz vS. 3ghz.
Nich zufrueh freuen ;)
Umso schneller die Graka, umso öfter stoßt man ans CPU-Limit, und da können ganz schnell mehr als 100 Punkte dazukommen. Wirklich vergleichbar ist ohnehin nur der selben Rechner. Und beim Testsystem von VR-Zone kommt eine GTX eben auf 95XX. Ist doch ohnehin Erbsenzählerei. R600 ist mit seinen jetzigen Treibern mit 800Mhz minimal schneller als eine 8800GTX im 3dmark. Die Aussagekraft davon tendiert gegen null, wie ich weiter hinten schon im Bezug auf den 3dmark angedeutet habe.
Wie war dass nochmal beim R300 ,hatte der mit 256bit richtig reingehaun im 3DMark ?
Wie war dass nochmal beim R300 ,hatte der mit 256bit richtig reingehaun im 3DMark ?Der R300 war bei weitem nicht nur wegen seines Speicherinterfaces so schnell.
mapel110
2007-03-20, 18:04:34
Der R300 war bei weitem nicht nur wegen seines Speicherinterfaces so schnell.
eben, der hatte auch Color Compression, weswegen er bei 'AA so schnell war.
horn 12
2007-03-20, 18:48:28
Also so schlecht finde ich es nun nicht, da ist sicher noch ordentliches Potential dahinter. Gut dass A/A dies nun zullies dass der R600 bereits die 8800 HTX schlagen kann, und nicht hinterherhinkt.
Für mich ist es nun auch Fakt dass A/A die Mainstraem / Lowend und vor allem X2900 XTX XL Mitte April, oder Zeitgleich mit NV Launch bringt um sich die Krone auf allen Karten zu sichern. Denn eine weitere Blamage dass NV sogar die Mainstram Karten Vor der R600 XTX bringt lässt sich ATI wirklich nicht bieten. In nen Monat (viell. nicht mal das) werden wir die Karten kaufen können, viell. zwar nicht Alle Exemplare in atemberaubenden Stückzahlen, aber immerhin.
Die Karten werden ab da wohl neu gemischt werden, und ich rechne stark dass da ATI/ AMD sich nicht lumpen hat lassen,- und groß auftischt.
Meine Meinung (aber so abwägig?)
deekey777
2007-03-20, 18:53:02
Wie war dass nochmal beim R300 ,hatte der mit 256bit richtig reingehaun im 3DMark ?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=284507
seahawk
2007-03-20, 19:47:19
Hast du auch eine Begründung anzubieten? Der Launch dürfte irgendwann im Mai sein, und die finalen Taktraten legt man immer erst ganz zum Schluss fest. Natürlich wird es keine riesigen Unterschiede mehr geben, aber etwas mehr sollte durchaus realistisch sein. Ailuros hat bereits angedeutet, dass A15 mit über 800Mhz läuft:
Usw.
Aber ATI muss sich eben auch Luft f+r die ungünstigsten Umweltumstände lassen. Ich lege mich hinsichtlich der Taktung auch gar nicht fest, nur fonde ich es von der Zeitschiene erschreckend wenn man auf der CeBit immer noch keine Boards der entgültigen Spezifikation gezeigt haben sollte.
Denn dann ergeben sich für mich einige Dinge.
a) es wird noch kein endgültiges Silikon aisgeliefert
b) es wurden und werden noch keine Boards produziert
850MHz als finalen core Takt kann ich mir recht gut vorstellen ...
Kann ich mir nicht mehr vorstellen, man will die ganze Palette an GPUs rausbringen und das Referenzdesign der "Killer-GPU" ist noch nicht fertig, bzw. man Taktet noch an den GPUs rum? Also von der Ref-Platine über die Hersteller zum Kunden sinds immer noch 2 Monate, da kann man soviele Vorserienmodelle raushaun wie man will...
Wenn 800MHz Stabil sind, reicht dann der Referenz Kühlkörper den wir gesehen haben aus bei 850MHz? War 800MHz auf die XTX Variante bezogen, sprich das obere Maximum?
Zuviele unbekannte und man wünscht sich doch das sie bei 750MHz nen Schlussstrich ziehen, billigen GDDR4 Ram aufs 512Bit-SI klatschen und eine echt gute X2900 rausbringen, die verfügbar und kühlbar ist.
Damit endlich mal was kommt ^^
AnarchX
2007-03-20, 20:05:12
R600 is 80 nanometre
CEBIT 2007: Various sources confirms (http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=34)
War aber auch klar, wenn man die Karte noch im Q2 launchen will und dazu mit entsprechender Verfügbarkeit.
Auch interessant:
Sorry to disappoint you but R600 will be re branded and probably cheaper than everyone expects but its very unlikely that we are waiting for G80 killer.
Ich glaube eher er hat in ein paar Foren gelesen, und dort ist die einstimmige Meinung der Leute mit gewissen Kontakten schon länger klar gewesen. Da viele nochmal "ihre" Meinung kundgetan haben um die Meute an 65nm Fragen abzuwehren, musste das Gerücht um 65nm einfach aus der Welt geschafft werden.
So schafft es Fuad immer wieder die Welt in Angst und Schrecken zu versetzen *g
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.