Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV670, RV660, RV635, RV620 - Teil 2 (s. #1!)


Seiten : 1 [2] 3 4 5 6

robbitop
2007-10-29, 18:23:16
Wieviele Leser hat denn 3dcenter?
65k/Tag AFAIK

Na ja, dafür hat 3DCenter ein recht grosses Forum und ne Menge Fachkompetenz zu bieten. Für ATI offenbar zu viel ;D
ATI priorisiert ihre Aufmerksamkeit und ihre Samples natürlich. Das kann man ihnen nicht verdenken.
Da wir unabhängig versuchen, die Karten möglichst kritisch zu analysieren (IHV unabhängig) kommt natürlich auch Kritik an Grafikkarten in Artikel. Da wir nicht B3D oder die PCGH sind, sind wir vermutlich nicht wichtig genug, um Karten zu bekommen. Es sei denn, wir loben jedes Produkt von jedem Hersteller. Da sind andere Hersteller nicht großartig anders. Mit Lars war das ganz anders. Er war ja selbst mal Redakteur und kennt die Situation.

horn 12
2007-10-29, 19:17:12
Verstehe A/A nicht mehr ganz:
Endweder der HD 3870 gackt voll ab und kann es gar mit der GT nicht aufnehmen;(;(;:mad:
oder aber:
ATI SOLLTE nun sofort reagieren um den Ball flach zu halten und die Kundschaft nicht sofort bei Verfügbarkiet der 8800 GT an Nvidia zu verlieren.
Hoff der RV670 war nicht ein Reinfall, da nun auch der Takt voraussichtlich gesenkt wurde auf 775 Mhz bei der Gladitor!
Kann es nicht begreifen, warum AMD sich so stur gibt. Schaden tun sie sich ja nur selbst, jedoch was wirklich Handfestes würde ja schon genügen!:confused:

Die_Allianz
2007-10-29, 20:43:49
Verstehe A/A nicht mehr ganz:
Endweder der HD 3870 gackt voll ab und kann es gar mit der GT nicht aufnehmen;(;(;:mad:
oder aber:
ATI SOLLTE nun sofort reagieren um den Ball flach zu halten und die Kundschaft nicht sofort bei Verfügbarkiet der 8800 GT an Nvidia zu verlieren.
Hoff der RV670 war nicht ein Reinfall, da nun auch der Takt voraussichtlich gesenkt wurde auf 775 Mhz bei der Gladitor!
Kann es nicht begreifen, warum AMD sich so stur gibt. Schaden tun sie sich ja nur selbst, jedoch was wirklich Handfestes würde ja schon genügen!:confused:

naja ich muss ehrlich sagen bei dieser neuen Runde verstehe ich weder nV noch A/A!
einerseits aus den von dir genannten Gründen, andererseits gräbt sich der andere Hersteller selbst das Wasser bei High-End ab.
Beide bringen nicht wie seit Jahren üblich eine ganze Palette einer neuen Generation, sonder irgendwelche Zwischendinger mit den merkwürdigsten Chipbezeichnungen.
Dazu dieser absolute Informationsmangel... Da weiß ich jetzt echt nicht, warum ich mein Geld ausgeben sollte, wenn evtl ein 2 Wochen schon wieder eine Karte nachgeschoben wird, die völlig aus dem Rahmen fällt.

Gefällt mir alles nicht!:mad:

seahawk
2007-10-30, 07:00:28
Nein, das macht sehr viel Sinn. Mit UT07 und Crysis kommen jetzt Spiele auf den Markt, die mehr Spierr aufrüsten lassen und die Performanceklasse ist bei beiden völlig frei von DX10 Karten. Dort liegt gerade das Geld.

AnarchX
2007-10-30, 07:46:42
http://img86.imageshack.us/img86/8544/88vs670sea5.jpg
http://www.expreview.com/news/hard/2007-10-30/1193719352d6668.html

Jetzt wird auch klar, wo die Werte auf der Leadtek-Schachtel herkamen.
Aber an sich keine großen Unterschiede, vorallem dafür dass es cherry-picked Werte sein sollten.

GeneralHanno
2007-10-30, 08:19:27
wenn nvidia vorsprünge von 10% misst, dann sind die karten im schnitt wohl gleichschnell. überlegt doch mal: der RV670xt muss doch über einer 2900xt liegen, und die liegt zwischen der GTS und der GTX (so wie die GT eben ;))

seahawk
2007-10-30, 08:21:41
Muss der RV670 das ?

Gmax
2007-10-30, 08:23:28
:lol: wie gut nV den RV670 schon kennt.

GeneralHanno
2007-10-30, 08:29:46
der RV670xt bietet im vergleich zum R600 einen höheren chiptakt und ein (hoffentlich) überarbeitetes design. die 256bit SI schaden nicht, da 1. GDDR4@1,2GHz verwendet wird und 2. der R600 zu viel bandbreite hat.

daher gehe ich stark davon aus, dass der RV670xt (3870) über dem R600 liegen wird und damit etwa auf GTX niveau!

Gast
2007-10-30, 08:43:33
http://img86.imageshack.us/img86/8544/88vs670sea5.jpg
http://www.expreview.com/news/hard/2007-10-30/1193719352d6668.html

Jetzt wird auch klar, wo die Werte auf der Leadtek-Schachtel herkamen.
Aber an sich keine großen Unterschiede, vorallem dafür dass es cherry-picked Werte sein sollten.

Vor allem ja eine ganz tolle Grafik. 10% macht nen doppelt so langen Balken. Das ist genau der Grund warum mir Nvidia tierisch aufn Sack geht. Purer marketing Dreck.

aehmkei
2007-10-30, 08:47:37
RV670XTX ist auch lustig ;D

Gaestle
2007-10-30, 09:24:43
Nein, das macht sehr viel Sinn. Mit UT07 und Crysis kommen jetzt Spiele auf den Markt, die mehr Spierr aufrüsten lassen und die Performanceklasse ist bei beiden völlig frei von DX10 Karten. Dort liegt gerade das Geld.


Wobei ich aktuell der Meinung bin, dass eine 8800GT für Crysis eigentlich zuwenig ist, da 1280 in very high auch ohne AA/AF nicht so richtig smooth zu laufen scheint. Schade. Aber die Ultra packt's ja auch nicht. Also bis H1/2008 warten. Alles andere (außer Crysis) läuft ja jetzt schon super. Jetzt bliebe nur noch die Frage nach AA mit der U3-Engine.

Aber abgesehen davon ist die 880GT schon ziemlich fett. Und wenn RV670XT in ähnlichen Gefilden liegt, ist es eigentlich super. Außer natürlich dieses eine Haar in der Suppe, was aber nicht am Portifolio der IHVs liegt (wobei ich damit nicht sagen will, dass der ISV Mist gemacht hat, Crysis ist eben noch fetter, als die aktuell verfügbare HW).

AnarchX
2007-10-30, 10:11:25
Vor allem ja eine ganz tolle Grafik. 10% macht nen doppelt so langen Balken. Das ist genau der Grund warum mir Nvidia tierisch aufn Sack geht. Purer marketing Dreck.
Als wäre ATi hier besser... ;)

DrumDub
2007-10-30, 10:19:22
Als wäre ATi hier besser... ;) feindbilder sind doch was schönes. hab ich auch lange gepflegt... ;)

trotzdem hoffe ich, dass der rv670 konkurrenzfähig sind wird. im moment läufts für nv einfach zu gut.

seahawk
2007-10-30, 10:57:38
Wobei ich aktuell der Meinung bin, dass eine 8800GT für Crysis eigentlich zuwenig ist, da 1280 in very high auch ohne AA/AF nicht so richtig smooth zu laufen scheint. Schade. Aber die Ultra packt's ja auch nicht. Also bis H1/2008 warten. Alles andere (außer Crysis) läuft ja jetzt schon super. Jetzt bliebe nur noch die Frage nach AA mit der U3-Engine.

Aber abgesehen davon ist die 880GT schon ziemlich fett. Und wenn RV670XT in ähnlichen Gefilden liegt, ist es eigentlich super. Außer natürlich dieses eine Haar in der Suppe, was aber nicht am Portifolio der IHVs liegt (wobei ich damit nicht sagen will, dass der ISV Mist gemacht hat, Crysis ist eben noch fetter, als die aktuell verfügbare HW).

Durc hdie Forderung nach very high und/oder AA+AF geht es eigentlich schon wieder über den typischen Performancekunden hinaus. Crysis sollte in high ohne AA+AF un typischen 19" TFT Auflösungen auf der Gt anständig laufen. Mehr kann man für 210-230 Euro (da sind wir bald) nicht erwarten.

Anarchy-HWLUXX
2007-10-30, 11:03:35
feindbilder sind doch was schönes. hab ich auch lange gepflegt... ;)

trotzdem hoffe ich, dass der rv670 konkurrenzfähig sind wird. im moment läufts für nv einfach zu gut.

Dann muss ATi ne Karte bringen die besser als die 2900XT ist UND billiger ... und nen brauchbares High-End modell wär auch mal angesagt :|

@Sea -

bei 1280er sollt doch a bissi AA / AF drin sein ... so idiotisch hoch die die anforderungen auch wieder nicht dass man ne 8800GT ohne eben AA/AF betreiben muss.

reunion
2007-10-30, 11:06:14
(RV670)HD38X0 final frenquency, price and more

HD3870(RV670XT):core/memory: 800MHz/2400MHz,512MB GDDR4,suggested retail price: CNY2299(307.5 USD)

HD3850(RV670Pro):core/memory: 700MHz/1800MHz,256MB GDDR3,suggested retail price: CNY1699(227.3 USD)

And the only driver now support RV670 is Catalyst 7.11 which AMD-ATI just hand out to his partners about two weeks ago. According the info we knew earlier, the RV670 have 320Steam processor,256bit memory interface, UVD and PCIe Gen2.

AMD-ATI said when they announce the offical design, partners can begin to sell those unoffical design cards. And an asia graphic card maker Yeston said that they will be the first one to supply unoffical design card.

http://forums.vr-zone.com/showthread.php?t=199467

Die Preise sind doch verdammt hoch angesetzt. Fraglich ob die Leistung das rechtfertigt.

aehmkei
2007-10-30, 11:26:55
Fudo setzt dem ganzen die Krone auf und behauptet wieder was ganz anderes;

Price wars


The fastest of the upcoming RV670XT will be cheaper than Geforce 8800GT. We already told you that this 825MHz+ clocked card is going to lose to 600MHz default clocked 8800GT but ATI will simply lower its prices.

ATI already did this with 2600XT/PRO and 2400XT/PRO and damaged quite a lot of Nvidia sales and it plans to do it again with both RV670XT and PRO. We still don’t know the real prices but we guess that ATI can easily drop some $30 to $50 from the price and we heard that RV670XT is between eight and ten percent slower than the 8800GT.

Radeon HD38x0 aka RV670XT might be selling for as low as €199 or a few dollars more, which will certainly get Nvidia in trouble. We will let you know when the prices are final and the launch should be fixed at 15th of November, in some two weeks.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=3918&Itemid=34


Streut AMD da gezielt verschiedene Info's??

Nakai
2007-10-30, 11:29:24
Streut AMD da gezielt verschiedene Info's??

Oder es ist ein Interpretation der jeweiligen Newsschreiber.

mfg Nakai

Kobalt
2007-10-30, 11:35:23
ATI/AMD benutzt derzeit nen Nebelwerfer, wenn man so die Gerüchte betrachtet :biggrin:

zur nV-Grafik:
so betrachtet schönes Marketing, aber irgendwer hat bei nV gepennt -> unten links: NVIDIA Corporation 2006 ;D

Gast
2007-10-30, 11:58:40
Für 300$ muss die Karte aber schon gut was drauf haben, um einen Aufpreis von min. 50$ gegenüber der 8800GT rechtzufertigen.

Adam D. @ work

Gast
2007-10-30, 12:10:34
Naja UVP der 8800GT sind ja auch 299$....

Gast
2007-10-30, 12:11:56
Hmm, ich les nur was von 229/249$ ;)

Bokill
2007-10-30, 12:31:02
... The fastest of the upcoming RV670XT will be cheaper than Geforce 8800GT. We already told you that this 825MHz+ clocked card is going to lose to 600MHz default clocked 8800GT but ATI will simply lower its prices.

ATI already did this with 2600XT/PRO and 2400XT/PRO and damaged quite a lot of Nvidia sales and it plans to do it again with both RV670XT and PRO. We still don’t know the real prices but we guess that ATI can easily drop some $30 to $50 from the price and we heard that RV670XT is between eight and ten percent slower than the 8800GT.

Radeon HD38x0 aka RV670XT might be selling for as low as €199 or a few dollars more, which will certainly get Nvidia in trouble. We will let you know when the prices are final and the launch should be fixed at 15th of November, in some two weeks.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=3918&Itemid=34

Streut AMD da gezielt verschiedene Info's?? Ich bin gespannt wie gut die RV670 tatsächlich ist. Wenn es allerdings "nur" ein Shrink des R600 auf 55 nm ist, dann ist ein kleinerer Preis eine NOTWENDIGKEIT gegenüber der neuen Nvidia G92-GPU.

Von der Rechenleistung mit den über 100 Shadern wird die eigene G92 auch in der Leistung teilweise in den Gewässern der G80 wildern. Zudem ist nun endlich auch HD-Videobeschleunigung drin ("Pure Video"), was ja bislang nur in der aktuellen Nvidia-Mittelklasse und Einstiegsklasse drin war.

Die R600 hingegen ist meistens der G80 unterlegen bis deutlich den G80-Derivaten unterlegen (http://www.xbitlabs.com/articles/video/display/dx10-part2.html).

Angst machen ist anders, das hat den Anschein, dass AMD eher ganz laut im Wald pfeift und dabei singt: "Ich bin bin billiger, ich bin billiger, ich bin billiger".

Nicht, dass ich falsch verstanden werde, eine RV670-GPU ist eine interessanter Chip. Alleine der Shrink auf 55 nm verspricht günstigere Stromwerte und wird vermutlich deutlich kühler ausfallen, als mit der irrwitzig heissen R600-GPU, und dazu ist noch "Avivo" im RV670/RV680 integriert, was nun endlich auch in den "dicken" ATI-GPUs drin ist.

Ich habe das Gefühl, dass die Fusion AMD/ATI 2006 schlicht darin begründet lag, dass beide rechtzeitig keinen Scheit Holz gegenüber der Konkurrenz auflegen konnten und sich so gegenseitig in die Arme liefen, damit der Andere Partner Resourcen verschafft.

Mit dieser Taktik des Löcherstopfens in schlecht gesicherten Frontabschnitten mit Löchern (durch Abzug von Truppenteilen von weniger bedrohten Frontabschnitten) hat die Deutsche Wehrmacht lediglich den Krieg verlängert ... nicht gewonnen.

PS: Nachtrag zu den "damaged sales" ... die Realität sieht irgendwie seit dem dritten Quartal 2006 bei AMD/ATI deutlich anders aus: "Nvidia Continues to Gain Graphics Market Share, AMD Keeps on Downfall – JPR. (http://www.xbitlabs.com/news/video/display/20071029062106.html)"

MFG Bobo(2007)

BlackBirdSR
2007-10-30, 12:47:06
Natürlich war es auch eine Hochzeit aus Angst und Ungewissheit.
Ich denke sowohl AMD als auch ATI wussten, dass ihre nächsten Produkte nicht mit der Konkurrenz mithalten können.
Der Plan C im Hause AMD hat eben nur den Barcelona hervorgebracht, und diesem scheint trotz aller Änderungen nicht das zu gelingen, was K7 und K8 vorgemacht haben.

ATI hat dagegen seit dem R400 irgendetwas falsch gemacht. Fast schon erinnert mich das ganze an Netburst und Prescott. Egal ob die Sache nicht so gut funktioniert, wir ziehen es mit aller Gewalt durch.
Natürlich kann man von beiden nicht erwarten, dass sie auf Probleme so schnell und Resourcengewaltig reagieren können wie Intel. Das Geld machts.

Es wird aber auch immer deutlicher, dass ATI keine Zukunft alleine gesehen hat, und AMD einfach auf Intels Bestrebungen im GPU-Segment reagieren wollte. Ich bin daher immernoch der Meinung, dass AMD mittelfristig die High-End-Sparte von ATI auslaufen lässt. Es passt irgendwie nicht ins Konzept und man kann es sich leider nicht leisten solche Fehlschläge zu wiederholen.

Gast
2007-10-30, 12:52:43
Dem stimme ich mal voll und ganz zu.
Ich denke es wird höchstens in Form des R700 noch einen letzten Versuch von AMD geben, in der High-End Liga mitzuspielen, danach wird man sich auf IGPs und low-cost Grafiklösungen konzentrieren.

Nakai
2007-10-30, 12:57:49
zur nV-Grafik:
so betrachtet schönes Marketing, aber irgendwer hat bei nV gepennt -> unten links: NVIDIA Corporation 2006

Oder man wusste seit letzem Jahr, dass man den G92 mit 10% Performancevorteil zum RV670 machen wollte. :cool:


mfg Nakai

Gaestle
2007-10-30, 13:13:23
Durc hdie Forderung nach very high und/oder AA+AF geht es eigentlich schon wieder über den typischen Performancekunden hinaus. Crysis sollte in high ohne AA+AF un typischen 19" TFT Auflösungen auf der Gt anständig laufen. Mehr kann man für 210-230 Euro (da sind wir bald) nicht erwarten.

Naja, bei den anderen Spielen ist 1280 mit den maximal angebotenen Details ja problemlos möglich, sogar AA/AF ist noch drin, nur Crysis fällt aus dem Rahmen. Aber Crysis scheint auch deutlich mehr an Grafik-Output zu bieten, als andere aktuelle Spiele. Von daher ist das alles kein Wunder. Aber letztlich hast Du schon recht.

Wegen AMD nur noch Mittelklasse-Angebote:
Wenn das wirklich so kommen sollte, hoffe ich, dass dann wenigstens ein anderer Hersteller in den HighEnd-Markt einsteigt, damit NV nicht alleine dasteht und dann Preise und Leistung diktiert.

BlackBirdSR
2007-10-30, 13:18:54
Naja, bei den anderen Spielen ist 1280 mit den maximal angebotenen Details ja problemlos möglich, sogar AA/AF ist noch drin, nur Crysis fällt aus dem Rahmen. Aber Crysis scheint auch deutlich mehr an Output zu bieten, als andere Spiele. Von daher ist das alles kein Wunder. Aber letztlich hast Du schon recht.

Wegen AMD nur noch Mittelklasse-Angebote:
Wenn das wirklich so kommen sollte, hoffe ich, dass dann wenigstens ein anderer Hersteller in den HighEnd-Markt einsteigt, damit NV nicht alleine dasteht und dann Preise und Leistung diktiert.

Außer Intel wäre dazu niemand in der Lage. Die Zeit und Kosten, ganz zu schweigen von den personellen Anforderungen sind extrem hoch anzusetzen. Wer könnte sich das erlauben? Jeder Neuling muss davon ausgehen, die ersten Jahre erst einmal hinterherzulaufen. Von der Akzeptanz durch die Software-Hersteller ganz zu schweigen.

Es ist ähnlich wie bei x86. Außer AMD gibt es weltweit niemanden, der Intel entgegentreten könnte. Einfach weil AMD die Erfahrung und die Marktakzeptanz hat.

Wenn AMD also aus dem High-End und Performance-Sektor für GPUs aussteigt, werden es Intel und nVidia untereinander austragen. Und selbst da wird Intel erst einmal eine lange Zeit nur den 2. spielen.

Gast
2007-10-30, 13:20:15
Wegen AMD nur noch Mittelklasse-Angebote:
Wenn das wirklich so kommen sollte, hoffe ich, dass dann wenigstens ein anderer Hersteller in den HighEnd-Markt einsteigt, damit NV nicht alleine dasteht und dann Preise und Leistung diktiert.
Wer sollte denn ATis Platz einnehmen? Gibt doch keinen anderen Hersteller, der Ambitionen und technische Möglichkeiten hat, da einzusteigen. Aber so schnell würd ich AMD nicht abstreiten, dass der R600 inzwischen zum Reinfall avanciert ist, heißt noch lange nicht, dass der RV670 das nicht noch wett machen könnte. Guter Preis, gute Leistung, Zukunftssicherheit - momentan sieht es doch gar nicht schlecht aus.

Adam D. @ work

Nakai
2007-10-30, 13:20:46
Wenn das wirklich so kommen sollte, hoffe ich, dass dann wenigstens ein anderer Hersteller in den HighEnd-Markt einsteigt, damit NV nicht alleine dasteht und dann Preise und Leistung diktiert.

Ist das nicht schon der Fall, seit G80?

mfg Nakai

LovesuckZ
2007-10-30, 13:22:31
Ich habe bis heute nicht verstanden, was an den Preisen der G80 Karten auszusetzen ist bzw. war.

Gaestle
2007-10-30, 13:23:53
Ich weiß, dass ein solcher Markteintritt extrem viele Ressourcen benötigt und dass es nur wenige gibt, die grundsätztlich das Potential hätten, dieses aufzubringen. Und ich hoffe auch, dass uns AMD in dem Segment erhalten bleibt.

Gast
2007-10-30, 13:24:47
Ist das nicht schon der Fall, seit G80?

mfg Nakai

Mein Gott, wie lange hatte ATi das bessere High-End-Produkt? Seit R300 eigentlich fast durchgehend. Hier wird wiedermal dramatisiert bis zum geht nicht mehr. ATi Marktanteil ist im 3. Q 2006 mit der Übernahme von AMD mächtig gesunken, diesen Verlust konnte man bis heute leider nicht wegmachen. Doch deshalb vom Untergang oder dergleichen zu sprechen, ist doch völlig übertreiben.

seahawk
2007-10-30, 13:25:56
Außer Intel wäre dazu niemand in der Lage. Die Zeit und Kosten, ganz zu schweigen von den personellen Anforderungen sind extrem hoch anzusetzen. Wer könnte sich das erlauben? Jeder Neuling muss davon ausgehen, die ersten Jahre erst einmal hinterherzulaufen. Von der Akzeptanz durch die Software-Hersteller ganz zu schweigen.

Es ist ähnlich wie bei x86. Außer AMD gibt es weltweit niemanden, der Intel entgegentreten könnte. Einfach weil AMD die Erfahrung und die Marktakzeptanz hat.

Wenn AMD also aus dem High-End und Performance-Sektor für GPUs aussteigt, werden es Intel und nVidia untereinander austragen. Und selbst da wird Intel erst einmal eine lange Zeit nur den 2. spielen.

Und wenn Intel dann gegen NV gewinnt, wird es nur schlimmer. :(

reunion
2007-10-30, 13:26:56
Mein Gott, wie lange hatte ATi das bessere High-End-Produkt? Seit R300 eigentlich fast durchgehend. Hier wird wiedermal dramatisiert bis zum geht nicht mehr. ATi Marktanteil ist im 3. Q 2006 mit der Übernahme von AMD mächtig gesunken, diesen Verlust konnte man bis heute leider nicht wegmachen. Doch deshalb vom Untergang oder dergleichen zu sprechen, ist doch völlig übertreiben.

Mein Beitrag. Und noch ergänzend: NVs Marktanteile waren die ganze Zeit bis zum Q3 2006 nicht höher als die, welche ATi heute hat. Der Verlust der Grafiksparte von AMD betrug im letzten Quartal lächerliche 3mio $, trotz sinkender Marktanteile und schlechten Produkten. Ich denke AMD wird bald froh sein, dass man ATi hat.

Nakai
2007-10-30, 13:27:06
Ich habe bis heute nicht verstanden, was an den Preisen der G80 Karten auszusetzen ist bzw. war.

Dagegen sage ich nichts, ich meine eher, dass alle Karten von ATI langsamer sind als deren Derivate, deswegen müssen sie billiger angeboten werden.
Nur ist seit einem Jahr kein neues und besseres Modell gekommen, weder von ATI oder NV. Da sieht man schon wie es derzeit aussieht.


mfg Nakai

€:
Und wenn Intel dann gegen NV gewinnt, wird es nur schlimmer.

Da kannst dich drauf verlassen, wenn Intel richtig mitmischt. NV ist gegen Intel praktisch nur ein Reissack der gerade umfällt.

Gaestle
2007-10-30, 13:28:37
Möglicherweise wurde durch die Fusion der Fortbestand von "ATi" auch grundsätzlich weiter gesichert, denn es gibt ja Gerüchte, dass Intel mit der Existenz von AMD weniger Nachteile hat, als wenn Intel alleine dastünde (Wettbewerbs- und Kartellrecht). Von daher soll Intel AMD sogar schon mal dezent unter die Arme gegriffen haben. Ich weiß aber nicht ob das stimmt. Weiß hier wer Bescheid?

@Reunion:
Nur 3 Mio-Verlust? Das ist ja echt nicht viel.

Toppas:-)
2007-10-30, 13:30:16
Dem stimme ich mal voll und ganz zu.
Ich denke es wird höchstens in Form des R700 noch einen letzten Versuch von AMD geben, in der High-End Liga mitzuspielen, danach wird man sich auf IGPs und low-cost Grafiklösungen konzentrieren.

Das ist im Auge des Marketings nicht so gut sich nur auf die IGPs ect. zu konzentrieren. Siehe andere Marken die sich genau durch diesen Schritt ins Aus geschossen haben. Gerade der Midrange - Markt ist der mit am wichtigsten umkämpfte Markt, gerade was auch Neuerungen (DX10-DX10.1...ect) betrifft um auch wahrgenommen zu werden und seinen Marktanteil zu steigern. Der High-End halte ich eher für das Aushängeschild um zu zeigen das man Technologisch in der Lage ist, gewisse neue Aktzente setzen zu können (wie in den Taktraten oder Chip-Design).
Ich glaube so eine Diskussion hatte man bis vor einem Jahr über Nvidia gehabt.
Meines Wissens nach sollte man den R600-RX6XX wirklich nur im Mid-Range sehen. Hier Ingeneur-Power ins Refresh reinzustecken um mit diesem Chip-Design nochwas zu bewegen wäre kaum tragbar.
Hier wird definitiv der R7xx wieder vorne mitspielen, sofern NV nicht wieder so ein Wunderchip gelingt. Hier wurde, meines Wissens nach, von AMD in bestimmten Bereichen des Chip-Design schon Eingegriffen in die Entwicklung des R7xx um das Sicherzustellen.Aber ein Wunderchip wirds nicht sein, aber ein anderes Design was wesendlich flexibler zu Produzieren ist.
Der R800 (wenn er so noch heißt) wird kommen und bestimmt nicht als IGP oder Low-Kost noch, das würde AMD eher schaden als Inovativ dazustehen (siehe Athlon64 wo Intel nur den P4 hatte).

Nakai
2007-10-30, 13:37:15
Ich gehe eher davon aus, dass der R700 den Fortbestand von ATI-Grafikchips sichern wird.

Man baut nur einen Chip, von dem aber mehrere auf einem PCb untergebracht werden. So kann man leicht ein Highend liefern, obwohl man nur einen Chip im Midrange hat.


mfg Nakai

Winter[Raven]
2007-10-30, 13:45:05
Da Nvidia mit dem G100 200 oder wie der auch immer heißt wieder früher antanzen wird, sehe ich da wieder das Problem der Marktübersättigung...

Das AMD/ATI wieder so einen Erfolgschip bastelt der an den R300 anknüpfen kann, kann ich mit der Erfahrung der letzten "Gpus"s bezweifeln.

Gast
2007-10-30, 14:14:50
;5981055']Da Nvidia mit dem G100 200 oder wie der auch immer heißt wieder früher antanzen wird, sehe ich da wieder das Problem der Marktübersättigung...

Das AMD/ATI wieder so einen Erfolgschip bastelt der an den R300 anknüpfen kann, kann ich mit der Erfahrung der letzten "Gpus"s bezweifeln.
Nichts für ungut, aber das können wir noch lange nicht sagen, beide Chips liegen noch zu weit in der Zukunft und es können noch genug Probleme auftauchen. Also schreib vermutlich oder voraussichtlich und stell nicht immer alles als Tatsache hin. (Gilt nicht nur für dich ;) )

Winter[Raven]
2007-10-30, 14:24:38
Nun ....Probleme kann es immer geben ... aber der Fahrplan sieht nunmal so aus, das die nächste Gen-GPU früher kommen soll als bei AMD.

Hakkerstiwwel
2007-10-30, 14:24:55
(RV670)HD38X0 final frenquency, price and more



http://forums.vr-zone.com/showthread.php?t=199467

Die Preise sind doch verdammt hoch angesetzt. Fraglich ob die Leistung das rechtfertigt.
:| Huh? Du schließt von dem chinesischen Retail Preis auf EU? Wie hoch sind Einfuhrzoll und Steuern in China? Um wieviel ist der Renmimbi ggue dem USD kuenstlich unterbewerted? (=billiger Export/teurer Import)

reunion
2007-10-30, 14:37:59
;5981170']Nun ....Probleme kann es immer geben ... aber der Fahrplan sieht nunmal so aus, das die nächste Gen-GPU früher kommen soll als bei AMD.

Es gibt noch nichtmal halbwegs glaubwürdige Spekulationen, wann die nächsten Generation kommen soll, und du weißt schon, dass nV früher dran sein wird? Aha.

:| Huh? Du schließt von dem chinesischen Retail Preis auf EU? Wie hoch sind Einfuhrzoll und Steuern in China? Um wieviel ist der Renmimbi ggue dem USD kuenstlich unterbewerted? (=billiger Export/teurer Import)

Du hast recht. Natürlich nur ein grober Anhaltspunkt.

Toppas:-)
2007-10-30, 14:38:13
;5981055']Da Nvidia mit dem G100 200 oder wie der auch immer heißt wieder früher antanzen wird, sehe ich da wieder das Problem der Marktübersättigung...

Das AMD/ATI wieder so einen Erfolgschip bastelt der an den R300 anknüpfen kann, kann ich mit der Erfahrung der letzten "Gpus"s bezweifeln.

Das mag sein, das gleiche sagte man von nv aber auch vor einem Jahr und haben uns sowie ATI damals doch sehr überrascht die GTX mit der Perfomance einer GX2 zu zeigen. Also unmöglich ist nichts....
Aber ich denke es geht glaub ich erstmal eher um einen Chip der per Design dazu in der Lage ist, mit wenig Aufwand (Kosten) flexibel auf den den verschiedenen Märkten anspassen kann. Hier wäre diesen Muli-mini-Chip -Konzept doch sehr genau das.
halt nicht wies gerade ist, das man für Midrange gewisse Einheiten deaktiviert, sondern einfach nicht an den Hauptchip dransetzt.
Hier ist es dann nur eine Frage, ob sie Genial genug sind das in den Griff zu bekommen, so das am Ende halt zumindest oberes Mitrange vorhanden ist.
Ein flexibels Mehrchip-Design (vorrausgesetzt man löst alle Busprobleme und Handling,Taktraten ect.), wäre dazu einfacher in der Lage dann zu reagieren.
Ein Respin wäre dann auch einfacher mögliche, da man sich nicht wie jetzt ein ganzen Chip vornhmen muß, sondern nur den entsprechenden Mini-Chip der logischerweise weniger Transitoren hat die man unter den Hut bekommen muß.
Aber warten wirs mal ab was wirklich kommt...

Mag sein das einer immer schneller ist als der Andere was die Presentation einer neuen GPU betrifft, wichtiger ist aber eigendlich eher wie Ausgereift der Chip dann wirklich ist. Und hier hat beim ATI man eherlich NV unterschätzt, sowohl was die vorraussichtliche Performance betrifft sowie in der Leitungsaufnahme. Ich denke ATI ging da eher von 30-50% aus, als von 100% Mehrleistung. Sowas kann man nicht mit einem single-Chip-Design einfach wieder kurz ausbügeln, man konzentrierte sich eher dann auf das gute Produzieren dann als auf einen Perfomancekampf.

Bokill
2007-10-30, 15:43:51
... NVs Marktanteile waren die ganze Zeit bis zum Q3 2006 nicht höher als die, welche ATi heute hat. Der Verlust der Grafiksparte von AMD betrug im letzten Quartal lächerliche 3mio $, trotz sinkender Marktanteile und schlechten Produkten. Ich denke AMD wird bald froh sein, dass man ATi hat. Eine Ergänung zu meinem Beitrag (http://www.forum-3dcenter.org/vbulletin/newreply.php?do=newreply&p=5980819), wegen der Marktanteile.

Man darf aber auch nicht vergessen, dass derzeit Wirtschaftswachstum angesagt ist. Was passierte, wenn der PC-Markt derzeit nicht mit etwa 15 Prozent wüchse und der Grafikmarkt derzeit sogar mit 18 Prozent?

AMD hat sogar so gesehen noch Glück gehabt, dass die Verluste durch halbwegs hohe Gesamtnachfrage nicht noch höher ausgefallen sind.

Ich sehe die AMD-Bemühungen etwas zwiegespalten, kostengünstig zu produzierende GPUs auf den Markt zu werfen. Die RV630 scheint mir zwar unter dem Gesichtspunkt Preis/Leistung/Strombedarf/Wärme konkurrenzfähig ...

Jedoch treibt der Grafikchipmarkt vor allem die Technik an. Wer da keinen High-End bietet, der kann an zukünftigen Standards weniger mitreden. Zur Zeit sind viele Spieleentwickler bereitwilliger für Nvidia-GPUs einen verdaulichen Code zu schreiben, als für ATI/AMD.

In wie weit die Next-Gen-Konsolen ATI, oder Nvidia bestücken werden ist auch noch nicht klar, oder? Auch hier werden Standards festgeklopft für die wirtschaftliche Zukunft.

MFG Bobo(2007)

Blacksoul
2007-10-30, 15:56:50
Ich gehe eher davon aus, dass der R700 den Fortbestand von ATI-Grafikchips sichern wird.

Man baut nur einen Chip, von dem aber mehrere auf einem PCb untergebracht werden. So kann man leicht ein Highend liefern, obwohl man nur einen Chip im Midrange hat.


mfg Nakai


Eben, 3dfx war mit dem Konzept ja auch ziemlich erfolgreich.
Darum würde ich AMD aus dem High-End auch noch nicht streichen.


t.b.d

Gast
2007-10-30, 16:11:59
Hier wird definitiv der R7xx wieder vorne mitspielen, sofern NV nicht wieder so ein Wunderchip gelingt.


Unwahrscheinlich, dass der R700 wieder vorne mitspielt weil einfach kein Geld für dessen Entwicklung da ist.

DrFreaK666
2007-10-30, 16:13:33
Unwahrscheinlich, dass der R700 wieder vorne mitspielt weil einfach kein Geld für dessen Entwicklung da ist.

Woher willst du das wissen?
3DFX hat es damals vermasselt.
Aber ich denke, dass ATI/AMD mehr Kohle zur Verfügung haben

robbitop
2007-10-30, 16:22:40
Ich gehe eher davon aus, dass der R700 den Fortbestand von ATI-Grafikchips sichern wird.

Man baut nur einen Chip, von dem aber mehrere auf einem PCb untergebracht werden. So kann man leicht ein Highend liefern, obwohl man nur einen Chip im Midrange hat.


mfg Nakai
Ja das höre ich jetzt hier schon seit Langem. Frage: wie willst du das umsetzen? Bezahlbar.

robbitop
2007-10-30, 16:26:19
Unwahrscheinlich, dass der R700 wieder vorne mitspielt weil einfach kein Geld für dessen Entwicklung da ist.

Wuzz? Hat ATI etwa die Ingenieure entlassen und die Simulatoren verkauft? Wenn nicht, sitzen die denn jetzt alle im Büro und drehen Däumchen?
Natürlich entwickeln die eine GPU, wie sie vorher auch welche entwickelt haben und es NV auch tut.
Entwicklungskosten sind einfach die Fixen und Variablenkosten, die bei in der Entwicklungszeit für und im Zusammenhang mit einer GPU-Familie angefallen sind.
Oder denkst du die müssen dafür extra irgendwo Cash ausgeben? Die zahlen halt die normalen Kosten, dass der Laden läuft. Wie jede Firma.

Der R600 war ein "Ausrutscher", ein Konzept, was an den heutigen Games etwas vorbei ging, geplagt durch ein paar Designbugs. Als NV das mal passiert ist, war das noch deutlich schlimmer.

Coda
2007-10-30, 16:28:13
NV ist gegen Intel praktisch nur ein Reissack der gerade umfällt.
Das ist unglaublicher Blödsinn. Eine Firma die es schafft einen Logikchip mit 780 Mio. Transistoren zu entwerfen mit Full-Custom-Design-Logik für Shader-ALUs - Sprich: Mehrere hundert Mannjahre Entwicklung - wird bloß durch Geld das Intel hat nicht auf einmal wegradiert.

Intel hat ganz einfach das Problem, dass die richtig guten Leute momentan bei ATi und nVIDIA sitzen, und ich denke nicht, dass die so einfach gehen. Da steckt zu viel Herzblut drin, zudem werden die Verträge wohl so sein, dass man nicht einfach abwandern darf.

Gast
2007-10-30, 16:33:33
Als NV das mal passiert ist, war das noch deutlich schlimmer.

Das ist Nv aber niemals passiert. Und komm jetzt nicht mit der GF FX, die ist genau das, als was sie designed wurde.

AnarchX
2007-10-30, 16:33:38
Ja das höre ich jetzt hier schon seit Langem. Frage: wie willst du das umsetzen? Bezahlbar.

Eine paralle Verbindung mit ~100GB/s sollte doch reichen um vielleicht beide Ringbusse zu verbinden, womit dann beide Chips doch theoretisch ihre SIs zu einem koppeln könnten?

robbitop
2007-10-30, 16:33:49
Intel ist nicht grundlos mit PVR ins "Bett" gestiegen. (Die Leute bei PVR sind ebenso erstklassig wie die Leute bei AMD/NV) Bleibt die Frage, ob Intel wirklich diskrete GPUs anbieten will. So viel Geld wie mit CPUs ist damit ja nicht zu verdienen. Die Produktlebenszyklen und die Risiken bei jeder Entwicklung sind mörderisch und das damit verbundene Know How.

robbitop
2007-10-30, 16:34:08
Das ist Nv aber niemals passiert. Und komm jetzt nicht mit der GF FX, die ist genau das, als was sie designed wurde.
Bullshit.
Eine paralle Verbindung mit ~100GB/s sollte doch reichen um vielleicht beide Ringbusse zu verbinden, womit dann beide Chips doch theoretisch ihre SIs zu einem koppeln könnten?

Klar und als nächstes fliege ich in den Urlaub zum Mars. Entsprechende Spaceshuttles kann man sich ja koofen. Sorry für die Polemik. Ich will sehen, dass man sowas bezahlbar hinbekommt.

AnarchX
2007-10-30, 16:37:07
Klar und als nächstes fliege ich in den Urlaub zum Mars. Entsprechende Spaceshuttles kann man sich ja koofen. Sorry für die Polemik. Ich will sehen, dass man sowas bezahlbar hinbekommt.
Dann kläre uns doch bitte auf, was du für bezahlbar halten würdest in 2008 bzw. 2009.

robbitop
2007-10-30, 16:40:26
Dann kläre uns doch bitte auf, was du für bezahlbar halten würdest in 2008 bzw. 2009.
Das Problem mit Verdrahtungen ist, dass sie nicht billiger werden. Oder nicht signifikant. Deshalb wird bsw ein 512 bit SI immer teuer sein. Die Taktraten würden sich zwar mit der Zeit erhöhen, der Bandbreitenbedarf für die Interconnects dann aber auch. Insofern glaube ich kaum, dass sowas mittelfristig kommen wird. (ich habe etwas ähnliches ja letztens zum Thema eDRAM in Konsolen ausgeführt)

Ich halte diesen Multi-Core Hokus Pokus für Utopie. Was meinst du, warum man bis heute (über ein Jahrzehnt nachdem sowas mal am Consumermarkt war) noch bei AFR/SFR steckt? Sicher nicht, weils so toll ist.

reunion
2007-10-30, 16:49:31
Klar und als nächstes fliege ich in den Urlaub zum Mars. Entsprechende Spaceshuttles kann man sich ja koofen. Sorry für die Polemik. Ich will sehen, dass man sowas bezahlbar hinbekommt.

Im Endeffekt weiß doch niemand von uns wie viel das konkret kostet, bzw. ob ein solcher Chip realistisch ist. Fakt ist, dass Xenos schon 2005 eine Verbindung zwischen Shadercore und eDRAM/ROPs auf dem Package hatte, welche immerhin 32GB/s erreichte. Also nicht ganze Potenzen unter den wohl erforderlichen >100Gb/s. Falls AMD tatsächlich darauf abzieht, und darauf deuten einige Aussagen hin, wird die Entwicklung in dieser Hinsicht sicher nicht stehen geblieben sein. Zumal ebenso Fakt ist, dass ein Konsolenchip vorallem eins sein muss, nämlich möglichst billig. Bei einem Desktopchip wäre da sicher auch schon 2005 weit mehr Bandbreite drin gewesen. Klar ist es ein weitreichender Schritt, aber zumindest kategorisch ausschließen würde ich es nicht.

robbitop
2007-10-30, 16:51:47
32 GiB/s ist aber ne andere Dimension als x*100 GiBs und gleich mehrere Interconnects (mit ganz anderen Latenzanforderungen!)
Und billig war dieser kram in der 360 sicher nicht. (ich tippe dort auf ein 512 bit breiten Bus mit 500 MHz)

Gast
2007-10-30, 16:56:47
Bullshit.



Interessantes Argument, könntest du das näher erläutern?
Und wenn du keine Argumente mehr hast, könntest du dann bitte einfach die Finger still halten?

reunion
2007-10-30, 17:07:48
32 GiB/s ist aber ne andere Dimension als x*100 GiBs und gleich mehrere Interconnects (mit ganz anderen Latenzanforderungen!)
Und billig war dieser kram in der 360 sicher nicht. (ich tippe dort auf ein 512 bit breiten Bus mit 500 MHz)

Ich würde eine Verbindung zwischen Shadern und ROPs nicht als Latenzunkritisch bezeichnen. Die Latenzen scheinen also nicht das große Problem zu sein, zumindest ist mir keine Kritik an einer zu langsamen Verbindung bekannt. So teuer kann das in der 360er auch nicht gewesen sein, immerhin muss MS das Ding nichtmal mehr subventionieren - und da steckt mehr drin als nur ein Grafikchip. Das 32Gb nicht gleich >100Gb sind, ist klar, nur erstens wird man auch hier im Vergleich zu 2005 Vorteile erzielt haben, und zweitens: Wer sagt eigentlich, das man immer und überall mehrere 100GB/s braucht? Bei Xenon reichen ja offensichtlich auch 32GB/s. Wenn man an möglichst unkritischen Stellen trennt, könnte man IMO durchaus auch mit weniger auskommen.

Coda
2007-10-30, 17:18:52
Bleibt die Frage, ob Intel wirklich diskrete GPUs anbieten will.
Wollen sie. Larrabee zielt genau darauf ab.

So viel Geld wie mit CPUs ist damit ja nicht zu verdienen.
Wird immer mehr. Die Unterhaltungsindustrie ist jetzt schon der treibende Faktor bei der Entwicklung zukünfitger Prozesse. Wofür sonst brauchst du so dicke CPUs und GPUs?

Das ist Nv aber niemals passiert. Und komm jetzt nicht mit der GF FX, die ist genau das, als was sie designed wurde.
Die GeForce FX hatte auch viele Respins und diverse Temperaturprobleme. Da lief auch vieles offenbar nicht so optimal.

Ich würde eine Verbindung zwischen Shadern und ROPs nicht als Latenzunkritisch bezeichnen. Die Latenzen scheinen also nicht das große Problem zu sein, zumindest ist mir keine Kritik an einer zu langsamen Verbindung bekannt. So teuer kann das in der 360er auch nicht gewesen sein, immerhin muss MS das Ding nichtmal mehr subventionieren - und da steckt mehr drin als nur ein Grafikchip. Das 32Gb nicht gleich >100Gb sind, ist klar, nur erstens wird man auch hier im Vergleich zu 2005 Vorteile erzielt haben, und zweitens: Wer sagt eigentlich, das man immer und überall mehrere 100GB/s braucht? Bei Xenon reichen ja offensichtlich auch 32GB/s. Wenn man an möglichst unkritischen Stellen trennt, könnte man IMO durchaus auch mit weniger auskommen.
Multichip hat überhaupt nichts mit der Verbindung von Renderfront- und Backend zu tun. Ein reines Multichip-Design ist nur so zu machen, dass alle Chips über einen Speichercontroller/Arbitter gehen. Allerdings wäre die Bandbreite wohl wirklich aufteilbar.

Nächstes Problem ist wie du die Rechenleistung überhaupt auf die Chips aufteilen willst. AFR fällt ja wohl raus. SFR halte ich aufgrund der Render-To-Texture-Probleme usw. auch für sehr problematisch, vor allem ist das mit dem Bandbreite teilen dann auch wieder Ad-Acta zu legen.

Bleibt ein Arbitter der auch einen auf Rasterizer/Dispatcher macht. Dann sind Latenzen aber mit ganz großer Sicherheit ein Problem. Zudem spart man mit dem ganzen Multichip-Zeug übrigens keinen Strom unter Last. Im Gegenteil. Ein Übergang eines Signals aus dem Chip raus ist um Magnituden energiehungriger.

HOT
2007-10-30, 17:25:46
[...]
Ich halte diesen Multi-Core Hokus Pokus für Utopie. Was meinst du, warum man bis heute (über ein Jahrzehnt nachdem sowas mal am Consumermarkt war) noch bei AFR/SFR steckt? Sicher nicht, weils so toll ist.
MultiCore auf einem PCB/Träger, volle Zustimmung. Ich denke aber, dass ein vollständig modulares Design mit einem entsprechenden internen Crossbar+direkt angebundenes Speicherinterface+L3 Cache durchaus die Zukunft im Grafikchipmarkt bedeuten könnte. Man entwickelt einen Kern für alle Lebenslagen und verbastelt den so oft man will ein einem Stück Silizium. Im CPU Bereich perfektioniert AMD ja grade diese Technologie (sogar mit Spilt Power Plane :D). Zumindest bei AMD macht eine solche Entwicklung Sinn, weil die Technologie für sowas ja schon aufwändig entwickelt wurde. Wie NV weiterhin vorgeht ist ja vollkommen unklar.

robbitop
2007-10-30, 17:27:53
Interessantes Argument, könntest du das näher erläutern?
Und wenn du keine Argumente mehr hast, könntest du dann bitte einfach die Finger still halten?
Dinge die schon tausend mal durchgekauft und argumentiert worden sind, habe ich keine Lust das nochmal durchzukauen (zu mal es OT ist). Ich empfehle dir, ein paar Artikel und SDKs durchzulesen.

MultiCore auf einem PCB/Träger, volle Zustimmung. Ich denke aber, dass ein vollständig modulares Design mit einem entsprechenden internen Crossbar+direkt angebundenes Speicherinterface+L3 Cache durchaus die Zukunft im Grafikchipmarkt bedeuten könnte.

Wie meinst du das? In einem Kern? Da ist man doch heute schon sehr modular.

Gast
2007-10-30, 17:28:17
[Multichip hat überhaupt nichts mit der Verbindung von Renderfront- und Backend zu tun. Ein reines Multichip-Design ist nur so zu machen, dass alle Chips über einen Speichercontroller/Arbitter gehen. Allerdings wäre die Bandbreite wohl wirklich aufteilbar.
Bloede Frage: waere es theoretischerweise nicht moeglich zwei Chips an einen einzelnen Ringdingsbumms zu koppeln? Da ja durch den Wegfall der Crossbar sowieso keine direkte Verbindung mehr besteht, muesste das doch moeglich sein, oder?

mrt_
2007-10-30, 17:28:34
32 GiB/s ist aber ne andere Dimension als x*100 GiBs und gleich mehrere Interconnects (mit ganz anderen Latenzanforderungen!)
Und billig war dieser kram in der 360 sicher nicht. (ich tippe dort auf ein 512 bit breiten Bus mit 500 MHz)
Sowas auf dem Package zu machen ist eigentlich nicht teuer. Das Problem sind eher die technischen Grenzen, die Latenzen erhöhen sich ja gewaltig wenn ein Chip auf den Speicher des anderen zugreifen will und dagegen hilft nur mehr Cache und intelligentes Prefetching und beides zahlt sich bei GPUs nicht so aus, da man mit den dabei verbrauchten Transistoren anders mehr Leistung erzielen kann.

mrt_
2007-10-30, 17:33:16
[
Bloede Frage: waere es theoretischerweise nicht moeglich zwei Chips an einen einzelnen Ringdingsbumms zu koppeln? Da ja durch den Wegfall der Crossbar sowieso keine direkte Verbindung mehr besteht, muesste das doch moeglich sein, oder?
Wie willst du das machen? Direkt verbinden = no go, über eigenes Interface ists zwar Möglich, nur sind die Latenzen dann auch nicht mehr das wahre ;)

Nakai
2007-10-30, 17:34:13
Das ist unglaublicher Blödsinn. Eine Firma die es schafft einen Logikchip mit 780 Mio. Transistoren zu entwerfen mit Full-Custom-Design-Logik für Shader-ALUs -
Sprich: Mehrere hundert Mannjahre Entwicklung - wird bloß durch Geld das Intel hat nicht auf einmal wegradiert

Blödsinn?
Vergleich mal die Umsätze von Intel und NV. Achja wer spricht denn von sofort?
Wenn NV weiterhin GPUs produziert und nicht das Produktsspektrum erweitert, seh ich da wenig Zukunft.
Intel muss nun wegen dem ATI-Kauf seitens AMD selber eine Grafiksparte eröffnen.

Intel hat einen 2 TFlop-Chip mit 100 Millionen Transistoren geschaffen. Polaris war zwar eher für Demonstrationszwecken gedacht, aber umsonst wird da nie etwas gemacht.

Selbst wenn bei Intel die Grafiksparte floppen würde, wäre das nur ein Standbein. Intel hat den 3 fachen Gewinn wie NV Umsatz macht...


mfg Nakai

robbitop
2007-10-30, 17:36:46
Sowas auf dem Package zu machen ist eigentlich nicht teuer. Das Problem sind eher die technischen Grenzen, die Latenzen erhöhen sich ja gewaltig wenn ein Chip auf den Speicher des anderen zugreifen will und dagegen hilft nur mehr Cache und intelligentes Prefetching und beides zahlt sich bei GPUs nicht so aus, da man mit den dabei verbrauchten Transistoren anders mehr Leistung erzielen kann.
Für 100 GiB/s bräuchte man locker mal nen 2048 Bit breiten Bus mit angebrachten Taktraten. Das will ich sehen. Latenzen sind natürlich noch viel schlimmer.
Texturen laden wäre nicht das problem. Die sind ja vorrausschaubar. Aber Framebufferzugriffe...wie willst du die prefetchen und groß cachen? Und Vertexbufferzugriffe?

mrt_
2007-10-30, 17:43:56
Für 100 GiB/s bräuchte man locker mal nen 2048 Bit breiten Bus mit angebrachten Taktraten. Das will ich sehen. Latenzen sind natürlich noch viel schlimmer.
Texturen laden wäre nicht das problem. Die sind ja vorrausschaubar. Aber Framebufferzugriffe...wie willst du die prefetchen und groß cachen? Und Vertexbufferzugriffe?
Kurze Verbindungen auf dem Substrat kann man schon sehr hoch takten (die Kapazitäten sind ja sehr gering). IMO sollten 512Bit locker reichen, wenn man sich mit den Controllern anstrengt noch weniger.
Völlig unvorhersehbar sind Framebufferzugriffe ja nicht, man kann immer im Code vorschnüffeln, das ganze geht bei Grafik eigentlich besser als bei allerwelts Code, nur besitzen die entsprechende Logik eigentlich nur CPUs. Es macht auch keinen Sinn bei GPUs so einen riesen Aufwand zu betreiben.

Gast
2007-10-30, 17:55:12
Edit: CPUs durch JIT Compiler ersetzen :-O. Das könnte dann ja der Treiber übernehmen und für dynamische Sprünge (sofern sie mal benützt werden) kann man ja auch Branch Prediction einbaun, die entsprechene Logik haben aber nur CPUs...
Rest weiter oben, hatte da einen aussetzer :)

StefanV
2007-10-30, 18:45:53
Dann kläre uns doch bitte auf, was du für bezahlbar halten würdest in 2008 bzw. 2009.
Sag du uns doch mal, wie du das hinbekommen willst?!

Selbst HT 3.0 ist noch MEILENWEIT von den durchaus benötigten 100GB/sec entfernt.

Wie mans dreht und wendet, wirklich gut (=effizient) kann man Multichip nicht hinbekommen...

robbitop
2007-10-30, 19:19:25
Kurze Verbindungen auf dem Substrat kann man schon sehr hoch takten (die Kapazitäten sind ja sehr gering). IMO sollten 512Bit locker reichen, wenn man sich mit den Controllern anstrengt noch weniger.
Völlig unvorhersehbar sind Framebufferzugriffe ja nicht, man kann immer im Code vorschnüffeln, das ganze geht bei Grafik eigentlich besser als bei allerwelts Code, nur besitzen die entsprechende Logik eigentlich nur CPUs. Es macht auch keinen Sinn bei GPUs so einen riesen Aufwand zu betreiben.
Rund 4 GHz bräuchte man dann dafür. Sorry aber das halte ich sogar als Laie für Utopie.

SpielKind
2007-10-30, 19:39:43
Rund 4 GHz bräuchte man dann dafür. Sorry aber das halte ich sogar als Laie für Utopie.

hmm habsch da was falsch gelesen, es ging doch irgendwie warum auch immer um 100GB/sec(100*2^30)byte?
dafür reichen doch bei 512bit auch ~1,7Ghz und bei Übertragung mit beiden Taktflanken auch ~850Mhz, mal einen eventuellen overhead bei seite gelassen wie auch latenzen und alles dem nutzen dient.

robbitop
2007-10-30, 19:46:23
Es ging um ein 256 bit SI (oder weniger). Beide Taktflanken zu nutzen, weiß ich jetzt nicht, ob das so einfach geht.
So oder so ist das nötige SI zu breit und/oder zu hoch getaktet, damit man das bezahlbar in Serie machen kann.

Was spart man damit? Ein paar Tapeouts und ein bisschen an der Designskalierung. Dafür handelt man sich mit diesem Kram allerdings großen Ärger ein.

Klar... mit der Zeit steigen die Möglichkeiten dafür, jedoch steigt auch mit der Zeit der Bandbreitenbedarf (der "interne").

Gast
2007-10-30, 19:58:06
Selbst HT 3.0 ist noch MEILENWEIT von den durchaus benötigten 100GB/sec entfernt.



IMHO nein.

HT3.0 erreicht bei 2,6GHz pro Richtung 20,8GB/sec (laut wikipedia). Wenn du also 4 chips koppelst und jeder Chip ein 128bit Speicherinterface, 2 HT3-Links und jeder Chip auch noch seinen (beim R600 eingeführten) L2-Cache hat dann sollte das ganze schon möglich sein.

Jeder der 4 Chips ist dann mit insgesamt 2x41,6 GB/sec (1x41,6GB/sec senden; 1x41,6GB/sec empfangen) mit den beiden Nachbarchips verbunden.

Wenn du dir das Bild vom R600 noch mal anschaust und du den 1024bit großen Internen Bus (mit 1024x742 = ~95GB/sec) zwischen den 4 "docks" aufschneidest und durch jeweils 1 HT3 Interface ersetzt erhältst du das was mir für den R700 vorschwebt.


Manfred

robbitop
2007-10-30, 20:04:59
Ich glaube, manche Leute träumen einfach nur gern. ;)

mrt_
2007-10-30, 20:28:59
Rund 4 GHz bräuchte man dann dafür. Sorry aber das halte ich sogar als Laie für Utopie.
Da hast du natürlich vollkommen Recht. Mein Überschlagsrechnung im Kopf war leider falsch. Sorry 512 (bzw 2x256) wirds schon brauchen, die gehen aber. ;)
Wie gesagt das Verdrahten auf dem Substrat ist spottbillig nur die Probleme die das machen kann und deren Lösungen sind dann teuer.
IMO werden wir mittelfristig auch nicht mehr als 2 GPUs auf einer Platine sehen im High End. Vielleicht rentiert sich der Aufwand in der Zukunft mal, dran glauben tu ich nicht, ausschließen aber auch nicht ;)

PCGH_Carsten
2007-10-30, 20:29:24
Eben, 3dfx war mit dem Konzept ja auch ziemlich erfolgreich.
3dfx war so lange erfolgreich, wie sie keine ernsthafte Konkurrenz hatten; danach haben sie leider sehr schnell die Hufe hochgerissen, weil sie durch ihr Konzept (üble Zungen behaupteten "if it's crap, don't fix it - just add more bloody chips") nicht schnell genug mit der Entwicklung Schritt halten konnten.

Wollen sie. Larrabee zielt genau darauf ab.
Sagt Intel oder die Photoshop-Jobs der Intel-Folien beim Inquirer?
Ich glaube, Larrabee zielt auf den "External Accelerator" Markt ab; man will AMDs Fusion nicht allein das Feld überlassen. Nicht auszudenken für Intel, wenn AMD plötzlich eine zusätzliche schnell und gut angebundene Recheneinheit hätte, die je nach Einsatzgebiet austauschbar ist.

Es ging um ein 256 bit SI (oder weniger). Beide Taktflanken zu nutzen, weiß ich jetzt nicht, ob das so einfach geht.
So oder so ist das nötige SI zu breit und/oder zu hoch getaktet, damit man das bezahlbar in Serie machen kann.
Was hältst du denn von dem Konzept der externen ROPs (XBox 360) an sich? :)

robbitop
2007-10-30, 20:33:29
Was hältst du denn von dem Konzept der externen ROPs (XBox 360) an sich? :)
Sehr viel! (Noch mehr, wenns in einem DIE sein wird)
Es ist eine gute Möglichkeit, die Konsole mit der Zeit billiger zu machen:

-breite SIs werden nicht billiger (aufgrund des Verdrahtungsaufwandes und der PCB Kosten)
-eDRAM hingegen wird durch Shrinks billiger

So konnte man für Texturen, Vertexbuffer und für den Hauptspeicher ein 128 bit SI nehmen, ohne die GPU oder andere Komponenten zu bremsen. Die bandbreitenaufwändigen und häufigen Framebufferzugriffe werden ja herrlich durch den eDRAM abgefangen.
Noch besser fände ich einen TBDR in einer Konsole. So würde man sich unter Umständen noch den Z-Buffer sparen und man bräuchte weniger eDRAM oder man könnte mehr mit dem vorhandenen eDRAM machen.

PCGH_Carsten
2007-10-30, 20:38:22
Und warum wären größere Latenzen bei einer fiktiven Multi-GPU-Karte (mit darauf ausgelegten Einzel-GPUs!) so ein großes Problem? :)

robbitop
2007-10-30, 20:43:31
Und warum wären größere Latenzen bei einer fiktiven Multi-GPU-Karte (mit darauf ausgelegten Einzel-GPUs!) so ein großes Problem? :)
Weil die Pipes sonst stallen :)
Es gibt genug latenzkritische Vorgänge in GPUs, bei denen man die daten wirklich ASAP braucht. (Sachen aus dem L1 oder L2 Cache z.B )

Coda
2007-10-30, 20:55:07
Sagt Intel oder die Photoshop-Jobs der Intel-Folien beim Inquirer?
Sagt Intel.

Coda
2007-10-30, 20:57:11
Vergleich mal die Umsätze von Intel und NV.
Das lässt darüber keine Aussage zu. AMD hat auch nur einen Bruchteil davon.

Know-How lässt sich nicht immer kaufen.

Bokill
2007-10-30, 21:05:50
Das Problem mit Verdrahtungen ist, dass sie nicht billiger werden. Oder nicht signifikant. Deshalb wird bsw ein 512 bit SI immer teuer sein. Die Taktraten würden sich zwar mit der Zeit erhöhen, der Bandbreitenbedarf für die Interconnects dann aber auch. Insofern glaube ich kaum, dass sowas mittelfristig kommen wird. (ich habe etwas ähnliches ja letztens zum Thema eDRAM in Konsolen ausgeführt) ... Was ist "SI", was ist "ASAP"?

Und was Verdrahtung angeht, da wird demnächst sehr wohl eine Verbilligung anstehen. Jedenfalls was die Bounding-Technologie angeht. IBM hat eine bleifreie Fortentwicklung (http://www.orthy.de/index.php?option=com_content&task=view&id=5078&Itemid=86) ihres weltweit lizensierten C4, alias "Flip Chip" Bounding, nicht nur angekündigt, sondern auch auf einer seriennahen Fertigunsglinie im Einsatz.

Das verspricht 2008 nicht nur bleifreie Boundigtechnologie, sondern C4NP soll auch billiger und schneller als das bisherige C4-Packaging sein. Die Fertigungspartner von IBM werden als nächste nach IBM selber diese Technologie lizensieren/nutzen können. Das das so kommen wird, liegt auch an der RoHS-Initiative der EU.

MFG Bobo(2007)

robbitop
2007-10-30, 21:06:06
Wobei AMD von Intel R&D und Fertigungsmäßig zur Zeit über den Haufen gefahren wird. Irgendwann musste das ja mal kommen. Die haben ne Größenordnung mehr von allem.

PCGH_Carsten
2007-10-30, 21:06:27
Weil die Pipes sonst stallen :)
Es gibt genug latenzkritische Vorgänge in GPUs, bei denen man die daten wirklich ASAP braucht. (Sachen aus dem L1 oder L2 Cache z.B )
Bei tausenden Threads, an denen inzwischen weitergearbeitet werden kann?

Sagt Intel.
Vermutlich aber nur in streng geheimen Entwicklerkreisen, sodass du kein PDF oder eine Interview-Quelle zur Hand hast, die du nennen darfst? :)

Bokill
2007-10-30, 21:12:05
Wobei AMD von Intel R&D und Fertigungsmäßig zur Zeit über den Haufen gefahren wird. Irgendwann musste das ja mal kommen. Die haben ne Größenordnung mehr von allem. Nicht der Wettkampf AMD vs Intel ist das Fertigungstechnologie-Duell, sondern IBM (+Partner) vs Intel vs Rest Halbleiterindsutrie.

AMD ist fast bedeutungslos, bzw. ist im Entwicklungsboot von IBM drin. AMD muss aber immer noch die Fertigungsanlagen selber finanzieren können. Das ist derzeit wieder ein Problem von AMD.

MFG Bobo(2007)

robbitop
2007-10-30, 21:13:53
Was ist "SI" und "ASAP"?
"Speicherinterface" und "As soon as possible"


Und was Verdrahtung angeht, da wird demnächst sehr wohl eine Verbilligung anstehen. Jedenfalls was die Bounding-Technologie angeht. IBM hat eine bleifreie Fortentwicklung (http://www.orthy.de/index.php?option=com_content&task=view&id=5078&Itemid=86) ihres weltweit lizensierten C4, alias "Flip Chip" Bounding, nicht nur angekündigt, sondern auch auf einer seriennahen Fertigunsglinie im Einsatz.

Das verspricht 2008 nicht nur bleifreie Boundigtechnologie, sondern C4NP soll auch billiger und schneller als das bisherige C4-Packaging sein. Die Fertigungspartner von IBM werden als nächste nach IBM selber diese Technologie lizensieren/nutzen können. Das das so kommen wird, liegt auch an der RoHS-Initiative der EU.

MFG Bobo(2007)

Also Samsung und Chartered. Ich bleib dabei. Ich sehe vorerst kein Multicore für GPUs kommen.
Alles andere will ich sehen. ;)

Coda
2007-10-30, 21:14:00
Vermutlich aber nur in streng geheimen Entwicklerkreisen, sodass du kein PDF oder eine Interview-Quelle zur Hand hast, die du nennen darfst? :)
http://arstechnica.com/news.ars/post/20070604-clearing-up-the-confusion-over-intels-larrabee-part-ii.html

StefanV
2007-10-30, 21:19:19
Ich bleib dabei. Ich sehe vorerst kein Multicore für GPUs kommen.
Alles andere will ich sehen. ;)
So wie G80? ;)
Wobei AMD von Intel R&D und Fertigungsmäßig zur Zeit über den Haufen gefahren wird. Irgendwann musste das ja mal kommen. Die haben ne Größenordnung mehr von allem.
Ja und an dieser Stelle sei nochmal der von IBM gefertigte nV4irgendwas in den Raum geschmissen...

robbitop
2007-10-30, 21:22:19
So wie G80? ;)
Was ist mit dem G80?

Ja und an dieser Stelle sei nochmal der von IBM gefertigte nV4irgendwas in den Raum geschmissen...
Ja diese Art Verbilligung werden andere auch erfahren. Dennoch ist es Utopie solche Busse auf einem Package zu erwarten. Schon gar nicht von heute auf morgen.

StefanV
2007-10-30, 21:38:46
Was ist mit dem G80?
Kann man durchaus als Multi CHip bezeichnen.
Gut, Xenos wär ein besseres Beispiel...

Ja diese Art Verbilligung werden andere auch erfahren. Dennoch ist es Utopie solche Busse auf einem Package zu erwarten. Schon gar nicht von heute auf morgen.
WAs hat diese Aussage mit meinem Posting zu tun?!
Du weißt sicherlich, das der nV4irgendwas bei iBM gewaltig in die Hose gegangen ist?!

robbitop
2007-10-30, 21:44:18
Kann man durchaus als Multi CHip bezeichnen.
Gut, Xenos wär ein besseres Beispiel...
1. haha
2. ist das noch ne ganz andere Größenordnung


WAs hat diese Aussage mit meinem Posting zu tun?!
Du weißt sicherlich, das der nV4irgendwas bei iBM gewaltig in die Hose gegangen ist?!
Das ist am Thema vorbei.

PCGH_Carsten
2007-10-30, 21:48:55
http://arstechnica.com/news.ars/post/20070604-clearing-up-the-confusion-over-intels-larrabee-part-ii.html
Ars ist natürlich eine seriöse Quelle im Gegensatz zum Inquirer. Glücklicherweise habe ich noch das Original der dort genannten Präsentation und darin steht tatsächlich etwas von "Discrete high end GPU on general purpose platform". Ich sehe Intel trotzdem nicht im "Graphics..." sondern im "General Processing Unit" Markt mit Larrabee. :)

AnarchX
2007-10-30, 21:58:34
Aber der Speicherkontroller im R6xx mit der vollständigen Verteilung der einzelnen Ringstops/Speicherkanäle bietet sich imo doch für Multi-Die-Designs an und man sollte sich hier auch wieder die Frage stellen wofür ATi überhaupt diesen Weg gegangen ist.

Und nachwievor sehe ich auch den Einsatz von Multi-Die im High-End-Segment, eben basierend auf zwei Performance-GPUs, wo eigentlich Mitte 2008 bzw. erst 2009 ein entsprechender Interconnect möglich sein sollte, wie schon erwähnt gab es 2005 schon im einem kosteneffizienten Konsolendesign ein 32GB IC.;)

PCGH_Carsten
2007-10-30, 22:04:01
Ich würde insbesondere das eDRAM des Xenos nicht als Referenz für mögliche PC-Technologie hernehmen. Dazu ist sein Nutzen viel zu speziell für die Konsolenumgebung angepasst.

- Größe ausreichend für 4xAA in 480p
- Größe ausreichend für 4x AA in 720p inkl. Tiling (4 separate Passes)

Bei einem PC müsste die Größe des eDRAM auf mindestens 2.560x1.600 mit 8x MSAA auslegen. Selbst mit Tiling - was AFAIK explizit vom Spiel unterstützt/angefordert werden muss - wären das Dutzende von Megabyte.

robbitop
2007-10-30, 22:25:43
eDRAM ist IMO nur für Konsolen wirklich sinnvoll (und auch wirtschaftlich).

Gast
2007-10-30, 22:44:03
Warum schreibt Firing Squad folgendes:
The Radeon HD 2000 series cards aren't capable of running Unreal Tournament 3 with AA (and other games like UT3 based on the Unreal Engine 3 game engine),

Quelle:
http://www.firingsquad.com/hardware/nvidia_geforce_8800_gt_performance/page11.asp

Aktuelles Treiberproblem oder muss UT3 an DX10.1 angepasst werden damit die HD Serie auch AA bietet in UT3?

AnarchX
2007-10-30, 23:12:00
ATi hat momentan eben noch nicht so einen Hack, der MSAA unter D3D9 in der UE3 ermöglicht.

Coda
2007-10-30, 23:19:48
Ars ist natürlich eine seriöse Quelle im Gegensatz zum Inquirer. Glücklicherweise habe ich noch das Original der dort genannten Präsentation und darin steht tatsächlich etwas von "Discrete high end GPU on general purpose platform". Ich sehe Intel trotzdem nicht im "Graphics..." sondern im "General Processing Unit" Markt mit Larrabee. :)
Das ist in Zukunft sowieso das gleiche. Ein G80 ist auch nichts anderes als ein Streamprozessor + Texture-Units, Rasterizer und Dispatcher. Die Rechenleistung bekommt Intel mit ihren Prozessen ohne weiteres hin, und wenn sie das Know-How für den Rest von ImgTec haben, dann sind sie gut aufgestellt.

eDRAM ist IMO nur für Konsolen wirklich sinnvoll (und auch wirtschaftlich).
Das Problem ist, dass man wohl so ca. 512MiB eDRAM brauchen würde damit man die heutigen Auflösungen bis 2560x1600 mit AA abdecken könnte. Und dann hat man die ganzen Render-To-Texture-Sachen noch nicht mit drin.

Das könnte in 5 Jahren aber machbar sein. Von daher kommt's eventuell doch noch.

AnarchX
2007-10-30, 23:28:43
In 5 Jahren soll aber laut NVs Ansicht ein Enthusiast schon einen 3840x2400-Bildschirm haben, zudem scheinen beide IHVs wohl auch künftig vermehrt auf Multi-Bildschirm-Gaming zu setzen.;)

robbitop
2007-10-30, 23:41:10
Das Problem ist, dass man wohl so ca. 512MiB eDRAM brauchen würde damit man die heutigen Auflösungen bis 2560x1600 mit AA abdecken könnte. Und dann hat man die ganzen Render-To-Texture-Sachen noch nicht mit drin.

Das könnte in 5 Jahren aber machbar sein. Von daher kommt's eventuell doch noch.
In 5 Jahren brauchen wir dann aber ca 4 GiB VRAM. Oder willst du nur den Framebuffer in den eDRAM packen? Mit nem TBDR könnte man sich u.U. immerhin den Z-Buffer sparen.

up¦²
2007-10-31, 02:38:28
We already knew RV670 will become HD 3850 and HD 3870. According to some comments, we now fully understand what's the name HD 38X0 stands for:

HD3870(RV670XT):core/memory: 800MHz/2400MHz,512MB GDDR4,suggested retail price: CNY2299(307.5 USD)

HD3850(RV670Pro):core/memory: 700MHz/1800MHz,256MB GDDR3,suggested retail price: CNY1699(227.3 USD)

And the only driver now support RV670 is Catalyst 7.11 which AMD-ATI just hand out to his partners about two weeks ago. According the info we knew earlier, the RV670 have 320Steam processor,256bit memory interface, UVD and PCIe Gen2.

http://www.expreview.com/news/hard/2007-10-30/1193719352d6668.html

Nebenbei:
http://www.intel.com/products/motherboard/DX38BT/index.htm
Full support of next generation ATI Crossfire

Ailuros
2007-10-31, 05:51:58
Das ist in Zukunft sowieso das gleiche. Ein G80 ist auch nichts anderes als ein Streamprozessor + Texture-Units, Rasterizer und Dispatcher. Die Rechenleistung bekommt Intel mit ihren Prozessen ohne weiteres hin, und wenn sie das Know-How für den Rest von ImgTec haben, dann sind sie gut aufgestellt.

Ist zwar alles OT aber das letztere klang etwas merkwuerdig; IMG hat ganze IP cores lizenziert und nicht ein paar Einheiten und nein Intel kann auch nicht nach belieben dass was ihnen gerade passt aus dem IP ausschlachten und einfach so benutzen.

Ausser Du meintest natuerlich was anderes; nebenbei wenn Intel wirklich in den mainstream gaming Markt eindringen will haben sie sicher den Grips eine GPU auf SGX basierend zu beantragen. Sony hat auch einen Vertrag mit NVIDIA fuer 3D cores, hat ihre eigene Entwicklungsschmiede dennoch vermarkten sie momentan ein "Playstation-Handy" worauf komischerweise PowerVR demos vorgezeigt werden. Man hat ja auch NOKIA als direkte Konkurrenz.


Das Problem ist, dass man wohl so ca. 512MiB eDRAM brauchen würde damit man die heutigen Auflösungen bis 2560x1600 mit AA abdecken könnte. Und dann hat man die ganzen Render-To-Texture-Sachen noch nicht mit drin.

Das könnte in 5 Jahren aber machbar sein. Von daher kommt's eventuell doch noch.

Weiss der Geier was es fuer Alternativen in 5 Jahren geben koennte. Simon von PowerVR verlinkte auf B3D vor Tagen auf ein hoechstinteressantes Patent fuer ein hybrides MS/SSAA stochastisches motion blur Dingsbums. Ich kann zwar nicht wissen ob das Zeug problemlos laeuft, aber der benoetigte HW-Aufwand fuer volle Beschleunigung soll nach Entwicklern relativ klein sein und die Idee klingt mir als Laie ziemlich gut.

Ja Haeuser wie Pixar wenden etwas raytracing an (wie erwaehnt im anderen Thread) aber auch eine eigene (patentierte) ziemlich kluge AA/temporal-AA Methode.

In 5 Jahren brauchen wir dann aber ca 4 GiB VRAM. Oder willst du nur den Framebuffer in den eDRAM packen? Mit nem TBDR könnte man sich u.U. immerhin den Z-Buffer sparen.

Nicht nur; deferred shading und deferred texturing. Kombiniert man die Ersparnisse hier mit dem was ein DR fuer AA braucht, kann ich schwer verdauen dass die entgueltige Rechnung fuer den Display-list-Verbrauch nicht eher in Richtung TBDR schwenkt.

Gast
2007-10-31, 09:04:44
Vielleicht könnte man mal den Thread splitten. 90% der Postings auf den letzten 3 Seiten drehen sich um NVIDIA und Intel.

An sonsten: Nach allem was man bisher so hört ist ein RV670XTX ja deutlich langsamer als eine Geforce 8800GT. Ich bin mal gespannt in wieweit sich das in den nächsten Tagen und Wochen ändert oder bestätigt.

Gast
2007-10-31, 11:41:29
In 5 Jahren soll aber laut NVs Ansicht ein Enthusiast schon einen 3840x2400-Bildschirm haben, zudem scheinen beide IHVs wohl auch künftig vermehrt auf Multi-Bildschirm-Gaming zu setzen.;)
Eins ist klar, in 5 Jahren hat nV und Amd sehr wahrscheinlich nicht den Single Chip haben, um diesen Anforderungen gerecht zu werden. Die Grafik an sich wird ja auch schon immer anspruchsvoller. Alleine bis Crysis mit very high in 1600x1200 richtig flüssig laufen wird, könnte dauern. Da braucht's ja schon um die 3 fache Power einer GTX. Wie groß sollen da die Chips werden, wieviel GiB von hochgetaktetem Vram? Das würde Unsummen kosten. Mehrere Chips lösen das Problem der horrenden Kosten auch ned und die Leistungsaufnahme dürfte aberwitzige Formen annehmen.
Denke, dass da in nV Abteilung eher einer etwas gesponnen hat und aufgrund von der jetzigen Entwicklung auf die Zukunft linear hochgerechnet hat. Nach so einer Auffassung würde die Menschheit auch immer größer werden, was aber nicht so ist. Irgendwann stoppt fast jede Entwicklung oder verlangsamt sich.

AnarchX
2007-10-31, 11:54:10
Eins ist klar, in 5 Jahren hat nV und Amd sehr wahrscheinlich nicht den Single Chip haben, um diesen Anforderungen gerecht zu werden.
Davon hatte auch niemand geredet, Enthusiasten werden dann natürlich wie auch heute schon Multi-GPU-Setups einsetzen.
Vielleicht gibt es dann bessere Multi-GPU-Technologien, sodass NV/AMD dann gleich ganz Racks für den Nvidia/AMD Graphics Cluster verkauft, sodass man bis zu 16+ GPUs einsetzen kann, die geschätz dann vielleicht 0.5 PFLOPs leisten.:D

Aber zurück zum Thema:
HD 38x0 top end to sell for $199 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3940&Itemid=34)
In Anbetracht der Leistung der 88GT und der möglichen BOM von RV670-Karten gar nichtmal so unrealistisch...

robbitop
2007-10-31, 11:56:51
Die IHVs müssen sich nur an die Shrinks halten. Dann kann man alle 1-1,5 Jahre seine Transistoranzahl verdoppeln. Das reicht doch. Dann wird sich auch die SW Industrie dran halten. Core2Duo, SLI, und der überproportionalen steigerung der DIE Sizes haben wir diese SW Entwicklung zu verdanken. Die Mainstreamchips hingegen wachsen "nur" mit den Shrinks (also gleiche DIE Sizes) und die geraten immer mehr ins Hintertreffen.
Das gleiche Problem hätte man irgendwann ohne hin auch mit Multicores. Das wäre sozusagen nur ein "stall" für ein paar Jahre.

AnarchX
2007-10-31, 16:21:33
Last up, there is a card named ATI Radeon HD 3870 X2 on the slides that we have seen, with a release date of 'winter'. The non-X2 line has a price listed as $150-250, while the X2 is in the same price point as the 2900XT, or about $400. I guess that would make the X2 two higher end 3870s on a PCB, but that is not specified.
http://www.theinquirer.net/gb/inquirer/news/2007/10/31/atis-numbering-works

Wenn die HD3870 schon $199/$249 kosten soll, dann wäre mehr wohl auch nicht wirklich sinnvoll.
Wobei die AIBs vielleicht auch eigene Versionen mit 2x1GiB anbieten werden, anstatt der Referenz von 2x512MB, für >$400(wohl $499).

Gast
2007-10-31, 17:06:20
Hmm ... is damit der R680 gemeint oder kommt noch etwas auf dem Wege bis zum R700?!

AnarchX
2007-10-31, 17:12:14
Hmm ... is damit der R680 gemeint oder kommt noch etwas auf dem Wege bis zum R700?!

R680 scheint laut aktuellem Kenntnisstand gleich 2xRV670 auf einer Karte zu sein. ATI scheint ihn auch als R680 Dual-Die-Kit zu bezeichnen.

Die Folie in #1 scheint noch aus diesem Frühjahr zu stammen, wo man viellleicht noch einen Single-R680 geplant hatte, der aber mittlerweile aus irgendwelchen Gründen gecancelt wurde.

Wurschtler
2007-10-31, 17:23:01
Wann soll das ATI-Zeug denn jetzt eigentlich kommen?
Speziell der HD2600XT-Nachfolger würde mich interessieren.

AnarchX
2007-10-31, 17:24:21
Wann soll das ATI-Zeug denn jetzt eigentlich kommen?
Speziell der HD2600XT-Nachfolger würde mich interessieren.

RV670XT und Pro im November, der Rest laut letzen Infos wohl im frühen Q1.

Hvoralek
2007-10-31, 17:34:20
HD 38x0 top end to sell for $199 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3940&Itemid=34)
In Anbetracht der Leistung der 88GT und der möglichen BOM von RV670-Karten gar nichtmal so unrealistisch...BOM?

AnarchX
2007-10-31, 17:35:29
BOM?
Bill of materials, also die Kosten der Herstellung.

smockdogx
2007-10-31, 18:25:48
Und wann ungefähr der r700?
Ich will wider ne Ati haben :mad:

laser114
2007-10-31, 21:38:15
The second number, in this case x8xx, connotes Family, and the last two digits, xx70 is the Variant. 70 is equivalent to XT, 50 is the new name for Pro, and 13 is the card from that company you never heard of with the Englishish manual and no web site. Don't buy the 3813.

http://www.theinquirer.net/gb/inquirer/news/2007/10/31/atis-numbering-works

Was erzählt der INC denn da wieder? ;D
Aber naja, mann muss ja die 13 irgendwie herausstellen. :D

3DoMan
2007-11-01, 01:14:09
ops

Gast
2007-11-01, 01:16:39
http://my.ocworkbench.com/bbs/showthread.php?t=67954
Erste Bilder eines Crossfire HD3870XT Gespanns.
Ich hol mir die XT!
Schaue mal aufs Datum. ;)

Nightspider
2007-11-01, 02:05:33
Hallo, tut mir leid wenn ich hier nochnmal fragen muss aber ich will nicht den ganzen Thread durchlesen.

Die neue Radeon 3870 oder so, scheint ja langsamer als die 8800 GT zu sein.

Ich dachte die schnellste 55nm sei diese 3870 und solle eine DualChip Karte sein ?

Wann kommt denn nun die nächste HighEnd Karte von ATI ?

Bokill
2007-11-01, 08:15:54
... Die neue Radeon 3870 oder so, scheint ja langsamer als die 8800 GT zu sein. Sehr wahrscheinlich, ja.

Ich dachte die schnellste 55nm sei diese 3870 und solle eine DualChip Karte sein ? Die HD 3870 scheint eine einzelne RV670 XT zu sein, keine Zwillingskarte mit dem Suffix X2. Es geistern Gerüchte herum, dass die RV680 entweder:
a: Zwillingskarte ist, eventuell sogar als Sockellösung für 2 GPUs,
b: Die RV680 als Paket mit zwei Karten zusammen verkauft wird,
c: [...]

Wann kommt denn nun die nächste HighEnd Karte von ATI ? Das sind an sich zwei Fragen.

1. Entweder zu fragst, wann denn die ersten RV670 Karten erscheinen ... Diese Frage ist berechtigt, aber derzeit kaum zu beantworten.

ATI hat ja eine grosse Meisterschaft in diesem Jahr errungen Karten anzukündigen und ewig lange faktisch gar nichts zu liefern (verzögerter R600-Start, verschleppter Marktstart der RV610 und RV630). Mir persönlich nutzen Testberichte nichts von Vaporware, ich will harte Fakten auf den Ladentheken sehen.

2. Oder du fragst, wann eine Karte zu erwarten ist, die die Spitzenprodukte von Nvidia in vielen Belangen schlagen, bzw. wenigstens in Augenhöhe ist.

Diese Frage ist derzeit nur mit einer Glaskugel, oder einer Wahrsagerin deiner Wahl zu beantworten. Echtes High End kann AMD/ATI spätestens seit dem R600 derzeit nicht liefern/bieten.

MFG Bobo'(2007)

reunion
2007-11-01, 09:35:09
Die neue Radeon 3870 oder so, scheint ja langsamer als die 8800 GT zu sein.


Wenn am Chip selbst nichts verbessert wurde, ja. Allerdings spricht ja AMD von verbesserter AA-Leistung, erhöhter AF-Qualität, D3D10.1-Features, etc. pp. Also abwarten.

2. Oder du fragst, wann eine Karte zu erwarten ist, die die Spitzenprodukte von Nvidia in vielen Belangen schlagen, bzw. wenigstens in Augenhöhe ist.

Diese Frage ist derzeit nur mit einer Glaskugel, oder einer Wahrsagerin deiner Wahl zu beantworten. Echtes High End kann AMD/ATI spätestens seit dem R600 derzeit nicht liefern/bieten.

MFG Bobo'(2007)

Naja, so eine Dual-RV670-Karte wird zumindest eine 8800Ultra locker schlagen, die Frage ist was von nV kommt. Der G92 scheint auf 4 ROP-Cluster und damit auf ein 256-bit SI begrenzt zu sein. Glaube kaum das dieser den G80 ersetzt.

robbitop
2007-11-01, 09:38:26
Das Ding ist ein 8C Chip. Wenn der auf 4 ROP Partitionen beschränkt ist, fress ich nen Besen. Besonders bei dem Transistorbudget.
Von 'ner GX2 hat man ja nun auch schon einiges gelesen.
Ich glaube kaum, dass NV mit der G80 Architektur ggü der R6xx noch irgendwas anbrennen läßt.

reunion
2007-11-01, 09:46:30
Das Ding ist ein 8C Chip. Wenn der auf 4 ROP Partitionen beschränkt ist, fress ich nen Besen. Besonders bei dem Transistorbudget.


Ja, finde ich auch seltsam. Aber zumindest die neue GTS kommt auch mit 512MB VRAM und damit mit einem 256-bit SI. Und einschlägige Quellen Sprechen mittlerweile von nur 4 physikalisch vorhandenen ROP-Clustern. Aber warten wir ab.

Winter[Raven]
2007-11-01, 09:55:10
Es gibt noch nichtmal halbwegs glaubwürdige Spekulationen, wann die nächsten Generation kommen soll, und du weißt schon, dass nV früher dran sein wird? Aha.


Ich werd dich auf dieses Posting zu dem Zeitpunkt nochmal hinweisen...

reunion
2007-11-01, 10:04:15
;5986466']Ich werd dich auf dieses Posting zu dem Zeitpunkt nochmal hinweisen...

Du spekulierst ins blaue und hoffst, dass du recht behältst. Nein, darauf brauchst du mich nicht hinweisen. Nicht mal AMD und nV wissen jetzt, wann ihre nächste Generation genau kommen wird.

Ailuros
2007-11-01, 10:14:42
Nicht mal AMD und nV wissen jetzt, wann ihre nächste Generation genau kommen wird.

Mit "naechster Generation" meint ihr beiden wohl hoffentlich nicht die zukuenftigen D3D11 GPUs oder? Wenn Ihr Euch auf den naechsten high end Schub fuer 2008 bezieht, koennen beide jetzt schon einschaetzen wann X oder Y auf die Regale kommen koennte und natuerlich stets "wenn alles nach Plan laeuft". Wenn aber nicht alles nach Plan laufen sollte, dann haengt es davon ab wie hoch das Risiko fuer X oder Y ist und stets im Zusammenhang mit dem Herstellungsprozess und zur angezielten Taktrate.

Brennende Frage zum obrigen: gibt es irgendwelche Anzeichen bis jetzt dass die GDG Abteilung von AMD ihre generelle Strategie geaendert hat? Oder hast Du irgendwas gehoert dass andeutet dass NV's "naechste Generation" auf 45nm und 1000/3000MHz ankommen soll?

Winter[Raven]
2007-11-01, 10:22:00
Mit "naechster Generation" meint ihr beiden wohl hoffentlich nicht die zukuenftigen D3D11 GPUs oder?

Naja, ich habe mich schon auf die Gxxx / R700 Generation bezogen, ich weiß es ist und bleibt eine "Spekulation" aber ich kanns mir vorstellen, dass Nvidia da wieder schneller antanzen wird.

AnarchX
2007-11-01, 10:26:26
Wobei R7xx noch D3D10.1 sein sollte und für Mitte 2008 spekuliert wird.

G100, welcher wohl schon D3D11 unterstützen wird, würde ich nicht vor Q4 vermuten, wo dann R7xx@45nm auch veröffentlich werden soll.

Und wieder mal etwas zum Topic:
RV670PRO to sell for $179 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3962&Itemid=34)
RV670XT to end up 20+ percent slower (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3961&Itemid=34)

up¦²
2007-11-01, 10:31:37
Bitte sehr! :smile:
http://we.pcinlife.com/thread-840859-1-1.html#zoom

Adam D.
2007-11-01, 10:31:59
Wär dann von Namensschema echt 'n Witz, wenn die 3870 dermaßen böse gegen die 8800GT verliert :usad:

_DrillSarge]I[
2007-11-01, 10:32:33
Wobei R7xx noch D3D10.1 sein sollte und für Mitte 2008 spekuliert wird.

G100, welcher wohl schon D3D11 unterstützen wird, würde ich nicht vor Q4 vermuten, wo dann R7xx@45nm auch veröffentlich werden soll.

Und wieder mal etwas zum Topic:
RV670PRO to sell for $179 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3962&Itemid=34)
RV670XT to end up 20+ percent slower (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3961&Itemid=34)
179 dollar? sind ja nur um die 130€ :eek: das ist mal für die gebotene leistung billig
€: nach aktuekkem kurs nur knapp über 124€ :eek:

PCGH_Carsten
2007-11-01, 10:34:31
Aber zurück zum Thema:
HD 38x0 top end to sell for $199 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3940&Itemid=34)
In Anbetracht der Leistung der 88GT und der möglichen BOM von RV670-Karten gar nichtmal so unrealistisch...
512 MiByte GDDR4 und ein Doppelslot-Kühler dürften stärker auf die BOM drücken, als AMD lieb ist.


Naja, so eine Dual-RV670-Karte wird zumindest eine 8800Ultra locker schlagen, ...
Ja, in Situationen, welche Crossfire liegen und wo die vermutlich 512 MiByte (pro Chip) VRAM ausreichen. Für eine schöne Marketing-Präsentation ist das genug, aber auch, um die "Enthusiasten" zu überzeugen?

AnarchX
2007-11-01, 10:41:00
512 MiByte GDDR4 und ein Doppelslot-Kühler dürften stärker auf die BOM drücken, als AMD lieb ist.
Naja, im Endeffekt hat man aber immernoch einen wohl sehr günstigen Die und die AIBs werden wohl eigenen Lösungen basteln. Und der verbaute GDDR4 ist ja auch eher Low-End-GDDR4.
Wird man sehen müssen, vielleicht gibt es ja wieder eine FUD-Präsentation von NV, wo man die BOM erfährt, wie bei HD2400.

I[;5986564']179 dollar? sind ja nur um die 130€ :eek: das ist mal für die gebotene leistung billig
€: nach aktuekkem kurs nur knapp über 124€ :eek:
Aber wohl nur die 256MB-Version, imo.

_DrillSarge]I[
2007-11-01, 10:42:38
Aber wohl nur die 256MB-Version, imo.
ich finde das sehr günstig. wenn man sich jetzt mal die sub 200€ dx10 karten anschaut, bekommt man einfach das grauen

dargo
2007-11-01, 10:45:14
I[;5986564']179 dollar? sind ja nur um die 130€ :eek: das ist mal für die gebotene leistung billig
€: nach aktuekkem kurs nur knapp über 124€ :eek:
So kannst du nicht rechnen. Bei Grafikkarten nehme ich immer den Umrechnungfaktor von 1,15-1,20. Sogesehen bist du mit ca. 150€ dabei.

reunion
2007-11-01, 10:49:33
I[;5986594']ich finde das sehr günstig. wenn man sich jetzt mal die sub 200€ dx10 karten anschaut, bekommt man einfach das grauen

Ja, zumindest in diesem Segment hat AMD mit dem RV670 natürlich klare Vorteile, da nV mit ihrem >300mm² Die wohl kaum unter den Preis der 8800GT gehen wird und ein 8600GTS-Nachfolger noch auf sich warten lässt.

Ailuros
2007-11-01, 11:01:44
Wobei R7xx noch D3D10.1 sein sollte und für Mitte 2008 spekuliert wird.

G100, welcher wohl schon D3D11 unterstützen wird, würde ich nicht vor Q4 vermuten, wo dann R7xx@45nm auch veröffentlich werden soll.


Fuer wann ist denn momentan die D3D11 Vorstellung von Microsoft projeziert? ;)

Ailuros
2007-11-01, 11:04:49
Ja, in Situationen, welche Crossfire liegen und wo die vermutlich 512 MiByte (pro Chip) VRAM ausreichen. Für eine schöne Marketing-Präsentation ist das genug, aber auch, um die "Enthusiasten" zu überzeugen?

Das AMD Treiber-Team konzentriert sich in letzter Zeit hauptsaechlich auf groessere CF-Leistungssteigerungen. Ein Zufall kann das nicht gerade sein.

AnarchX
2007-11-01, 11:04:56
Fuer wann ist denn momentan die D3D11 Vorstellung von Microsoft projeziert? ;)

2009 AFAIK doch, aber die Frage ist natürlich wann in diesem Jahr.;)

Also bist du der Meinung, dass NV wohl im Q3-Q4 2008 vielleicht erstmal noch eine D3D10.1 High-End-Lösung präsentiert?

Das AMD Treiber-Team konzentriert sich in letzter Zeit hauptsaechlich auf groessere CF-Leistungssteigerungen. Ein Zufall kann das nicht gerade sein.
Nur können diese auch nicht aus 512MiB mehr machen...
Imo wird es wohl hier AIBs geben,die 1GiB Versionen für vielleicht ~$499 bringen werden.

Ailuros
2007-11-01, 11:18:24
2009 AFAIK doch, aber die Frage ist natürlich wann in diesem Jahr.;)

Also bist du der Meinung, dass NV wohl im Q3-Q4 2008 vielleicht erstmal noch eine D3D10.1 High-End-Lösung präsentiert?

Glaubst Du ich blicke bei dem Wirrwarr noch durch? Ich will erstmal ernsthaft bezweifeln dass M$ es mit Vienna frueher als H2 2009 schafft, ergo ist es durchaus logisch eine weitere high end Loesung bis dahin zu erwarten.

Nur können diese auch nicht aus 512MiB mehr machen...
Imo wird es wohl hier AIBs geben,die 1GiB Versionen für vielleicht ~$499 bringen werden.

Also wenn G92 tatsaechlich in jeglicher Form auch das high end Segment bedienen sollte, sieht es mir nicht unbedingt nach einer anderen Geschichte aus. 512 oder 1024MB Speicher dann eventuell.

Ailuros
2007-11-01, 11:35:59
Ja, zumindest in diesem Segment hat AMD mit dem RV670 natürlich klare Vorteile, da nV mit ihrem >300mm² Die wohl kaum unter den Preis der 8800GT gehen wird und ein 8600GTS-Nachfolger noch auf sich warten lässt.

AMD wird ihre RV670 Preise der finalen Leistung im Vergleich zum jeweiligen G92 anpassen; aehnliches passierte auch beim R600 nur sah ich persoenlich da trotz kleinerem die keine besonderen Vorteile.

Waere die Leistung und der Preis gleich bei um einiges kleineren die, dann waere natuerlich der Unterschied gigantisch.

PCGH_Carsten
2007-11-01, 12:48:17
Naja, im Endeffekt hat man aber immernoch einen wohl sehr günstigen Die und die AIBs werden wohl eigenen Lösungen basteln. Und der verbaute GDDR4 ist ja auch eher Low-End-GDDR4.
Ja, der Die ist vermutlich ziemlich günstig - wobei modernere Prozesse IMO auch mehr pro Wafer kosten bei TSMC - und auch die Leistungsaufnahmen scheint den geleakten Infos nach top zu sein. GDDR4 sehe ich aber immer noch ziemlich problematisch: Ist denn der böse Lieferengpass schon überwunden? Und wieviel komplexer wird das PCB für ordentliche Signale bei den höheren Taktraten ausfallen?

Die 8800 GT könnte einen formidablen Konkurrenten bekommen, der sogar noch deutlich günstiger ist.

Das AMD Treiber-Team konzentriert sich in letzter Zeit hauptsaechlich auf groessere CF-Leistungssteigerungen. Ein Zufall kann das nicht gerade sein.
Ja, ein Spiel nach dem anderen. Aktuell kommen sie anscheinend nichtmal bei den Neuerscheinungen hinterher - Nvidia ebenfalls nicht (überall... -> Crysis-Demo).

Solange dieser Zustand sich bei beiden nicht grundlegend ändert, sehe ich wenig Chancen für echte Akzeptanz von Multi-GPU-Karten im High-End.

PCGH_Carsten
2007-11-01, 12:51:40
JnV mit ihrem >300mm² Die
Waren das nichtmal 289mm²?

reunion
2007-11-01, 13:21:22
Waren das nichtmal 289mm²?

Ja, waren es mal. Inzwischen gibt es allerdings mehrere Messungen, die von einem deutlich größeren Die ausgehen. B3D spricht von 17.5 x 18mm: http://www.beyond3d.com/content/news/517

Andere maßen noch mehr:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0710%2 F1135586.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

AnarchX
2007-11-01, 13:28:23
Waren das nichtmal 289mm²?
Ich hatte gehofft, ihr hätte auch mal gemessen.;)

Jedenfalls wie reunion schon schrieb wurden mittlerweile schon 300-330mm² gemessen, wobei laut NV-Folie er nur 17.9mm ^ 2 groß sein soll und vermuten lässt, dass man hier wohl nicht richtig (inkl. Lötmasse) gemessen hat.

Bokill
2007-11-01, 14:00:55
... Naja, so eine Dual-RV670-Karte wird zumindest eine 8800Ultra locker schlagen, die Frage ist was von nV kommt. Der G92 scheint auf 4 ROP-Cluster und damit auf ein 256-bit SI begrenzt zu sein. Glaube kaum das dieser den G80 ersetzt. Örks ...

Da bemühe ich exakt zu schreiben ... und da war wieder eine Hintertür offen ... ;)

Nein, es sollte meinen Glauben beschreiben, dass ATI derzeit als Karten mit Einzel-GPUs kein High-End liefern kann.

Im Prinzip könnte Nvidia ebenso Zwillingskarten stricken, nur um damit ganz oben zu stehen.

Die RV670 halte ich aber derzeit für eine gesunde Mischung aus Sparsamkeit (Strom, Hitze) und wird vermutlich auch in der Chip- und Kartenherstellung billiger/günstiger sein, als ihre Stammvater R600.

Es kann doch nicht sein, dass man an den Kühl-"Blechen" ... das sind eher "Panzerplatten" ... einer R600 Eier Garkochen kann.

MFG Bobo(2007)

laser114
2007-11-01, 15:49:55
Waren das nichtmal 289mm²?

Ja, dachte ich auch. Inzwischen scheint aber auch eine andere Größe öfter wiederholt zu werden. Eine weitere Info wäre nett. ;)

Hvoralek
2007-11-01, 16:57:24
Im Prinzip könnte Nvidia ebenso Zwillingskarten stricken, nur um damit ganz oben zu stehen.Wieso "könnte"? Die haben das ja schon einmal gemacht.

Wobei ich mal auf die Taktraten einer angenommenen RV670- X2 gespannt bin (Ich persönlich rechne aber immer noch eher mit einem 55-nm- High- End- Einzelchip irgendwann 1H 2008). Wenn die nicht deutlich unter denen der 3870 liegen, hätte man schnell wieder einen ähnlichen Stromverbrauch wie bei der 2900 XT :ugly:

AnarchX
2007-11-01, 17:30:52
AFAIK:
2x750MHz, 210W TDP

reunion
2007-11-01, 17:37:42
RV670 leaves 8800GT in dust in VC1 playback:

http://www.fudzilla.com/images/stories/2007/November/rv670v.jpg

http://www.fudzilla.com/index.php?option=com_content&task=view&id=3986&Itemid=1

Adam D.
2007-11-01, 18:06:00
Jo, ist zwar schön und gut, aber ich kauf mir nicht primär so 'ne Karte, um Filme zu gucken. Wir brauchen Benchmarks ;)

pest
2007-11-01, 18:17:47
Jo, ist zwar schön und gut, aber ich kauf mir nicht primär so 'ne Karte, um Filme zu gucken. Wir brauchen Benchmarks ;)


Our sources have confirmed that RV670XT, the card that might be called Radeon HD 3870, should end up more than twenty percent slower than the 8800GT 512MB at its default clock.


Hm...

Adam D.
2007-11-01, 18:21:01
Fud hat zwar ab und zu leicht richtige Ansetze, aber ihn als Quelle für Benchmark-Ergebnisse zu nehmen, grenzt an Gotteslästerung :usad:

pest
2007-11-01, 18:24:56
might und should relativieren das Ganze

Nakai
2007-11-01, 18:27:07
2x750MHz, 210W TDP

Mittlerweile bezweifle ich diese Zahlen.

Ich sehe es hierbei ähnlich Geforce8800 GTX gegen R600 von der Performance her. Jedoch steht AMD diesmal nicht so mies da.


mfg Nakai

Die_Allianz
2007-11-01, 18:27:54
Fud hat zwar ab und zu leicht richtige Ansetze, aber ihn als Quelle für Benchmark-Ergebnisse zu nehmen, grenzt an Gotteslästerung :usad:

andererseits:
wenn die RV670 die 8800GT in Benches platt machen würde, warum sollte ATI/AMD sie dann zurückhalten?
Man sieht ja das die Kunden schon alle die 8800GT aus den Regalen reißen!

Zusehen dabei tut nur, wer selbst nichts zu bieten hat.
für _mich_ sieht es im Moment so aus, als hätte A/A erneut eine runde verloren.

aber manche hoffen ja noch

Adam D.
2007-11-01, 18:29:36
Wenn die Karte gute Leistung bietet, wirklich für die 199$ an den Start geht, 'nen ordentlichen Lüfter drauf hat, dann muss sie die 8800GT nicht schlagen. Langsamer, aber günstiger passt. IMO macht diese Aussage aber keinen Sinn, man nennt doch seinen "langsamen" Nachfolger net 3870 :|

andererseits:
wenn die RV670 die 8800GT in Benches platt machen würde, warum sollte ATI/AMD sie dann zurückhalten?
Man sieht ja das die Kunden schon alle die 8800GT aus den Regalen reißen!

Zusehen dabei tut nur, wer selbst nichts zu bieten hat.
für _mich_ sieht es im Moment so aus, als hätte A/A erneut eine runde verloren.

aber manche hoffen ja noch
Das hatten wir hier schon einige Male. Generell hat das nix zu sagen. Schau mal in die CPU-Speku-Threads, da wurde das 1000x diskutiert. Ich wurde auch eines besseren belehrt, war auch lange Zeit Vertreter deiner Position ;)

Ailuros
2007-11-01, 20:27:19
1+1=2

Man leakt natuerlich nur die Resultate ins Netz bei denen man weiss dass man Vorteile haben wird und dazu sowieso nicht mehr mit so bruellenden Unterschieden wie bei den vorigen GPUs.

2560*1600 ist zwar eine nette Aufloesung, aber wer zum Henker wuerde einen so suendhaft teuren Bildschirm an ein System mit einer Performance GPU haengen?

3DoMan
2007-11-01, 21:40:59
Wenn die Karte gute Leistung bietet, wirklich für die 199$ an den Start geht, 'nen ordentlichen Lüfter drauf hat, dann muss sie die 8800GT nicht schlagen. Langsamer, aber günstiger passt.

Sehe ich genauso. Wenn die HD3870 mit gescheitem Doppelslotkühler daher kommt und dann auch noch gleich oder weniger als die 8800GT kostet, so ist sie für mein kommendes HTCP (LAN) Gehäuse allererste Wahl.
Auch vermute ich mal, das die HD3870 merklich weniger unter Idle verbrauchen wird, als die 8800GT.
Weiter muss ich zugeben, mit steigender Auflösung macht die intensive Nutzung von Anti-Aliashing nicht mehr so viel Sinn, ich konnte das erst wieder bei Crysis unter 1680x1050 feststellen, wo der Unterschied zwischen No-AA 2AA oder 4AA marginal bis (2AA zu 4AA) nicht mehr festellbar war auf meinem 22 Zöller. Ergo: Für 1680x1050 langt absolut 2AA kombiniert mit 8AF. Darüber hinaus verbraucht man nur extrem viel Leistung, aber der optische Zugewinn ist sehr bescheiden.
Nicht zu vergessen: DX10.1.

Gast
2007-11-01, 21:43:58
Hat der RV670 auch überarbeitetes AF? Oder immer noch R580 Niveau? Bringt er etwas mehr TMU Power mit als der R600?

Henroldus
2007-11-01, 21:54:46
Sehe ich genauso. Wenn die HD3870 mit gescheitem Doppelslotkühler daher kommt und dann auch noch gleich oder weniger als die 8800GT kostet, so ist sie für mein kommendes HTCP (LAN) Gehäuse allererste Wahl.
Auch vermute ich mal, das die HD3870 merklich weniger unter Idle verbrauchen wird, als die 8800GT.
Weiter muss ich zugeben, mit steigender Auflösung macht die intensive Nutzung von Anti-Aliashing nicht mehr so viel Sinn, ich konnte das erst wieder bei Crysis unter 1680x1050 feststellen, wo der Unterschied zwischen No-AA 2AA oder 4AA marginal bis (2AA zu 4AA) nicht mehr festellbar war auf meinem 22 Zöller. Ergo: Für 1680x1050 langt absolut 2AA kombiniert mit 8AF. Darüber hinaus verbraucht man nur extrem viel Leistung, aber der optische Zugewinn ist sehr bescheiden.
Nicht zu vergessen: DX10.1.
Mit verlaub, dann hast du aber was an den Augen, mich stört das gekriesel und gezappel selbst auf einem 20 Zöller und ich hab die gleiche Auflösung bei viel feineren Pixeln.
AA ist und bleibt auch in Zukunft Pflicht um einfach Ruhe ins Bild zu bekommen.

Hvoralek
2007-11-01, 21:56:16
Hat der RV670 auch überarbeitetes AF? Oder immer noch R580 Niveau? Bringt er etwas mehr TMU Power mit als der R600?Gewisse Leute wären wohl froh, wenn man ohne AI erst einmal wieder Filterung auf R5xx- Niveau bieten würde :wink:

Mehr Texturleistung wäre sehr wünschenswert, aber bei 666 Mio. Transistoren glaube ich nicht daran.

sklave_gottes
2007-11-01, 22:17:41
Gewisse Leute wären wohl froh, wenn man ohne AI erst einmal wieder Filterung auf R5xx- Niveau bieten würde :wink:

Mehr Texturleistung wäre sehr wünschenswert, aber bei 666 Mio. Transistoren glaube ich nicht daran.


Bischen mehr wird sie aufjedenfall haben. Durch den höheren Takt ;D

Bin Jetzt aber echt gespannt ob der nochmal von 825mhz auf 800mhz oder 775mhz sinkt. Das wäre echt schade und würde eher wieder auf evlt. Probleme mit den Chips hindeuten. Vieleicht senken die auch den Takt um die Chips günstiger(wegen 8800gt) anbieten zu können, weil weniger verschnitt.
Ich habe doch schon bissel bedenken weil letzte zeit viel über weniger Takt geredet wurde. Wenn der 55nm Prozess wirklich so gut geht sollten die 825mhz eigentlich kein Problem darstellen.

Bei 666mio Tr. und <199mm² die, sollten sie den chip aufjedenfall agressiv anbieten. Vorallem rv670@GDDR3 sollte um die 150€ locker Profitabel anzubieten sein. ATI muss jetzt den Erfolg suchen über den Preis, wie beim rv610 den Besten chip zur zeit was das angeht.

mfg martin

3DoMan
2007-11-01, 22:46:45
Mit verlaub, dann hast du aber was an den Augen, mich stört das gekriesel und gezappel selbst auf einem 20 Zöller und ich hab die gleiche Auflösung bei viel feineren Pixeln.
AA ist und bleibt auch in Zukunft Pflicht um einfach Ruhe ins Bild zu bekommen.

Also, das sehe ich nicht so kritisch. Dir ist schon bekannt, das die Treppchenbildung mit steigender Auflösung abnimmt?
2AA unter 1680er Auflösung ist für mich und für viele andere die ich kenne, absolut ausreichend. Die Zeiten sind vorbei, wo ich für ein bisschen mehr Perfomance bis zu 600€ für ne Graka ausgegeben habe:biggrin:
Zur Zeit hab ich im Rechner übrigens nicht die X1650 Pro (meine neue Ersatzkarte), sondern noch ne olle X800GT mit 128MB Vram. Damit zocke ich gerade Half Life 2 mit maximalen Settings unter 1440er Breitbildauflösung mit 2AA und 8AF absolut perfekt (zwischen 40-70 FPS), ich bin selbst fast schon entsetzt, das dies so gut möglich ist, das Bild sind verdammt gut aus!
Die 8800GT in meiner Signatur ersetzt meine schon verkaufte 8800GTS erst am Samstag. Allerdings werde ich in Zukunft nie wieder über 250€ für ne Graka ausgeben. Meine Ansprüche habe ich diesbezüglich etwas nach unten korrigiert. Und siehe da, wenn man nicht gerade das Haar in der Suppe sucht, ist die gebotene Leistung absolut Top!

Der Zugewinn an Bildqualität in hohen Auflösungen durch AA über 2x ist gering, über 4AA kaum noch feststellbar. 4 bis 8AF ist dann auch ausreichend.
Unterm Strich bleibt also bei einem 22Zöller ein min -Auflösung von 1440, 2AA und 8AF, mit solchen Ansprüchen kann man ne ganze Menge Geld sparen und hat kaum einbußen (diese sehen in der Regel geschulte Augen, Leute von der Straße würden wohl kaum etwas bemerken).
Man kann sich auch zwingen, immer einen extremen Unterschied zu sehen (dies ist aber eher psychologischer Natur).

Am witzigsten finde ich aber die Leute, die früher am PC gezockt haben und immer nur mit maximalen Settings und entsprechend überteuerter Hardware zurecht kommen konnten (eine Art Zwang), sich jetzt aber mit Konsolen hoch zufrieden geben (die größtenteils 720p Auflösung bieten und kaum AA oder AF) und über den PC bei jeder Gelegenheit in Foren herziehen.

Gast
2007-11-01, 22:58:14
Also, das sehe ich nicht so kritisch. Dir ist schon bekannt, das die Treppchenbildung mit steigender Auflösung abnimmt?



Sie nimmt natürlich zu und nicht ab. Je höher die Auflösung umso mehr Stufen gibt es.

Gast
2007-11-01, 23:01:08
Ja, mehr Stufen aber dafür feiner, ergo weniger sichtbare Treppchen Stufen^^

3DoMan
2007-11-01, 23:04:13
Ja, mehr Stufen aber dafür feiner, ergo weniger sichtbare Treppchen Stufen^^

So habe ich es gemeint, danke.

Nakai
2007-11-01, 23:04:17
Sie nimmt natürlich zu und nicht ab. Je höher die Auflösung umso mehr Stufen gibt es.

Kennst du SSAA?

Ist in etwa vergleichbar, nur das nicht mehrere Samples für einen Pixel benutzt werden.

mfg Nakai

Gast
2007-11-01, 23:04:22
Unterm Strich bleibt also bei einem 22Zöller ein min -Auflösung von 1440, 2AA und 8AF,

Ieks Interpolation und das am 22" TFT, also das kann nur crappy aussehen...
Warum nur 8xAF, gibt genug Winkel und Bodentexturen bei denen man mit falscher Einstellung ne Fette Bugwelle vor sich herschiebt. Grade G80-G9x haben mehr als genug Filterleistung so dass immer HQ+16xAF aktiv sein muss. Lieber 1680*1050 mit 2x AA als Wischiwaschi 1440*900 und 4xAA, da zerlegste sauber deine Texturen in Brei wenn der TFT interpoliert (hab selber ein 20").

Gmax
2007-11-01, 23:05:38
Wobei R7xx noch D3D10.1 sein sollte und für Mitte 2008 spekuliert wird.

G100, welcher wohl schon D3D11 unterstützen wird, würde ich nicht vor Q4 vermuten, wo dann R7xx@45nm auch veröffentlich werden soll.


Ati täte gut daran, den R7oo noch im Frühjahr zu launchen.
Vielleicht kommt der G1oo schon früher, und Ati stünde wieder ohne ein ordentliches HighEnd Produkt da.

Blacksoul
2007-11-01, 23:07:09
Ieks Interpolation und das am 22" TFT, also das kann nur crappy aussehen...
Warum nur 8xAF, gibt genug Winkel und Bodentexturen bei denen man mit falscher Einstellung ne Fette Bugwelle vor sich herschiebt. Grade G80-G9x haben mehr als genug Filterleistung so dass immer HQ+16xAF aktiv sein muss. Lieber 1680*1050 mit 2x AA als Wischiwaschi 1440*900 und 4xAA, da zerlegste sauber deine Texturen in Brei wenn der TFT interpoliert (hab selber ein 20").

Das Bild lässt sich auch zentrieren. Ohne interpolieren zu müssen.


t.b.d

Nakai
2007-11-01, 23:07:35
Ati täte gut daran, den R7oo noch im Frühjahr zu launchen.

Das ist unnötig, da die HD3870 X2 im Frühjahr kommt. Vor 3.Quartal werden wir keine neuen DX11-Karten sehen.


mfg Nakai

3DoMan
2007-11-01, 23:09:21
Ieks Interpolation und das am 22" TFT, also das kann nur crappy aussehen...
Warum nur 8xAF, gibt genug Winkel und Bodentexturen bei denen man mit falscher Einstellung ne Fette Bugwelle vor sich herschiebt. Grade G80-G9x haben mehr als genug Filterleistung so dass immer HQ+16xAF aktiv sein muss. Lieber 1680*1050 mit 2x AA als Wischiwaschi 1440*900 und 4xAA, da zerlegste sauber deine Texturen in Brei wenn der TFT interpoliert (hab selber ein 20").

Sorry, Brei sieht anders aus:smile:
Die Interpolation meines TFTs ist jedenfalls gut. Aber ich sagte schon einmal: Wer will, und besonders darauf aus ist, kann nicht einmal ohne 8AA und 16AF leben. Gibt solche auch hier im Forum. Ist aber auch gut so:smile:

Crysis habe ich mit 1440er Auflösung (interpoliert) und 2AA + 8AF (über Treiber) meinen Freunden auf ner Lan gezeigt, die waren alle besonders von den Felsen und den Bodentexturen (diese Kieselsteine usw.) angetan (viele sagten, die sehen ja fast schon wie in echt aus). Also kein Brei:smile:

laser114
2007-11-01, 23:09:48
R700 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362858) sollte aber keine DX11-Karte sein.

Gast
2007-11-01, 23:14:08
Ja, mehr Stufen aber dafür feiner, ergo weniger sichtbare Treppchen Stufen^^

Nein, die Stufen werden auch nicht feiner, denn das hängt nur von den DPI des Monitors ab und wer betreibt schon einen TFT in nicht-nativer Auflösung?

3DoMan
2007-11-01, 23:18:02
Nein, die Stufen werden auch nicht feiner, denn das hängt nur von den DPI des Monitors ab und wer betreibt schon einen TFT in nicht-nativer Auflösung?
Also ich kenne viele:smile:. Jedenfalls in Spielen ist die native Auflösung nicht so wichtig, es sei denn du hast nen absoluten Schrott-Monitor. Auf Prad.de gibt es interessannte Tests bezüglich der Interpolation inkl. Beispielbilder. Den Unterschied kannst du mit der Lupe suchen.

Mal ganz nebenbei, jeder HD-ready oder Full-HD Fernseher interpoliert, sofern er kein HDTV Bildmaterial bekommt. Trotzdem sind alle erstaunt, wenn sie die extrem gute Bildqualität meines Sharp HDTVS Fernsehers sehen, obwohl dieser nur ein PAL Signal über eine digitale Sat-Anlage wieder gibt (über RGB) oder mit dem DVD-Player über Componente (und jetzt kommt mir bitte nicht mit DVD-Playern mit HDMI Ausgang, bei solchen Geräten übernimmt halt ein Scaler-Chip im DVD Player das hochskalieren des Bildes, oft ist aber in teuren/aktuelleren HD-Fernsehern der bessere Scaler-Chip verbaut:biggrin:)

robbitop
2007-11-01, 23:30:06
Ich spiele Crysis auch lieber interpoliert. Mein 21" WS hat eine native Auflösung von 1680x1050.
Seit dem ich mittels dem Tweak Highest Details @WinXP gesehen habe, will ich nix mehr runterschalten. Dann verzichte ich lieber auf Auflösung. Meiner Interpolation ist ok. Ich spiele derzeit bei 1280x800. Die feine Geometrie zappelt allerdings ziemlich. Ich hoffe, mir auf der GT dann zusätzlich noch 2xTAA und 8xAF leisten zu können. (TAA und AF wird hoffentlich von NV für Crysis per Treiber nachgeliefert)

In Crysis muss man nunmal heute mit Kompromissen leben.

Henroldus
2007-11-01, 23:56:52
Also ich kenne viele:smile:. Jedenfalls in Spielen ist die native Auflösung nicht so wichtig, es sei denn du hast nen absoluten Schrott-Monitor. Auf Prad.de gibt es interessannte Tests bezüglich der Interpolation inkl. Beispielbilder. Den Unterschied kannst du mit der Lupe suchen.

Mal ganz nebenbei, jeder HD-ready oder Full-HD Fernseher interpoliert, sofern er kein HDTV Bildmaterial bekommt. Trotzdem sind alle erstaunt, wenn sie die extrem gute Bildqualität meines Sharp HDTVS Fernsehers sehen, obwohl dieser nur ein PAL Signal über eine digitale Sat-Anlage wieder gibt (über RGB) oder mit dem DVD-Player über Componente (und jetzt kommt mir bitte nicht mit DVD-Playern mit HDMI Ausgang, bei solchen Geräten übernimmt halt ein Scaler-Chip im DVD Player das hochskalieren des Bildes, oft ist aber in teuren/aktuelleren HD-Fernsehern der bessere Scaler-Chip verbaut:biggrin:)
also du erzählst mist, hier mal ein PRAD-Beispiel für Interpolation:
http://www.prad.de/new/monitore/test/2007/test-hp-w2207-teil11.html#Interpolation
wer da keinen Unterschied sieht dem ist nicht mehr zuhelfen.

Genau, grad Dein HD-Ready Fernseher der ersten Generation(wahrscheinlich noch 42" oder größer) stellt PAL natürlich super da.

Zuspielung gehört digital und nicht über RGB oder Componente!

der Scaler in einem vernünftigen DVD-Player wie dem Denon 1740 interpoliert vielfach besser als der Schrott im TV!

Verbreite hier also bitte keine Unwahrheiten.

Gute Nacht und b2T plz

dargo
2007-11-02, 00:25:47
Ja, mehr Stufen aber dafür feiner, ergo weniger sichtbare Treppchen Stufen^^
Nicht wenn sich das Verhältnis zwischen Bildschirmgröße und Pixeldichte bei natürlich gleichen Abstand zum TFT kaum bis gar nicht ändert. ;)

Sorry, Brei sieht anders aus:smile:
Die Interpolation meines TFTs ist jedenfalls gut. Aber ich sagte schon einmal:
Lol, mit einem interpolierten Bild spielen und dann behaupten zwischen 2xAA und 4xAA sieht man kaum einen Unterschied usw. Ich glaub es hackt. :hammer:

Fetza
2007-11-02, 06:50:07
also du erzählst mist, hier mal ein PRAD-Beispiel für Interpolation:
http://www.prad.de/new/monitore/test/2007/test-hp-w2207-teil11.html#Interpolation
wer da keinen Unterschied sieht dem ist nicht mehr zuhelfen.

Genau, grad Dein HD-Ready Fernseher der ersten Generation(wahrscheinlich noch 42" oder größer) stellt PAL natürlich super da.

Zuspielung gehört digital und nicht über RGB oder Componente!

der Scaler in einem vernünftigen DVD-Player wie dem Denon 1740 interpoliert vielfach besser als der Schrott im TV!

Verbreite hier also bitte keine Unwahrheiten.

Gute Nacht und b2T plz

Öhm, also wenn ich das richtig lese, bescheinigt prad dem getesteten monitor, eine gute bis sehr gute interpolationsfähigkeit. Und wenn wir mal ehrlich sind, sieht das ergebnis auch gut aus. Klar wirkt das bild nicht mehr so scharf, aber spielen könnte ichs so ohne probleme. Besser als das ein game ruckeln würde, finde ich.

3DoMan
2007-11-02, 07:45:33
also du erzählst mist, hier mal ein PRAD-Beispiel für Interpolation:
http://www.prad.de/new/monitore/test/2007/test-hp-w2207-teil11.html#Interpolation
wer da keinen Unterschied sieht dem ist nicht mehr zuhelfen.

Genau, grad Dein HD-Ready Fernseher der ersten Generation(wahrscheinlich noch 42" oder größer) stellt PAL natürlich super da.

Zuspielung gehört digital und nicht über RGB oder Componente!

der Scaler in einem vernünftigen DVD-Player wie dem Denon 1740 interpoliert vielfach besser als der Schrott im TV!

Verbreite hier also bitte keine Unwahrheiten.

Gute Nacht und b2T plz


Kannst du mal erklären, warum ein HD-ready LCD der ersten Generation besonders für PAL gut sein soll? ICh bin zufällig in dieser Branche, jedes PAL Bild wird hochskaliert, sofern man Vollbild haben möchte. Im Prinzip kommt es auf den Scaler Chip an, oft (nicht immer und hab ich auch nie behauptet...) ist der Scaler-Chip in einem guten Fernseher besser, als in den 100€ HDMI DVD-Playern.
LOL, dier ist hoffentlich bekannt, das die Bildinformation auf einer DVD in YUV abgelegt ist, deswegen ist eine Bildübertragung über Componente fast verlustfrei. Es kommt nur noch auf die Scalierung an, wüsste daher nicht, wieso man auf nem DVD-Player unbedingt HDMI braucht, ist eigentlich bei nem guten LCD sinnfrei.
Dann kommen wir noch zum Sat Receiver, sofern du keinen HDTV-Receiver hast, wirst du wohl mit RGB-Bildübertragung leben müssen, egal ob der Receiver sich digital soder sonstwie schimpft. Das Ergebnis kann sich allerdings sehen lassen.
Prinzipiell ist PAL auf ne Auflösung bis maximal 625 (576eff.) Linien und das auch noch interlaced beschränkt, das ist also das Material, das irgendwie gestreckt werden muss, egal ob ein Receiver, HD-Fernseher oder DVD Player.

Also, im Prinzip leben zur Zeit fast alle HDTV Nutzer noch mit interpolierten Bildern und trotdem sind die Menschen damit zufrieden und keiner hat deswegen Augenkrebs bekommen.

3DoMan
2007-11-02, 07:50:04
Nicht wenn sich das Verhältnis zwischen Bildschirmgröße und Pixeldichte bei natürlich gleichen Abstand zum TFT kaum bis gar nicht ändert. ;)


Lol, mit einem interpolierten Bild spielen und dann behaupten zwischen 2xAA und 4xAA sieht man kaum einen Unterschied usw. Ich glaub es hackt. :hammer:

Was willst du mit deinem LOL sagen?
Als ob ein so gewaltiger Unterschied zwischen 1680 zu 1440 ist, das man nur noch Treppchenbildung sieht. Natürlich fahre ich lieber größere Auflösung, statt AA zu erhöhen. Manchmal gehts halt nicht und es stimmt nun mal nicht, das man dann ja ein ach so schlechte Bild hat. Ich bin mir sogar sicher, das von 100 Menschen auf der Straße gerade 2-3 einen Unterschied erkennen. Es ist nun mal so, je mehr man es zulässt voreingenommen und besonders anspruchsvoll zu sein, desto empfindlicher reagiert man auf kleinste Veränderungen.
Ich bin daher froh, das du und deinesgleichen immer das teuerste und neueste habe muss um zufrieden zu sein. Das erhöht den Umsatz und freut die Industrie. Manch einer verdient damit sogar recht gut:wink:

Gast
2007-11-02, 07:54:29
Ich gehe jede Wette ein das ein 1680*1050 Bild von 90% aller Menschen als Schärfer betrachtet wird, als ein 1440*900 Bild das auf 1680*1050 "aufgezogen" wurde. Das AA macht eventuell die Kanten gleich gut aber die Matscherei im Bild...

3DoMan
2007-11-02, 07:59:20
Ich gehe jede Wette ein das ein 1680*1050 Bild von 90% aller Menschen als Schärfer betrachtet wird, als ein 1440*900 Bild das auf 1680*1050 "aufgezogen" wurde. Das AA macht eventuell die Kanten gleich gut aber die Matscherei im Bild...

Nix Matsch, mach doch einfach dem Test auf deinen TFT und dann behaupte noch, es sei ja ach so matschig, das stimmt einfach nicht!

Ich hab auf ner Erwachsenen-LAN:smile: Crysis in 1440 auf meinen 22 Zöller vorgeführt, kein Einziger, wirklich niemand kaum auf die Idee hier von einem Matsch-Bild zu sprechen. Alle waren sie vo dem tollen Bild begeistert und vor allem über die Bodentexturen.

VooDoo7mx
2007-11-02, 08:55:04
Also bei meinen TFT sieht, wie bei fast allen anderen auch, dass interpolierte Bild einfach grauenhaft aus. Hab das auch schon mit verschiedenen Monitoren getestet und mir ist immer sofort die deutlich schlechtere, matschigere Bildqualität ins Auge gesprungen.

Vor kurzen war ich erst in einen Elektronikfachmarkt wo diverse Notebooks zum testen aufgebaut waren. Ich bin flüchtig an den Geräten vorbeigelaufen und hab einen Blick auf alle geworfen. Bei einen ist mir sofort die schlechte Bildqualität (Matsch) des TFTs aufgefallen. Und siehe da, dass fackundige Personal hat es nicht geschafft die native Auflösung des Monitors einzustellen und so ist mir das interpolierte Bild schon nur beim vorbeilaufen aufgefallen.

Und bitte nicht 3dc User mit irgendwelchen Leuten auf irgendwelchen Lan Partys in einen Topf schmeißen. Viele Leute hier haben deutlich geschultere und empfindlichere Augen als ein Durchschnittsspieler der mitunter nicht mal den Unterschied zwischen aktivierten und deaktivierten AF erkennt.
Ich war auch auch mal auf einer Lan Party, wo einige Leute Spiele mit ca 10-15fps spielten und felsenfest der Meinung sind das das Spiel flüssig läuft.

Wenn du mit der interpolierten Qualität deines TFTs zufrieden bist und meinst das es für dich gut ausschaut dann ist das doch super.
Aber bitte nicht das auf alle anderen Leute im 3dc ummünzen wo sich mitunter die Nackenhaare bei einen interpolierten Bild aufstellen.

3DoMan
2007-11-02, 09:12:34
Also kommt mal runter!
Ich sage ja gar nicht das es nicht schlechter ist, aber zwischen "sehr gut" und "Grauenhaft" gibt es noch ein paar ANDERE Stufen.
"Sehr gut" ist zum Beispiel nativ mit maximalen Settings zu spielen.
Deswegen sind andere "Settings" nicht beschissen oder Grauenhaft.

Grauenhaft ist es zum Beispiel mit XGA Auflösung und mit falschen Seitenverhältnis/geringen Details auf nem 22 Zöller zu spielen (gibt es auch).

Graunhaft ist es sich Filme mit VHS (250 Linien) über einen Videorecorder auf einem HD-ready Fernseher anzuschauen.

Grauenhaft ist es einen DVD-Player über Video-Composite an einen HD-Fernseher zu stöpseln.

Und trotz so viel Grauen, sieht man das doch recht häufig (sofern man Kundenumgang hat).

Gewisse Leute sollten einfach akzeptieren, das etwas auch noch gut sein kann, wenn es nicht gerade unter maximalen Settings betrieben wird.

Zum Beispiel halte ich ein interpoliertes Bild mit 1440er Auflösung und guten Settings mit 2AA und 8AF nicht für grauenhaft (kindisch..ts ts), sondern für noch gut! Die Wahrheit ist, das 95% der Menschen dann keinen, bis kaum noch einen Unterschied sehen würden (Jeder der Umgang mit dem normalen Volk da draußen hat, weiss was ich meine).

Noch befriedigend bis ausreichend währe eine 1280er Auflösung mit 4AA und 8AF, mittleren Settings.
Erst ab "mangelhaft" würde ich von grauenhaft reden.

In erster Linie geht es mir darum, das man auch noch Spass an einem Spiel haben kann, ohne immer alles auf Max spielen zu müssen. Es gibt sogar Leute hier im3DC-Forum, die, als sie noch am PC spielten, immer alles auf Max und mit teuerster Hardware spielen musssten, und dann gefrustet irgendwann ins Konsolenlager gewechselt sind, weil der PC ja ach so teuer ist. Jetzt sind komischerweise die gleichen Leute zufrieden mit einer 720p Auflösung mit kaum AA/AF. Verstehen muss man das....

Meiner einer muss übrigens nicht überlegen was er sich leisten kann (wenn ich will hol ich mir jetzt gleich zwei GTXen bei Alternate), ich bin mittlerweile so weit, das ich vorher überlege was ich mir leisten will:biggrin:

VooDoo7mx
2007-11-02, 09:30:27
Also ich spiel lieber auf der nativen Auflösung meines TFTs und verzichte dafür auf AA, AF oder Grafikdetails.
Gut das musste ich mit meiner 8800GTS bisher noch nicht aber Crysis ist der erste Kanidat mal wieder.

James Ryan
2007-11-02, 09:31:42
Zum Beispiel halte ich ein interpoliertes Bild mit 1440er Auflösung und guten Settings mit 2AA und 8AF nicht für grauenhaft (kindisch..ts ts), sondern für noch gut! Die Wahrheit ist, das 95% der Menschen dann keinen, bis kaum noch einen Unterschied sehen würden (Jeder der Umgang mit dem normalen Volk da draußen hat, weiss was ich meine).

Sorry, aber ich bin mir sicher dass jeder "normale" Mensch einen deutlichen Unterschied zwischen interpoliert und nicht interpoliert sehen wird, wenn er den Vergleich hat.
Sehe es so: Du bist mit einem interpolierten Bild zufrieden, der Großteil der 3DCenter-Member jedoch hat andere Qualitätsansprüche.
Die ganze Diskussion ist aber eher Offtopic!

MfG :cool:

Gast
2007-11-02, 10:11:54
Sorry, aber ich bin mir sicher dass jeder "normale" Mensch einen deutlichen Unterschied zwischen interpoliert und nicht interpoliert sehen wird, wenn er den Vergleich hat.
Sehe es so: Du bist mit einem interpolierten Bild zufrieden, der Großteil der 3DCenter-Member jedoch hat andere Qualitätsansprüche.

MfG :cool:

Das sehe ich anders. Unter 2D mag das noch zutreffen, aber unter 3D sicher nicht!
Zum Vergleich: Wenn die beiden TFTs nicht direkt nebeneinander stehen, sondern räumlich getrennt sind, werden wohl 90% keinen Unterschied sehen.

Gast
2007-11-02, 10:14:43
Das sehe ich anders. Unter 2D mag das noch zutreffen, aber unter 3D sicher nicht!
Zum Vergleich: Wenn die beiden TFTs nicht direkt nebeneinander stehen, sondern räumlich getrennt sind, werden wohl 90% keinen Unterschied sehen.

Ja, und dieser kleine Unterschied ist mir keine 300€ Aufpreis wert.

dargo
2007-11-02, 10:20:35
Was willst du mit deinem LOL sagen?
Als ob ein so gewaltiger Unterschied zwischen 1680 zu 1440 ist, das man nur noch Treppchenbildung sieht.

Da ist kein gewaltiger Unterschied solange beides nativ läuft. ;)
Du sprichst aber vom interpolierten Bild. Das ist so, als ob ich einen scharfen TFT mit einer 08/15 CRT Röhre vergleichen würde. :tongue:

Wenn du schon keine so gute Schärfe im Bild hast aufgrund von Interpolation wie willst du dann die Kantenglättungsqualität noch beurteilen? :confused:


Ich bin daher froh, das du und deinesgleichen immer das teuerste und neueste habe muss um zufrieden zu sein. Das erhöht den Umsatz und freut die Industrie. Manch einer verdient damit sogar recht gut:wink:
Ich kaufe nie das teuerste. Ich bleibe immer noch bei meinem 19" TFT, eben aus diesem Grund. ;)

Das Problem an den heutigen (TN) TFTs ist, dass sie extrem günstig sind. Alle kaufen wie bekloppt 22-24" TFTs und dann geht das Gemecker los, dass die Grafikkarte nicht die entsprechende Leistung in der nativen Auflösung bringt. :tongue:

up¦²
2007-11-02, 10:52:09
Nebenbei...
TFT's haben nicht die "Unruhe eines ständigen Bildaufbaus durch den Katodenstrahl" bei Röhrenmonitoren ...
dadurch ist das Bild sowieso bei 60Htz auf TFT's fast "ruhig", also flickerfrei!

Zu i und p
Die Bildaufbau wechselt bei p also "schlagartig" 60x und bei i also 30x, oder?

Diesen Unterschied können vermutlich nur wenige wahrnehmen, meiner Meinung nach :(

Vielmehr stört mich die lahme Rechnerei beim Skalieren, die zum Ruckeln führt, soals wenn einer mit dem Schneeschieber durchs Bild latscht ... :biggrin:
Da sitzen dann morgen die potentiellen Käufer wieder da und sagen Oh und Ah dazu im Laden - unglaublich...;D LCD-Wahn ahoi!

James Ryan
2007-11-02, 11:18:42
Wenn du schon keine so gute Schärfe im Bild hast aufgrund von Interpolation wie willst du dann die Kantenglättungsqualität noch beurteilen? :confused:

Das kann er gar nicht, ist ihm aber auch nicht wichtig. Darum ist aber eine eine "ernsthafte" BQ-Diskussion unnötig und überflüssig. ;)


Ich kaufe nie das teuerste. Ich bleibe immer noch bei meinem 19" TFT, eben aus diesem Grund. ;)

Das Problem an den heutigen (TN) TFTs ist, dass sie extrem günstig sind. Alle kaufen wie bekloppt 22-24" TFTs und dann geht das Gemecker los, dass die Grafikkarte nicht die entsprechende Leistung in der nativen Auflösung bringt. :tongue:

FULL ACK! :up:

MfG :cool:

AnarchX
2007-11-02, 11:26:26
Topic?

http://img408.imageshack.us/img408/1546/quadslion79013524378bq3.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/11/02/crossfirex

~ 2 TFLOPs MADD-Leistung...

dargo
2007-11-02, 11:28:42
Topic?

http://img408.imageshack.us/img408/1546/quadslion79013524378bq3.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/11/02/crossfirex

~ 2 TFLOPs MADD-Leistung...
Und wie hoch ist der Lag? :rolleyes:

PS: die zweite Graka von oben wird schön gegrillt. :D

AnarchX
2007-11-02, 11:30:13
Und wie hoch ist der Lag? :rolleyes:

Wenn interessiert bei GPGPU AFR...;)

Aber natürlich für Games eher etwas zum gewinnen von Benchmarks, als zum sinnvollen Einsatz.

Gast
2007-11-02, 11:33:59
Da ist kein gewaltiger Unterschied solange beides nativ läuft. ;)


Das Problem an den heutigen (TN) TFTs ist, dass sie extrem günstig sind. Alle kaufen wie bekloppt 22-24" TFTs und dann geht das Gemecker los, dass die Grafikkarte nicht die entsprechende Leistung in der nativen Auflösung bringt. :tongue:

Na ja, ich habe mehr nutzen von der größeren Bildfläche beim 22 Zöller TFT, als das bisschen fast nicht wahrnembarer Unschärfe. Neuere TNs skalieren richtig gut!

Gast
2007-11-02, 11:36:25
Topic?

http://img408.imageshack.us/img408/1546/quadslion79013524378bq3.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/11/02/crossfirex

~ 2 TFLOPs MADD-Leistung...

Sieht ja mal richtig heftig aus, fehlt nur noch die Beschreibung für was Quad-SLI und Quad-Crossfire sinvoll sein soll...

Henroldus
2007-11-02, 11:37:26
PS: die zweite Graka von oben wird schön gegrillt. :D
Richtig, woher soll die ihre Luft ziehen?

so eine Kombi ist einfach sinnfrei und interessiert allenfalls die 1% Enthusiasten ala Tombman(der wohl aber grad auch kein Geld hat :biggrin: weil er noch keinen QX9650 gekauft hat).

Viel beindruckender ist die Leistung eines Einzelchips.
Ein Cluster zusammenzustecken dem es an Effizienz mangelt ist nicht der golden Weg.

Gast
2007-11-02, 11:39:38
so eine Kombi ist einfach sinnfrei und interessiert allenfalls die 1% Enthusiasten ala Tombman(der wohl aber grad auch kein Geld hat :biggrin: weil er noch keinen QX9650 gekauft hat).

Tombman pleite? Macht mal ein Thread dazu auf ,-)

dargo
2007-11-02, 11:40:39
Na ja, ich habe mehr nutzen von der größeren Bildfläche beim 22 Zöller TFT, als das bisschen fast nicht wahrnembarer Unschärfe. Neuere TNs skalieren richtig gut!
Lassen wir bitte diese Diskussion ok? :)
Du findest es gut, ich finde jedes interpolierte Bild auf einem TFT schrecklich. Und damit ist eigendlich alles gesagt, Geschmäcker sind nun mal verschieden. :)

reunion
2007-11-02, 11:42:21
Richtig, woher soll die ihre Luft ziehen?


Mein Gott, dann muss man eben eine vernünftige Platine nehmen wie das MSI K9A2 Platinum:

http://img152.imageshack.us/img152/5223/1m269e3defv2.jpg

http://www.fudzilla.com/images/stories/2007/October/General%20News/k9a2p-quad.jpg

up¦²
2007-11-02, 11:48:00
alles mit passiv und dann ein ruhiger 120er quer drüber und fertig :wink:

Gast
2007-11-02, 11:48:48
meine X-FI müsste ich dann aber trotzdem verkaufen :-P

AnarchX
2007-11-02, 11:49:15
alles mit passiv und dann ein ruhiger 120er quer drüber und fertig :wink:

Ähmmm... wir sprechen hier immernoch von einer TDP von ~400W auf kleinem Raum.;)

dargo
2007-11-02, 11:50:37
Mein Gott, dann muss man eben eine vernünftige Platine nehmen wie das MSI K9A2 Platinum:

http://img152.imageshack.us/img152/5223/1m269e3defv2.jpg

http://www.fudzilla.com/images/stories/2007/October/General%20News/k9a2p-quad.jpg
Was ist jetzt daran besser? Jetzt wird nicht mehr die zweite Graka gegrillt sondern die vierte. :tongue:
Außerdem gibts noch User mit einer externen Soundkarte wie zb. der X-FI. *hust*

up¦²
2007-11-02, 11:56:54
Ähmmm... wir sprechen hier immer noch von einer TDP von ~400W kleinem Raum.;)

Ja, das wird nicht einfach.
Denke an sowas:
Arctic Cooling Accelero S1 (http://www.bjorn3d.com/read.php?cID=1153)
Unfortunately, the list of compatible cards for the Accelero S1 is limited to last generation of cards. However, Arctic Cooling has informed me that an updated version should be out soon which will support current generation cards, so users with the latest mid-range cards should definitely check out the updated version if you wish to keep your graphic card running cool and silent.

Nebenbei:
Warum wird eigentlich nicht auch zusätzlich "von hinten" gekühlt?
Mit keramischen "Füllmittel" (leiten nicht!) könnte man doch einfach und billig quasi eine Brücke zur Wärmeableitung bauen und die Oberfläche so vervielfältigen :confused:
Wenigstens paar flache Kühlrippen hinten beim Core wären doch schon hilfreich....

reunion
2007-11-02, 12:00:18
Was ist jetzt daran besser? Jetzt wird nicht mehr die zweite Graka gegrillt sondern die vierte. :tongue:


Wer ein solches System betreibt, der hat sicher unter dem Motherboard Platz genug, dass die Karte nicht gegrillt wird.


Außerdem gibts noch User mit einer externen Soundkarte wie zb. der X-FI. *hust*

Du brauchst mir nicht zu sagen, dass ein solches System mit Kompromissen verbunden ist.

seahawk
2007-11-02, 12:07:21
Wenn es gut mit dem MS FS funktioniert einen interessante Idee und ein Grund auf 30"+ zu gehen.

reunion
2007-11-02, 12:09:15
Wenn es gut mit dem MS FS funktioniert einen interessante Idee und ein Grund auf 30"+ zu gehen.

Da man dann ohnehin acht Monitore gleichzeitig verwenden kann, braucht es wohl keinen 30"+.

Henroldus
2007-11-02, 12:11:27
Mein Gott, dann muss man eben eine vernünftige Platine nehmen wie das MSI K9A2 Platinum:

http://www.fudzilla.com/images/stories/2007/October/General%20News/k9a2p-quad.jpg
hier fehlt komischerweise der CF Connector zwischen den beiden mittleren Karten :|

Nakai
2007-11-02, 12:26:30
Braucht man bei CF wirklich den Connector?
Es sollte IMO auch ohne gehen.
Aber mit Connector sollte es besser laufen, die haben die wahrscheinlich einfach nur vergessen.

mfg Nakai

up¦²
2007-11-02, 12:53:49
Ihr täuscht euch, das sind 2600er...

AnarchX hat oben doch echte RV670er (vom INQ), die haben doch das doppelte Lottchen:
http://img408.imageshack.us/img408/1546/quadslion79013524378bq3.jpg

reunion
2007-11-02, 13:05:09
http://images.tweaktown.com/imagebank/news_graphics_card_market_full.jpg

http://www.tweaktown.com/news/8444/amd_s_q4_graphics_line_up_revealed/index.html

799$ für den R680 sind nicht ohne. Aber ich denke die Preise werden noch nach unter revidiert, nachdem man die Leistung der 8800GT kennt.

Gast
2007-11-02, 13:11:33
Ich finde es vorallem sehr vielsagend, daß bei ATI das Performance-Segment schon bei der HD2400 beginnt.
Und Ultra-Enthusiast? LOL.

Nakai
2007-11-02, 13:13:19
Interessant ist auch, dass sie 3DMark06 als nen aussagenden Bench sehen.

mfg Nakai

HOT
2007-11-02, 13:13:43
Die Tabelle sagt irgendwie nichts aus. Es geht ja nur um die Bepreisung und das hängt nicht nur von der Leistungsfähigkeit ab.

Henroldus
2007-11-02, 13:18:28
der offene 359$ Part bei ATI ist interessant, da gehört ein sparsamer GTX Konkurrent hin :)

2900GT(256MB) ist nun wirklich kein Ultraenthusiast ;D

Gast
2007-11-02, 13:49:30
lässige testplattform:

http://img2.imagebanana.com/img/qhvdv55k/xyz.jpg (http://img2.imagebanana.com/)

seahawk
2007-11-02, 13:53:11
Drollig wie sehr sie G92 unterschätzt haben.

Nakai
2007-11-02, 13:57:04
G92 wurde auch von NV niemals so stark geplant.
Aber es ist schon lustig was solche Folien alles darstellen.

mfg Nakai

Gast
2007-11-02, 14:03:42
G92 wurde auch von NV niemals so stark geplant.


Du bist vielleicht lustig, meinst du Nvidia weiß nicht, wie sie eine Chip für eine bestimmte Leistung zu designen haben? Der G92 war genausso stark geplant wie er ist.

robbitop
2007-11-02, 14:04:35
Die 8800GT ist sowieso kurios. Ein so großer Chip und dennoch ist die Kart so billig. So wie ich das sehe, hat NV die A2 total verbatzelt, so dass diese als Vollausbau entweder nicht lauffähig war oder nur einen geringen Yield ausschüttete. Das passt auch zu den Meldungen. Also hat man die A2, anstatt sie wegzuschmeissen, lieber als 8800GT verkauft. So ein Tapeout und eine Massenproduktion sind nicht billig. Schon gar nicht die Ausfälle, die entstehen würden, bis die A3 draussen ist.
Das Ding war möglicherweise halb-spontan. Works for me! ;)

reunion
2007-11-02, 14:06:07
Du bist vielleicht lustig, meinst du Nvidia weiß nicht, wie sie eine Chip für eine bestimmte Leistung zu designen haben? Der G92 war genausso stark geplant wie er ist.

Der G92 schon, die 8800GT aber wohl kaum. Ich denke nV hat sich bei diesem Namen schon was gedacht, und dieser ordnet die GT eben klar unter der GTS ein. Nur wurde RV670 stärker als gedacht, und so aktivierte man eben einen zusätzlichen Cluster, was auch kurzfristig ein leichtes ist. Das allerdings eine volle Version nach wie vor nicht erhältlich ist, lässt auch auf beträchtliche Fertigungsprobleme schließen.

Die_Allianz
2007-11-02, 14:10:03
Drollig wie sehr sie G92 unterschätzt haben.

ja aber nur in der leistung, nicht beim preis:ulol3:

ich glaub die jungs wissen grad echt nicht, was sie machen sollen...

Gast
2007-11-02, 14:13:03
NV hat doch bereits erklärt, daß man den Namen "GT" in Tradition zur 6600GT und 7600GT wählte. Fertigungsproblem hat Nv keine, sie haben es nur nicht nötig, derzeit etwas schnelleres zu bringen, also bedient man erst einmal das umsatzstärkste Marktsegment .

Nakai
2007-11-02, 14:13:14
Die Kosten des Rv670 sollten sich aber in Grenzen halten. Der Chip ist ja nicht sonderlich groß. Ich denke, da kann man noch ein paar € runtergehen.

mfg Nakai

seahawk
2007-11-02, 14:13:15
Der G92 schon, die 8800GT aber wohl kaum. Ich denke nV hat sich bei diesem Namen schon was gedacht, und dieser ordnet die GT eben klar unter der GTS ein. Nur wurde RV670 stärker als gedacht, und so aktivierte man eben einen zusätzlichen Cluster, was auch kurzfristig ein leichtes ist. Das allerdings eine volle Version nach wie vor nicht erhältlich ist, lässt auch auf beträchtliche Fertigungsprobleme schließen.

Ich glaube man ändert einen Namen uch recht schnell,. Schneller als dass man einen Cluster zugibt. Due andere Vermutung ist, afaik, zwar naheliegend aber falsch. Es besteht kein Zwang die vorhandenen Karten akut abzulösen. Damit kann man warten bis ATI vorlegt.

Die Kosten des Rv670 sollten sich aber in Grenzen halten. Der Chip ist ja nicht sonderlich groß. Ich denke, da kann man noch ein paar € runtergehen.

mfg Nakai

Dafür ist das PCB ähnlich, der Speicher in der 3870 Version teuere und ob der Waffer in 55nm nicht möglicherweise sogar teurer ist, wissen wir auch nicht. Natürlich kann ATI mit dem Preis runter, aber das ist halt nicht toll für die Bilanz, wenn sie das Ding wieder mit bescheidender Marge verkaufen müssen.

reunion
2007-11-02, 14:14:06
ich glaub die jungs wissen grad echt nicht, was sie machen sollen...

Die Karte kommt natürlich verdammt bitter für AMD, da nV plötzlich High-End-Leistung um 249$ verkauft. Allerdings hat man damit nicht nur der Konkurrenz das Geschäft versaut. Niemand kauft mehr eine High-End-Karte, wenn man zum halben Preis fast dieselbe Leistung bekommt.

Nakai
2007-11-02, 14:16:15
Dafür ist das PCB ähnlich, der Speicher in der 3870 Version teuere und ob der Waffer in 55nm nicht möglicherweise sogar teurer ist, wissen wir auch nicht. Natürlich kann ATI mit dem Preis runter, aber das ist halt nicht toll für die Bilanz, wenn sie das Ding wieder mit bescheidender Marge verkaufen müssen.

Das gleiche kann man aber dann über Nv sagen, wobei diese keine finanzielles Problem haben.

mfg Nakai

reunion
2007-11-02, 14:18:30
Es besteht kein Zwang die vorhandenen Karten akut abzulösen.


Mit dem erscheinen der GT wurden die anderen Karten ad absurdum geführt. Dieses Gefüge gilt es wieder einzurenken.


Dafür ist das PCB ähnlich, der Speicher in der 3870 Version teuere und ob der Waffer in 55nm nicht möglicherweise sogar teurer ist, wissen wir auch nicht. Natürlich kann ATI mit dem Preis runter, aber das ist halt nicht toll für die Bilanz, wenn sie das Ding wieder mit bescheidender Marge verkaufen müssen.

Natürlich ist das nicht schön für AMD. Man wollte das Topmodell offensichtlich um 299$ verkaufen, das kann man jetzt vergessen.

Gaestle
2007-11-02, 14:18:46
Die 8800GT ist sowieso kurios. Ein so großer Chip und dennoch ist die Kart so billig. So wie ich das sehe, hat NV die A2 total verbatzelt, so dass diese als Vollausbau entweder nicht lauffähig war oder nur einen geringen Yield ausschüttete. Das passt auch zu den Meldungen. Also hat man die A2, anstatt sie wegzuschmeissen, lieber als 8800GT verkauft. So ein Tapeout und eine Massenproduktion sind nicht billig. Schon gar nicht die Ausfälle, die entstehen würden, bis die A3 draussen ist.
Das Ding war möglicherweise halb-spontan. Works for me! ;)

Wenn das stimmt, dürfte es die Karte nicht mehr ewig geben. Oder NV lässt es einfach laufen, die Karten werden Ihnen ja förmlich aus den Händen gerissen.

Ich denke aber, dass sie wissen, was sie tun. Wahrscheinlich wird die "neue" GTS ja auch sehr ordentlich nach vorne gehen, und ein HighEnd Modell kommt ja (später) auch noch.
Überhaupt clevere Launch-Politik IMHO. Jetzt sind sie bis Weihnachten und darüber hinaus immer wieder mit 'nem neuen Produkt am Start, statt nur EINMAL die Aufmerksamkei für alles (komplette Serie) zu haben.

Niemand kauft mehr eine High-End-Karte, wenn man zum halben Preis fast dieselbe Leistung bekommt.
Vielleicht wollten sie keine teuren G80 mehr verkaufen und haben das bewusst so gewählt? High-End ist doch sowieso ein geringer Marktanteil. Und die 8600er waren ja auch nicht so prall.

Ich glaube jedenfalls nicht an ein "Versehen".

@Topic
Die Anmerkungen von AiL klingen ja sehr zurückhaltend. Ähnlich wie vor R600 Launch. Keine guten Anzeichen.

reunion
2007-11-02, 14:21:57
NV hat doch bereits erklärt, daß man den Namen "GT" in Tradition zur 6600GT und 7600GT wählte. Fertigungsproblem hat Nv keine, sie haben es nur nicht nötig, derzeit etwas schnelleres zu bringen, also bedient man erst einmal das umsatzstärkste Marktsegment .

Die 6600GT oder 7600GT lieferten nicht annähernd ein solch gutes P/L-Verhältnis. Die 8800GT hat 7/8 der Einheiten eines G80 bei höheren Taktraten. Und was den letzten Satz betrifft: Man hat es immer nötig, Kosten einzusparen.

Gast
2007-11-02, 14:25:27
Mit dem erscheinen der GT wurden die anderen Karten ad absurdum geführt. Dieses Gefüge gilt es wieder einzurenken.


Das wird schon noch passieren, nur keine Sorge.
Im Moment ist der Performance Markt aber wichtiger, weil hier die Stückzahlen größer sind und man damit mehr Gewinn einfährt.

Gast
2007-11-02, 14:25:58
Es ging eher um die 6800GT (sehr gutes P/L-Verhältnis) und die 7900GT (auch noch ganz gut). Das sagte zumindest dieser Vice-CEO da :D

Dass die GT für AMD 'n Schlag in die Fresse ist, tut mir schon etwas leid. Die haben 100%ig nicht damit gerechnet, dass Nvidia ihr eigenes Portfolio mit der Karte sprengt. Der RV670 wird's extrem schwer haben. Da kann man quasi nur über den Preis gehen und das wird ebenso weh tun.

LovesuckZ
2007-11-02, 14:27:22
Die 6600GT oder 7600GT lieferten nicht annähernd ein solch gutes P/L-Verhältnis. Die 8800GT hat 7/8 der Einheiten eines G80 bei höheren Taktraten. Und was den letzten Satz betrifft: Man hat es immer nötig, Kosten einzusparen.

Die 6600GT war wesentlich schneller als die 5900Ultra.

Gast
2007-11-02, 14:28:31
Die 6600GT oder 7600GT lieferten nicht annähernd ein solch gutes P/L-Verhältnis. Die 8800GT hat 7/8 der Einheiten eines G80 bei höheren Taktraten.

Auch 6600GT und 7600GT hatten dasselbe gute P/L-Verhältnis, du scheinst zu übersehen, daß NVs neues High-End Produkt noch nicht gelauncht ist, denn dann würde die 8800GT nicht so gut darstehen wie sie das jetzt tut.

reunion
2007-11-02, 14:29:06
Die 6600GT war wesentlich schneller als die 5900Ultra.

Nur gab es zu dem Zeitpunkt schon eine 6800er Serie.

laser114
2007-11-02, 14:29:14
Es ging eher um die 6800GT (sehr gutes P/L-Verhältnis) und die 7900GT (auch noch ganz gut). Das sagte zumindest dieser Vice-CEO da :D

Naja, ist auch nur ein Erklärungsversuch in der Not. Der Name der Karte ist einfach ungünstig, sie hätten ja zumindest nicht dann in der 8600er-Serie die Kürzel GTS und GT so verwenden müssen wie es es jetzt tun.

Der RV670 wird's extrem schwer haben. Da kann man quasi nur über den Preis gehen und das wird ebenso weh tun.

Naja, solange die Yields passen geht das noch, der Die ist im Vergleich zum G92 ja deutliche kleiner. Maximal wegen dem neuen 55nm-Prozess könnte es da Probleme geben.

Ailuros
2007-11-02, 15:04:00
Die 6600GT oder 7600GT lieferten nicht annähernd ein solch gutes P/L-Verhältnis. Die 8800GT hat 7/8 der Einheiten eines G80 bei höheren Taktraten. Und was den letzten Satz betrifft: Man hat es immer nötig, Kosten einzusparen.

6600 bzw. 7600GT waren mainstream und nicht Performance GPUs. Im Vergleich zu diesen ist die heutige 8600GTS ein absoluter Fehlschlag; da die Konkurrenz aber auch nichts besseres geliefert hat liess man das Ding einfach so bleiben und ich will hoffen dass G96 nicht genauso miserabel ausfaellt.

Im Gegensatz konnte NV fuehlen dass RV670 ein besseres Potential fuer ihren Preis haben wird und deshalb pumpte man G92 auch dementsprechend auf. Mit was soll denn AMD hier hingegen genau reagieren ausser den Preis anzupassen, wenn man schon alle cluster drinlaesst und die Taktrate ohnehin auf R600 oder hoeherem Niveau angelegt hat?

Wenn ich jetzt sage dass NVIDIA um einiges bessere Reflexe und flexiblere Planung vorlegt, bricht wieder alle Hoelle los. AMD/ATI knows how to develop good GPUs; their overall strategy and execution just sucks donkey balls *hust*.

Ailuros
2007-11-02, 15:10:41
Naja, ist auch nur ein Erklärungsversuch in der Not. Der Name der Karte ist einfach ungünstig, sie hätten ja zumindest nicht dann in der 8600er-Serie die Kürzel GTS und GT so verwenden müssen wie es es jetzt tun.

GT und GTS als Abkuerzungen hinter der Nummer gibt es schon seit einer Ewigkeit. Sie haetten das Ding von mir aus auch 8800PRO nennen koennen; ob es was aendern wuerde ist fraglich.

Naja, solange die Yields passen geht das noch, der Die ist im Vergleich zum G92 ja deutliche kleiner. Maximal wegen dem neuen 55nm-Prozess könnte es da Probleme geben.

Erstens ist der neueste und kleinste Herstellungsprozess nie der billigste und zweitens wenn man bei niedrigerem Preis verkauft, wird auch das Einkommen bzw. moeglicher Gewinn geringer.

Selbst wenn es AMD schafft die gleiche Anzahl an RV670 wie G92 zu verkaufen (was ich bezweifle), liegt unter dem Strich kein besonderer Gewinn.

robbitop
2007-11-02, 15:34:18
Der G92 schon, die 8800GT aber wohl kaum. Ich denke nV hat sich bei diesem Namen schon was gedacht, und dieser ordnet die GT eben klar unter der GTS ein. Nur wurde RV670 stärker als gedacht, und so aktivierte man eben einen zusätzlichen Cluster, was auch kurzfristig ein leichtes ist. Das allerdings eine volle Version nach wie vor nicht erhältlich ist, lässt auch auf beträchtliche Fertigungsprobleme schließen.
Zusätzliche Cluster "mal eben" hinzuzufügen kannst du vergessen.

robbitop
2007-11-02, 15:35:21
Wenn das stimmt, dürfte es die Karte nicht mehr ewig geben. Oder NV lässt es einfach laufen, die Karten werden Ihnen ja förmlich aus den Händen gerissen.


Die wirds schon noch geben. Irgendwas muss man mit den kaputten G92ern ja sowieso noch machen.

reunion
2007-11-02, 15:54:06
Zusätzliche Cluster "mal eben" hinzuzufügen kannst du vergessen.

Ich habe geschrieben: "aktivierte man eben einen zusätzlichen Cluster". Das ein G92 acht Cluster hat, und dass das auch ursprünglich so geplant war, sollte klar sein. Und wieviele man dann letztendlich bei welcher Version aktiviert kann man auch noch sehr kurzfristig entscheiden. Ich denke die GT sollte ursprünglich nur sechs aktivierte Cluster besitzen.

SavageX
2007-11-02, 15:56:34
Erstens ist der neueste und kleinste Herstellungsprozess nie der billigste


Kosteneinsparungen sind oftmals der primäre Grund für Shrinks.

Wäre 55nm nicht billiger so hätte AMD/ATI ja ganz einfach bei 65nm bleiben können. Man verspricht sich also doch irgendwas.



Selbst wenn es AMD schafft die gleiche Anzahl an RV670 wie G92 zu verkaufen (was ich bezweifle), liegt unter dem Strich kein besonderer Gewinn.

Du hast Zahlen zu den Margen?

Adam D.
2007-11-02, 16:29:33
Naja, ist auch nur ein Erklärungsversuch in der Not. Der Name der Karte ist einfach ungünstig, sie hätten ja zumindest nicht dann in der 8600er-Serie die Kürzel GTS und GT so verwenden müssen wie es es jetzt tun.
Einigen wir uns darauf, adss der Name einfach scheiß egal ist :biggrin:



Naja, solange die Yields passen geht das noch, der Die ist im Vergleich zum G92 ja deutliche kleiner. Maximal wegen dem neuen 55nm-Prozess könnte es da Probleme geben.
Ist ATi nicht der erste mit 55nm? Hmm ... So gut wird das wohl nicht laufen.

Ich find's insgesamt etwas schade. Gut, der Kunde kann sich dank 8800GT kaum beschweren, aber AMD kann so echt keinen Fuss mehr fassen. Ich glaube nicht, dass der RV670XT eine Chance gegen die 8800GT hat. Und ich nehm mal an, dass man durchaus geplant hat, die XT für 299$ zu launchen - jetzt muss man wohl fast 100$ runter. Das schmerzt :redface: