PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q2 2008:RV770(LE), RV730 und RV710 - Teil 5


Seiten : 1 2 [3] 4 5

tombman
2008-07-02, 22:37:56
das rockt. Doch noch schnell die GTX bei ebay verkloppen und nen paar Tage mit ner G6200 Turbo Cach Gamen ;D
So schnell verkloppe ich die GTXen nicht. Nicht ohne 2x R700 benchmarks gesehen zu haben.

1x R700 nutzt mir ja auch nix, da bin ich ja jetzt schon schneller. Nur 2x R700 interessiert mich.

(getestet von non-fanboys)

Gast
2008-07-02, 22:42:59
Der Preiskampf wird richtig richtig teuer für Nvidia.

Wie kann etwas teuer werden, wenn man Gewinn macht? Nicht nV sondern AMD hat mit der Grafikksparte grade so das Fahrwasser gehalten, nun haben sie endlich wieder Aufwind und dann kommen gleich Weltuntergangsbotschaften von so Leuten wie dir...
Aber ist ja ein AMD Thread, da muss man wohl Pro sein *g


Die Performance der X2 lässt sich heute schon auf ca. 10% genau Vorrausagen behaupte ich. Einfach 2x HD4850 ins Crossfire genommen, je nach Taktrate und verwendetem Speicher (ich kann mir nicht vorstellen das da GDDR5 reinkommt bei dem Preis...) wird die Karte ein wenig schneller sein.
Die angestrepte Performance in allen Spielen außer Crysis dürfte ansehnlich sein, nur eben dieses eine Vorzeige Benchmark Spiel wird sich nicht so zeigen wie es viele gerne hätten. 1920*1200@4xAA ist weiterhin die Königsdisziplin, auch was Zukunftstauglichkeit angeht...

Undertaker
2008-07-02, 22:47:45
Warum nur 4850CF? An sich sollte man auf >4870CF Performance hoffen können, das es 2GB GDDR5 werden ist doch afaik schon bekannt (siehe letzte Seite)...

Gast
2008-07-02, 22:50:52
Du meinst also man nimmt 2x HD4870 + 2GB GDDR5 und drückt das zum Preis von 499$? Damit wird die Marge wohl im Keller versinken, aber meinetwegen, Träumen darf man.
Nur ist bisher keine 2GPU Karte auf den Markt gekommen die den Highend Chip der Session drauf hatte! Es waren immer langsamer getaktete oder abgespeckte GPUs. Die Hitzeentwicklung und den Stromverbrauch von 2 vollgetakteten HD4870 GPUs auf einem Board? Kommt das Teil gleich mit Wakü?

tombman
2008-07-02, 22:52:26
Hat eine HD4870 nicht 160 Watt TDP?

Das wird mit 2x HD4870 aber echt knapp...vorallem mit ocing...

Gast
2008-07-02, 22:53:55
Wenn der 1. Shot ohne Kühler kommt wissen wir es ja, aber dann sind die ganzen unken Rufe und Infos zu GDDR5 schlichtweg Falsch gewesen. Da hat man wohl viele an der Nase herumgeführt und AMD hat evtl. für die ersten 3-5 Monate exklusiv Lieferrechte von einem Hersteller, sonst würde sich das ganze doch nicht rechnen (günstig nachgeschmissen muss man den Speicher wohl auch bekommen, dabei hatte man von einem deftigen Preisunterschied zu GDDR3-4 gehört, war wohl alles FUBAR).

AnarchX
2008-07-02, 22:56:53
HD 3870: 105W TDP
HD 3870X2: 196W TDP, obwohl hier die GPUs auf 825MHz getaktet wurden

Also dürfte man dass in 300W TDP doch noch gut hineinbekommen, was dann wohl ~250W real bedeuten könnte, sofern eben beide GPUs voll ausgelastet werden können. ;)

Gast
2008-07-02, 22:59:48
Speicher nich vergessen ;) Auch wenn GDDR5 weniger Wärme abgibt, is die doppelte Speichermenge ja nicht unbemerkbar.
Was will du, Tombman mit 2xR700? Das ja wie QuadFire, dachte ab Triple is ende mit der Skalierung und die Lags werden auch untertragbar.
Nextgen dann ^^

tombman
2008-07-02, 23:08:04
2xR700? Das ja wie QuadFire,
Das ist eben nicht sicher. Spielt der sideport bei 2x R700 noch eine Rolle, oder eben nicht.

Man kennt eben das skaling bei 2x R700 nicht, bis auf einen einzigen Screenshot, der X12500 zeigt. Das wäre nämlich sehr gutes skaling, deutlich über Faktor 3.
Eine schafft ja nur X3800...
X12500/X3800~ 3.3

Klar, als Alternative könnte man sich eine dritte GTX280 reinpfeffern...aber das wäre SEHR teuer, weil ich dann gleich eine dritte Wakü + neues NT kaufen müßte...(würde aber arschgeil aussehen mit 3x Wakü @ single slot ;D)

Ailuros
2008-07-02, 23:16:22
Fakt ist nVidia war wieder einmal früher am Start mit einer High-End Karte als Ati. Einmal mehr eine überzeugende Leistung abgeliefert. Einmal mehr zum Launch ne ordentliche Verfügbarkeit der Karten hergestellt. Wenn das dann als Arroganz ausgelegt wird, naja ich weiß ja nicht.

Ich bin wahrlich kein nV-Fanboy, aber ich verstehe nicht, warum ATI es nicht schafft eine Karte, die zudem auch noch im HighEnd-Segment zu Hause sein soll, mit anständig Speicher auzustatten. Die 512MB limitieren in hohen Auflösungen fast immer. Es gibt aktuell keine (!) Karte von ATI die die GTX280 schlagen kann.

Es bleibt aber Tatsache dass trotz allem eine 4870 ein hoellisch gutes Preis-/Leistungs-Verhaeltnis hat. Die 1GB Variante wird sowieso keinen gravierenden Unterschied in der Mehrzahl der heutigen Spiele machen.


Und eine DualChipLösung ins Rennen zu schicken, um einen Singlchip zu schlagen ist nun wirklich keine große Kunst. Daher kann ich diesen Hype um die neuen ATI-Karten erhlich gesagt nicht nachvollziehen. Ich freue mich über den Aufwind, den ATI bekommt und auch dringend braucht, aber in Sachen Technologie sehe ich nicht viel Neues, was nV in der Praxis (!) nicht auch schafft.


Sie haetten tatsaechlich auch einen groesseren chip bauen koennen, aber warum zusaetzlich Resourcen verschwenden wenn es auch so geht?


Darüber hinaus ist DX10.1 nur theoretisch vorhanden, da keine Games dafür zu haben sind, lässt man mal das weggepatchte AC ausser Acht. Ati definiert sich aktuell nach meiner Ansicht nach nur über den Preis, und das ist für ein Unternehmen ein sehr gefährlicher Weg. Für uns natürlich eine feine Sache, keine Frage.

NVIDIA haette zumindest mit dem GT200 auch D3D10.1 voll unterstuetzen sollen. Egal ob ihre GPUs nun schon einige 10.1 features besitzen und wie viele. Es gibt keine einzige Entschuldigung dafuer und Entwickler sind tatsaechlich an dem Zeug interessiert.

Gast
2008-07-02, 23:49:16
HD 3870: 105W TDP
HD 3870X2: 196W TDP, obwohl hier die GPUs auf 825MHz getaktet wurden

Also dürfte man dass in 300W TDP doch noch gut hineinbekommen, was dann wohl ~250W real bedeuten könnte, sofern eben beide GPUs voll ausgelastet werden können. ;)

Man sagt gerüchteweise es wären 270-280 W TDP. In der Praxis dann noch mal etwas weniger...

Adam D.
2008-07-02, 23:57:24
Wie kann etwas teuer werden, wenn man Gewinn macht? Nicht nV sondern AMD hat mit der Grafikksparte grade so das Fahrwasser gehalten, nun haben sie endlich wieder Aufwind und dann kommen gleich Weltuntergangsbotschaften von so Leuten wie dir...
Aber ist ja ein AMD Thread, da muss man wohl Pro sein *g
Es geht mir jetzt nicht primär um die Umsatzzahlen, ich vergleiche einfach die Produkte. Und da mein ich einfach, dass es schwierig für Nvidia ist, weil man 576mm² gegen 256mm² stellen muss und das sicher nicht so geplant war. Und da kannst du mir erzählen was du willst, aber das wird teuer. Das hat auch absolut nix mit Weltuntergang zu tun, die Karten werden in regelmäßigen Abständen neu gemischt, auch dieses Mal mit Sicherheit. AMD hat mit dem R600 die Arschkarte gezogen und ist jetzt wieder da, Nvidia hatte lange Zeit die attraktiveren Angebote (deshalb besitze ich eine 8800GT). Aber zumindest für den reinen Spieler bietet Nvidia gerade das schlechtere Portfolio.

Winter[Raven]
2008-07-02, 23:58:07
NVIDIA haette zumindest mit dem GT200 auch D3D10.1 voll unterstuetzen sollen. Egal ob ihre GPUs nun schon einige 10.1 features besitzen und wie viele. Es gibt keine einzige Entschuldigung dafuer und Entwickler sind tatsaechlich an dem Zeug interessiert.

Muss sich zeigen... iich bleibe erstmal bei meiner Erwartung von .1, ich belehre mich gernde dem besserem :)

tombman
2008-07-02, 23:58:53
Man sagt gerüchteweise es wären 270-280 W TDP. In der Praxis dann noch mal etwas weniger...das ist aber haarscharf an der 300 Watt Grenze... ob da bei ocing nicht einige mobos und NTs streiken weiß ich ned...

Ailuros
2008-07-03, 00:15:13
;6631543']Muss sich zeigen... iich bleibe erstmal bei meiner Erwartung von .1, ich belehre mich gernde dem besserem :)

NVIDIA war am Verhandlungstisch als die 10.1 Spezifikationen festgelegt wurden und dieses passierte auch nicht gestern. Es gibt keine Entschuldigung fuer einen IHV vom Aussmass von NVIDIA hier nicht auch (ueberhaupt bei einem relativ kleinen API update wie 10.1) folgen zu koennen.

Es geht mir jetzt nicht primär um die Umsatzzahlen, ich vergleiche einfach die Produkte. Und da mein ich einfach, dass es schwierig für Nvidia ist, weil man 576mm² gegen 256mm² stellen muss und das sicher nicht so geplant war. Und da kannst du mir erzählen was du willst, aber das wird teuer. Das hat auch absolut nix mit Weltuntergang zu tun, die Karten werden in regelmäßigen Abständen neu gemischt, auch dieses Mal mit Sicherheit. AMD hat mit dem R600 die Arschkarte gezogen und ist jetzt wieder da, Nvidia hatte lange Zeit die attraktiveren Angebote (deshalb besitze ich eine 8800GT). Aber zumindest für den reinen Spieler bietet Nvidia gerade das schlechtere Portfolio.

Wieso sollte es nicht so geplant gewesen sein? Glaubst Du ernsthaft dass NVIDIA nicht wusste an was AMD arbeitet? Es gab schon vor der RV670 Veroeffentlichung eine oeffentliche Aussage von NV die einsah dass AMD bald wiede am Aufschwung sein wird.

Und NV hat auch keinen Zauberstab; gegen den RV670 konnte man in der Form von 7 anstatt 6 cluster fuer die 8800GT noch zeitlich reagieren. Fuer RV770 eben nicht. Sie haetten natuerlich auch den 576mm^2 Brummer links liegen lassen koennen und AMD ein komplett freies Feld verschenken bis sie mit etwas anderem haetten reagieren koennen. Manches ist sehr leicht zu sagen, aber eher doch schwer zu realisieren und nein gewinnen kann selbst NV auch nicht immer.

Sorkalm
2008-07-03, 00:31:53
das ist aber haarscharf an der 300 Watt Grenze... ob da bei ocing nicht einige mobos und NTs streiken weiß ich ned...

Die extrem übertakteten Systeme mit anderen Grafikkarten laufen doch auch noch. Und bei den Stickstoffkühlungen mit deutlich höheren Spannungen und Taktraten sollten auch Karte vom Typ HD 3870 X2, 8800 Ultra oder 2900 XT an ihre Grenzen stoßen - passiert ist da aber nix. Vermutlich kann ein qualitativ hochwertiges Netzteil genug über die Stromanschlüsse liefern.

Sascha1971
2008-07-03, 07:02:00
Lol, jetzt schon für 420€ gelistet die GTX280.

Die kommt noch auf 350€ runter wenn Ati die X2 rausbringt :uhammer:

Deppenaufschlag FTW :(

Andererseits könnte man sich dann ja ne dritte GTX280 ins Gehäuse knallen :uhammer:


Angeblich sollen die noch mal um 90 $ senken.
http://www.pcgameshardware.de/aid,649858/News/Geforce_GTX_260/280_Laesst_Nvidia_die_Preise_purzeln/

reunion@work
2008-07-03, 08:21:43
das ist aber haarscharf an der 300 Watt Grenze... ob da bei ocing nicht einige mobos und NTs streiken weiß ich ned...

Es sind IMHO ohnehin nur 2x 4850 mit GDDR5.

AnarchX
2008-07-03, 08:26:28
Es sind IMHO ohnehin nur 2x 4850 mit GDDR5.
Die AMD-Folien (in #1) sagen jedoch 750MHz GPU-Takt, aber irgendetwas zwischen den 625 und 750MHz wäre wohl auch nicht verkehrt und gäbe den Partner noch die Möglichkeit selbst etwas am Takt zu drehen.

igg
2008-07-03, 08:56:51
Angeblich sollen die noch mal um 90 $ senken.
http://www.pcgameshardware.de/aid,649858/News/Geforce_GTX_260/280_Laesst_Nvidia_die_Preise_purzeln/
Off-Topic: Für 350 EUR wäre die Karte ein Must-Buy :)

Ich bin echt mal gespannt, Ende Juli soll die R700 ja nun kommen...

Eigentlich könnte NV den Preis für die GTX280 auf 320 EUR senken => Marktdurchdringung => Markt ist schon mehr gesättigt wenn der R700 kommt.

reunion@work
2008-07-03, 09:06:09
Off-Topic: Für 350 EUR wäre die Karte ein Must-Buy :)


Eine 4870 kostet kaum noch mehr als 200€. Selbst für 350€ wäre die Karte überteuert, aber wenigstens nicht mehr ganz so hoffnungslos wie jetzt.

reunion@work
2008-07-03, 09:12:43
Es geht mir jetzt nicht primär um die Umsatzzahlen, ich vergleiche einfach die Produkte. Und da mein ich einfach, dass es schwierig für Nvidia ist, weil man 576mm² gegen 256mm² stellen muss und das sicher nicht so geplant war. Und da kannst du mir erzählen was du willst, aber das wird teuer. Das hat auch absolut nix mit Weltuntergang zu tun, die Karten werden in regelmäßigen Abständen neu gemischt, auch dieses Mal mit Sicherheit. AMD hat mit dem R600 die Arschkarte gezogen und ist jetzt wieder da, Nvidia hatte lange Zeit die attraktiveren Angebote (deshalb besitze ich eine 8800GT). Aber zumindest für den reinen Spieler bietet Nvidia gerade das schlechtere Portfolio.

Eben. Auch nV kann nicht zaubern:

Nvidia Corp. on Wednesday said it expects its second-quarter revenue and gross margin to be lower than its previously announced forecast. The company now expects revenue from $875 million to $950 million.

http://www.marketwatch.com/News/Story/Story.aspx?guid={E4D2B8AE-D0D0-4F2C-AE92-F037209C5811}&siteid=yhoof2

Die Aktie ging bis dato um fast 4% nach unten. Außerdem schrieb man $150-200mio ab.

Schlammsau
2008-07-03, 09:13:00
du überschätzt die herstellungskosten einer karte, großteils zahlst du immer noch die entwicklungskosten, wenn man die karten billiger verkauft dauert es zwar länger bis diese abgedeckt sind, aber man verdient im endeffekt trotzdem noch, for allem weil man die entwicklungskosten auf ganze serien umlegen kann.

keiner weiss genau wie viel die Karte in der Herstellung kostet.
Aber jeder der sich nur ein bisschen mit der Materie auskennt weiss, dass die GTX280/260 in dieser Grössenordnung (512Bit, VRAM Module, DIE Size, Kühlung, etc.), extrem viel in der Herstellung kostet.
ATi hat grob geschätzt, die halben Herstellungskosten. Evtl. sind ja 350€ für die 280GTX drinn, aber dann kann ATi ihre 4870 für 175€ verscherbeln und beide machen den gleichen Gewinn!

reunion@work
2008-07-03, 09:19:09
du überschätzt die herstellungskosten einer karte, großteils zahlst du immer noch die entwicklungskosten, wenn man die karten billiger verkauft dauert es zwar länger bis diese abgedeckt sind, aber man verdient im endeffekt trotzdem noch, for allem weil man die entwicklungskosten auf ganze serien umlegen kann.

Das glaube ich nicht, Tim. Zumindest nicht bei GT200. Das Die alleine soll schon 110-120$ kosten. Dazu kommt ein teures 512-bit SI und die entsprechend aufwändige Platine, 16 Speicherbausteine, die Stromversorgung, die Kühlung. All in all würde ich eine solche Karte locker auf $250 Herstellungskosten für nV schätzen.

igg
2008-07-03, 09:19:10
Eine 4870 kostet kaum noch mehr als 200€. Selbst für 350€ wäre die Karte überteuert, aber wenigstens nicht mehr ganz so hoffnungslos wie jetzt.
PhysX, Nhancer, Profile, extreme Qualitätseinstellungen...

Schlammsau
2008-07-03, 09:27:23
PhysX, Nhancer, Profile, extreme Qualitätseinstellungen...
Havok, ATT, noch viel besseres AA, bzw. 8xAA!

Hakkerstiwwel
2008-07-03, 09:32:25
Eben. Auch nV kann nicht zaubern:



http://www.marketwatch.com/News/Story/Story.aspx?guid={E4D2B8AE-D0D0-4F2C-AE92-F037209C5811}&siteid=yhoof2

Die Aktie ging bis dato um fast 4% nach unten. Außerdem schrieb man $150-200mio ab.

4%? :|
Sieht eher nach freiem Fall aus

Nvidia warns on revenues; shares tumble 25 percent
http://www.reuters.com/article/companyNews/idUKN0242556420080702?symbol=NVDA.O

igg
2008-07-03, 09:39:49
4%? :|
Sieht eher nach freiem Fall aus

http://www.reuters.com/article/companyNews/idUKN0242556420080702?symbol=NVDA.O
Ich denke, das ist der normale Anlegerschock. Nvidia war jetzt 1,5 Jahre unangefochtener Marktführer, nun ist endlich wieder ein gesunder Wettbewerb da. Darauf müssen sich auch die Finanzmärkte einstellen.

Hakkerstiwwel
2008-07-03, 09:48:11
Ich denke, das ist der normale Anlegerschock. Nvidia war jetzt 1,5 Jahre unangefochtener Marktführer, nun ist endlich wieder ein gesunder Wettbewerb da. Darauf müssen sich auch die Finanzmärkte einstellen

Anlegerschock im after hours trading? :| Ich glaube eher dass die Analysten noch schlimmeres erwarten.

Chris2CB
2008-07-03, 09:54:03
Das glaube ich nicht, Tim. Zumindest nicht bei GT200. Das Die alleine soll schon 110-120$ kosten. Dazu kommt ein teures 512-bit SI und die entsprechend aufwändige Platine, 16 Speicherbausteine, die Stromversorgung, die Kühlung. All in all würde ich eine solche Karte locker auf $250 Herstellungskosten für nV schätzen.


Die 110 - 120$ stammen von einer Website die man nicht erwähnen sollte und die darin belegte Ausbeute war wohl Vorserie, bzw die ersten Wafer für den Massenmarkt.


Viele überschätzen hier doch extrem stark die Preise für die Produktion, überlegt doch mal selbst wie dermaßen niedrig der Preis von solchen Produkten sein muss wenn davon auch noch Gewinn abfällt. Es nunmal leider so das manche auf die Produktionskosten auch gleich noch die Entwicklungskosten+Marketing+Fortlaufende drauf schlagen, ja wenn man das alles drauf haut wird eine GTX260 bzw. 280 wohl um die 250$ kosten. Das ist aber für uns hier leider nicht wirklich von Bedeutung.

Die GTX260 ist der kleinste gemeinsame Nenner, der in der Produktion ähnlich viel kostet wie eine GTX280, somit sieht man schon das eine GTX280 noch genug abwirft auch wenn diese demnächst wohl für 350€ zu haben ist.

reunion@work
2008-07-03, 10:00:33
4%? :|
Sieht eher nach freiem Fall aus

http://www.reuters.com/article/companyNews/idUKN0242556420080702?symbol=NVDA.O

Habe ich ganz übersehen das die Aktie schon gestern in den Keller ging. Damit hat sich die Marktkapitalisierung von nV innerhalb kürzester Zeit halbiert!

reunion@work
2008-07-03, 10:03:36
Die 110 - 120$ stammen von einer Website die man nicht erwähnen sollte und die darin belegte Ausbeute war wohl Vorserie, bzw die ersten Wafer für den Massenmarkt.


Das Die ist 576mm² groß. Es passen max. 94 Dies auf eine 300mm² Wafer. Eine Wafer kostet mehrere tausend Dollar. Bei dieser Größe wird die Ausbeute äußerst bescheiden sein. Auf diese Webseite geben ich auch nichts, aber ich kann auch selbst rechnen. Und >100$ kommt da allemal raus.

Adam D.
2008-07-03, 10:19:14
Wieso sollte es nicht so geplant gewesen sein? Glaubst Du ernsthaft dass NVIDIA nicht wusste an was AMD arbeitet? Es gab schon vor der RV670 Veroeffentlichung eine oeffentliche Aussage von NV die einsah dass AMD bald wiede am Aufschwung sein wird.

Und NV hat auch keinen Zauberstab; gegen den RV670 konnte man in der Form von 7 anstatt 6 cluster fuer die 8800GT noch zeitlich reagieren. Fuer RV770 eben nicht. Sie haetten natuerlich auch den 576mm^2 Brummer links liegen lassen koennen und AMD ein komplett freies Feld verschenken bis sie mit etwas anderem haetten reagieren koennen. Manches ist sehr leicht zu sagen, aber eher doch schwer zu realisieren und nein gewinnen kann selbst NV auch nicht immer.
Das ist doch einfach zu simpel. Hätte Nvidia die reine Performance-Krone haben wollen, hätten sie die auch gekriegt, da kann man mir nix anderes erzählen. Sie haben sich umentschieden, die Prioritäten anders gesetzt. Der RV770 ist zwar stark, aber kein Monster wie damals der G80. Sie hätten alle Vorraussetzungen gehabt: Zeit, Geld und führende Marktposition. Jetzt haben wir halt eine Karte, die Nvidias langfristige Taktik einleitet, aber gegen die aktuellen ATis summa summarum kein Land sieht.

Sorkalm
2008-07-03, 10:29:54
Habe ich ganz übersehen das die Aktie schon gestern in den Keller ging. Damit hat sich die Marktkapitalisierung von nV innerhalb kürzester Zeit halbiert!

Und über ein Jahre betrachtet stand die auch schon mal besser:
http://uk.finance.yahoo.com/q/bc?s=NVDA
(aktuell noch mit den NASDAQ Schluss von $18,03)

Gast
2008-07-03, 10:40:22
HD 3870: 105W TDP
HD 3870X2: 196W TDP, obwohl hier die GPUs auf 825MHz getaktet wurden



Das kommt nur daher, dass CF nicht 100%-ig skalieren kann.
An der X2 TDP kannst du also ablesen, was AMD als maximale Skalierung für CF annimmt.

Sorkalm
2008-07-03, 10:44:34
Das kommt nur daher, dass CF nicht 100%-ig skalieren kann.
An der X2 TDP kannst du also ablesen, was AMD als maximale Skalierung für CF annimmt.

Ähm, sorry, aber so geht das nicht. Das Ding muss nur einmal entsprechend skalieren und dann muss die TDP das aushalten. Und wenn ich einmal auf CB schaue und das erste Spiel - CoD 4 herauspicke, finde ich da schon im zweiten Diagramm (1280x1024 4xAA/16xAF) eine Skalierung von 198% zu 100% (verglichen an 3870 X2 und 3870 mit ja leicht unterschiedlichen Taktraten). Das haut so nicht hin.

Edit: Alternativ unter 2560x1600 4xAA/16xAF leistet die 3870 X2 sogar 212% von dem, was die 3870 leistet. Da wird dann auch der Takt entsprechend umgesetzt (ist immer der selbe Treiber, ja!).

Gast
2008-07-03, 10:45:48
Jetzt haben wir halt eine Karte, die Nvidias langfristige Taktik einleitet, aber gegen die aktuellen ATis summa summarum kein Land sieht.

Also ich habe noch kein Spiel gesehen, in dem ein RV770 eine GTX280 schlägt, also sieht die GPU Land. Brille putzen hilft.

Gast
2008-07-03, 10:47:16
Habe ich ganz übersehen das die Aktie schon gestern in den Keller ging. Damit hat sich die Marktkapitalisierung von nV innerhalb kürzester Zeit halbiert!

Uninteressant, da das allein an dieser Meldung liegt: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=423548

Chris2CB
2008-07-03, 10:48:21
Das Die ist 576mm² groß. Es passen max. 94 Dies auf eine 300mm² Wafer. Eine Wafer kostet mehrere tausend Dollar. Bei dieser Größe wird die Ausbeute äußerst bescheiden sein. Auf diese Webseite geben ich auch nichts, aber ich kann auch selbst rechnen. Und >100$ kommt da allemal raus.

Je präziser die Fertigung, desto teurer. Die 94/95 Chips sind in 65nm gefertigt. Die 5000$( nach den Preisen die man sonst so bekommt, ist das aber wohl zu hoch) die so im Netz rumgeistern, kann man sicher als Anhaltpunkt nehmen, aber auch sehr schwammige infos.
Zudem kosten 55nm Wafer mehr.

Aber alleine ein Spruch wie:Bei dieser Größe wird die Ausbeute äußerst bescheiden sein( das wirds irgendwann in 32nm geben als mainstream). Scheint mir sehr oberflächlich und zu gleich unrealistisch Anhand des VK einer GTX260.

Sorkalm
2008-07-03, 10:48:42
Also ich habe noch kein Spiel gesehen, in dem ein RV770 eine GTX280 schlägt, also sieht die GPU Land. Brille putzen hilft.

Macht nix. Da kann man nachhelfen:
http://www.techreport.com/articles.x/14990/13

Aber wenn du mal drüber nachdenkst, wird dir auffallen, dass er das sicher nicht gemeint hat.

igg
2008-07-03, 10:51:19
Das ist doch einfach zu simpel. Hätte Nvidia die reine Performance-Krone haben wollen, hätten sie die auch gekriegt, da kann man mir nix anderes erzählen. Sie haben sich umentschieden, die Prioritäten anders gesetzt.
Hm... evtl. zahlt sich die GPGPU fokusierte Strategie in ein paar Monaten ja aus? Oder beim DX11 Chip.

Gast
2008-07-03, 10:59:04
Habe ich ganz übersehen das die Aktie schon gestern in den Keller ging. Damit hat sich die Marktkapitalisierung von nV innerhalb kürzester Zeit halbiert!


Bei AMD sieht es kaum besser aus.

Adam D.
2008-07-03, 11:06:21
Hm... evtl. zahlt sich die GPGPU fokusierte Strategie in ein paar Monaten ja aus? Oder beim DX11 Chip.
Das wird sich zeigen, ist momentan noch unklar. Aber Nvidia macht das ganz sicher nicht aus Spaß und ich kann mir auch nicht vorstellen, dass man das jetzt nicht konsequent weiter angeht.

HOT
2008-07-03, 11:07:20
Hm... evtl. zahlt sich die GPGPU fokusierte Strategie in ein paar Monaten ja aus? Oder beim DX11 Chip.
Da sich am G80 Design nicht viel geändert hat, kann man solche Theorien eigentlich nicht aufstellen. Ich glaube nicht, dass der G200 irgendwelche besonderen GP-Vorteile hat. Er hat nur ne Menge Rohleistung. Die hat der RV770 aber auch.

NV war einfach nicht innovativ. Man hat bei den Chipsätzen geschlampt, nur eine MCP+C für eine komplette neue Generation - sry, aber das ist echt wenig. Die Nforce7 Serie begründet sich momentan nur auf 2 1/2 neuen Chips: C73, MCP78 und einer PCIe Bridge. In Sachen Grafik ging es so weiter: Man verzichtete absichtlich auf D3D10.1. Einfach die Chips breiter machen, bringts halt nicht. Das Design ist 3 Jahre auf dem Markt, der RV770 hingegen ist als neuwertiges Design zu bezeichnen. Daraus resultieren halt hohe Produktionskosten und das R&D ist wohl zu sehr darauf konzentriert gewesen, die 575mm² überhaupt möglich zu machen. Meiner Meinung nach gab es bei NV einige krasse Fehlentscheidungen durch zuwenig Mut am Markt was zu riskieren, das rächt sich.

Bei AMD sieht es kaum besser aus.

Das werden wir sehen. AMD hat eine potente neue Grafikgeneration, mit der 7er Chipsatzgeneration ist man hervorragend aufgestellt und was zu erwarten ist (8er Chipsätze + AM3) ist auch sehr positiv. Ich denke, AMD ist aus dem Tal der Tränen heraus, selbst wenn Nehalem schneller sein sollte. AMD hat da dank ATI einige Asse im Ärmel gegen Intel.

Ailuros
2008-07-03, 11:08:16
Das ist doch einfach zu simpel. Hätte Nvidia die reine Performance-Krone haben wollen, hätten sie die auch gekriegt, da kann man mir nix anderes erzählen. Sie haben sich umentschieden, die Prioritäten anders gesetzt. Der RV770 ist zwar stark, aber kein Monster wie damals der G80. Sie hätten alle Vorraussetzungen gehabt: Zeit, Geld und führende Marktposition. Jetzt haben wir halt eine Karte, die Nvidias langfristige Taktik einleitet, aber gegen die aktuellen ATis summa summarum kein Land sieht.

Auf zwei Fronten die Leistungs-Krone zu gewinnen war wohl doch nicht moeglich gewesen; IMHLO gab es zumindest fuer 2008 keine besondere Not das GPGPU Zeug aufzukrempeln um fuer Intel Larabee ab Ende 2009 vorbereitet zu sein. Damit Du mich nicht falsch verstehst: jegliche "langfristige" Planung kann kinderleicht in die Hosen gehen. R600 war eins dieser Beispiele und man entfernte einfach das Zeug dass vorruebergehend keinen Nutzen hat. Und dass soll aber auch wiederrum nicht heissen dass ich nicht 10.1 Komplianz von NV erwartet haette.

Ich werde in der Zwischenzeit aber das Gefuehl nicht los dass NV eigentlich RV8x0 viel mehr Sorgen machen koennte als RV770.

Adam D.
2008-07-03, 11:13:38
Auf zwei Fronten die Leistungs-Krone zu gewinnen war wohl doch nicht moeglich gewesen; IMHLO gab es zumindest fuer 2008 keine besondere Not das GPGPU Zeug aufzukrempeln um fuer Intel Larabee ab Ende 2009 vorbereitet zu sein. Damit Du mich nicht falsch verstehst: jegliche "langfristige" Planung kann kinderleicht in die Hosen gehen. R600 war eins dieser Beispiele und man entfernte einfach das Zeug dass vorruebergehend keinen Nutzen hat. Und dass soll aber auch wiederrum nicht heissen dass ich nicht 10.1 Komplianz von NV erwartet haette.
Ja, du sprichst den Punkt an, den ich nicht verstehe. GPGPU mag in Zukunft von Bedeutung sein, wieso das aber alles schon heute mit dem G200 anfängt, versteh ich einfach nicht. Intels Markteintritt ist wie du sagst noch zu weit weg - bis Ende 2009 haben wir doch schon wieder die nächste Generation an Karten. Darunter müssen sie jetzt selbst leiden, ich versteh diesen taktischen Zug (der mit Sicherheit gut durchdacht ist) nicht. Man hätte den Fokus einfach etwas mehr auf die Leute richten sollen, die die Teile auch kaufen - nämlich die Spieler. Und da hätte man ruhig noch deutlich mehr Leistung auf die Straße bringen können, ohne langfristig Intel außen vor zu lassen.

Ich werde in der Zwischenzeit aber das Gefuehl nicht los dass NV eigentlich RV8x0 viel mehr Sorgen machen koennte als RV770.
RV8x0 wird konsequent das Konzept fortführen, was kann daran so gefährlich werden? Außer ATi geht das Multi-Dice-System von Grund auf neu an...

Ailuros
2008-07-03, 11:19:45
Da sich am G80 Design nicht viel geändert hat, kann man solche Theorien eigentlich nicht aufstellen. Ich glaube nicht, dass der G200 irgendwelche besonderen GP-Vorteile hat. Er hat nur ne Menge Rohleistung. Die hat der RV770 aber auch.

Glauben kann jeder was er will. Der Unterschied zu G80 ist tatsaechlich vergleichsmaessig ziemlich gross.

In Sachen Grafik ging es so weiter: Man verzichtete absichtlich auf D3D10.1. Einfach die Chips breiter machen, bringts halt nicht. Das Design ist 3 Jahre auf dem Markt, der RV770 hingegen ist als neuwertiges Design zu bezeichnen.

Inwiefern ist RV770 "neuwertig"? Man entfernte das nutzlose Zeug aus R6x0/RV670 und steckte mehr Einheiten zu jedem cluster. Ich sehe die gleichen VLIW-ALUs wie auf R600 bzw. Vec4+scalar die 10 FLOPs/Takt abgeben.

Als manche wie Coda in der Vergangenheit erwaehnten dass das "Ring-Dingsbums" ueberfluessig ist und das eine Rueckkehr auf einen stinknormalen MC die beste Idee waere, wurde er von wilden Hyaenen hier ueberfallen. RV670 war auch schon 10.1 kompliant und es handelt sich beim um einen refresh der nur moderaten Aufwand fuer AMD bedeutete und ja es ist auch gut so.

HOT
2008-07-03, 11:20:07
Auf zwei Fronten die Leistungs-Krone zu gewinnen war wohl doch nicht moeglich gewesen; IMHLO gab es zumindest fuer 2008 keine besondere Not das GPGPU Zeug aufzukrempeln um fuer Intel Larabee ab Ende 2009 vorbereitet zu sein. Damit Du mich nicht falsch verstehst: jegliche "langfristige" Planung kann kinderleicht in die Hosen gehen. R600 war eins dieser Beispiele und man entfernte einfach das Zeug dass vorruebergehend keinen Nutzen hat. Und dass soll aber auch wiederrum nicht heissen dass ich nicht 10.1 Komplianz von NV erwartet haette.

Ich werde in der Zwischenzeit aber das Gefuehl nicht los dass NV eigentlich RV8x0 viel mehr Sorgen machen koennte als RV770.
Ja moment. Der R600 war der erste Vorbote einer neuen Generation, die allerdings so stark weiterentwickelt wurde, dass sie jetzt was taugt. Der R600 hatte seine Fehler, aber er stellt die Grundlage für ATIs DX10 Serie da. Der Chip war wichtiger als man so denkt.

HOT
2008-07-03, 11:26:01
Glauben kann jeder was er will. Der Unterschied zu G80 ist tatsaechlich vergleichsmaessig ziemlich gross.

Im Prinzip hat man zwar einiges optimiert, aber sich nicht um die Effektivität bei der Fertigung gekümmert. Zudem brachten die Optimierungen in der Praxis kaum Vorteile. Das fing beim G92 doch schon an, der immernoch ein 300mm²+ Die hatte. Das ist das Problem. Man hat den G80 mit dem G92 nicht wesentlich effektiver gemacht, sondern vom Prinzip her nur geschrinkt - zumindest war das der Effekt, der hinten rauskam.

Inwiefern ist RV770 "neuwertig"? Man entfernte das nutzlose Zeug aus R6x0/RV670 und steckte mehr Einheiten zu jedem cluster. Ich sehe die gleichen VLIW-ALUs wie auf R600 bzw. Vec4+scalar die 10 FLOPs/Takt abgeben.

Ok, war falsch ausgedrückt. Man hat bei ATI dafür gesorgt, dass der Chip Fertigungseffizient ist. Das meine ich mit neuwertigem Design. NV hat sich da offensichtlich nicht darum bemüht und kassiert jetzt die Probleme. ATI hat die grundsätzliche Anordung geändert und die ROPs sowie I/O komplett neu gestaltet. NV hat die SPs immer mächtiger gemacht und mehr TAUs untergebracht, sonst hat NV nichts gemacht und effektiv waren die Änderungen ebensowenig ggü dem G80. Die Chips bekamen immer mehr Transistoren und wurden so immer mächtiger, ohne dass das in der Praxis was brachte.

[...]

Ailuros
2008-07-03, 11:38:21
Ja, du sprichst den Punkt an, den ich nicht verstehe. GPGPU mag in Zukunft von Bedeutung sein, wieso das aber alles schon heute mit dem G200 anfängt, versteh ich einfach nicht. Intels Markteintritt ist wie du sagst noch zu weit weg - bis Ende 2009 haben wir doch schon wieder die nächste Generation an Karten. Darunter müssen sie jetzt selbst leiden, ich versteh diesen taktischen Zug (der mit Sicherheit gut durchdacht ist) nicht. Man hätte den Fokus einfach etwas mehr auf die Leute richten sollen, die die Teile auch kaufen - nämlich die Spieler. Und da hätte man ruhig noch deutlich mehr Leistung auf die Straße bringen können, ohne langfristig Intel außen vor zu lassen.

Vielleicht hatten sie einfach die Blitzidee den GPGPU Markt vorzukapitulieren (im relativen Sinn) bevor Intel irgendwie eingreifen kann. Ich halte das Ganze natuerlich auch fuer Bloedsinn, aber es laesst sich wohl an der Blitzidee nichts aendern.

RV8x0 wird konsequent das Konzept fortführen, was kann daran so gefährlich werden? Außer ATi geht das Multi-Dice-System von Grund auf neu an...

RV8x0 bedeutet fuer mich wichtige Effizienz-Steigerungen die tiefer eingreifen wie in RV7x0 und ich erwarte natuerlich auch das MCM Zeug, das erstmal die Speicher-Redundanz auf dual-chip boards entfernen wird.

Ailuros
2008-07-03, 11:50:19
Im Prinzip hat man zwar einiges optimiert, aber sich nicht um die Effektivität bei der Fertigung gekümmert. Zudem brachten die Optimierungen in der Praxis kaum Vorteile. Das fing beim G92 doch schon an, der immernoch ein 300mm²+ Die hatte. Das ist das Problem. Man hat den G80 mit dem G92 nicht wesentlich effektiver gemacht, sondern vom Prinzip her nur geschrinkt - zumindest war das der Effekt, der hinten rauskam.

Auf 65nm und gegen RV670 hatte G92 auch keine besondere Probleme, weder was das Preis-/Leistungs- noch das Stromvebrauch-Verhaeltnis betrifft.

Ok, war falsch ausgedrückt. Man hat bei ATI dafür gesorgt, dass der Chip Fertigungseffizient ist. Das meine ich mit neuwertigem Design.

Auch RV670 wurde auf 55nm hergestellt.

NV hat sich da offensichtlich nicht darum bemüht und kassiert jetzt die Probleme.

NV geht seit dem NV30 traditionell sehr konservativ mit den Herstellungsprozessen um. Ihre 65nm sind auch so gross (siehe G92/GT200) weil sie auch eine ziemlich konservative Packdichte auf jedem chip haben. Waere AMD auf 55nm mit ihrer bisherigen Packdichte auf 1.4B Transistoren gestiegen, wuerde der Stromverbrauch durch die Decke hauen.


ATI hat die grundsätzliche Anordung geändert und die ROPs sowie I/O komplett neu gestaltet.

Uhmm und was haette NV an ihren ROPs genau aendern sollen?

NV hat die SPs immer mächtiger gemacht und mehr TAUs untergebracht, sonst hat NV nichts gemacht und effektiv waren die Änderungen ebensowenig ggü dem G80.

50% mehr SPs pro cluster und unter GPGPU bzw. CUDA ist die MUL Einheit um einiges mehr und viel einfacher erreichbar. Mit GPGPU Zeug hat die GT200 schon einen grossen Abstand zur G80. Mir nuetzt dieses aber wohl leider nicht besonders viel momentan als Otto-Normalverbraucher.

Die Chips bekamen immer mehr Transistoren und wurden so immer mächtiger, ohne dass das in der Praxis was brachte.

Man braucht keine Unmenge an Zeit jeglichen Unsinn wieder loszuwerden.

Adam D.
2008-07-03, 11:55:25
Vielleicht hatten sie einfach die Blitzidee den GPGPU Markt vorzukapitulieren (im relativen Sinn) bevor Intel irgendwie eingreifen kann. Ich halte das Ganze natuerlich auch fuer Bloedsinn, aber es laesst sich wohl an der Blitzidee nichts aendern.
Aus einer "Blitzidee" entsteht einer ganzer Chip? IMO ziemlich riskant, das passt doch gar nicht zu der Firmenphilosophie.

HOT
2008-07-03, 12:30:15
Auf 65nm und gegen RV670 hatte G92 auch keine besondere Probleme, weder was das Preis-/Leistungs- noch das Stromvebrauch-Verhaeltnis betrifft.

Richtig. Es war ein Die-Shink, bei dem NV aber draufgesattelt hat, ohne dass es ggü. dem G80 einen wesentlich positiven Effekt gehabt hätte. Der G92 hat nicht nur ein bisschen, nein deutlich mehr Transistoren. Gebracht hat es in der Praxis eher wenig.

Auch RV670 wurde auf 55nm hergestellt.

Jap. Aber er hätte mindestens 50mm² grösser als er hätte sein müssen, wenn es ein einfacher Shrink gewesen wäre.

NV geht seit dem NV30 traditionell sehr konservativ mit den Herstellungsprozessen um. Ihre 65nm sind auch so gross (siehe G92/GT200) weil sie auch eine ziemlich konservative Packdichte auf jedem chip haben. Waere AMD auf 55nm mit ihrer bisherigen Packdichte auf 1.4B Transistoren gestiegen, wuerde der Stromverbrauch durch die Decke hauen.

Aber genau das ist bescheuert, sorry. Mit dieser Vorgehensweise kommt man nicht weit, wenn die Wettbewerber sich um die Fertigung mehr bemühen. Genau da liegt ja auch das erste Problem beim G200.

Uhmm und was haette NV an ihren ROPs genau aendern sollen?

Nichts, darum gehts nicht. ATI hat den grössten Flaschenhals erneuert, NV hat nichts dergleichen getan. NV hat nichtmal 10.1 integriert.

50% mehr SPs pro cluster und unter GPGPU bzw. CUDA ist die MUL Einheit um einiges mehr und viel einfacher erreichbar. Mit GPGPU Zeug hat die GT200 schon einen grossen Abstand zur G80. Mir nuetzt dieses aber wohl leider nicht besonders viel momentan als Otto-Normalverbraucher.

Das mag ja alles richtig sein, nur jetzt mal ehrlich - was soll der Quatsch? Die Tansistoren hätte man darauf verwenden können, um die "Leistung auch auf die Strasse zu bringen". In der Praxis bringt es ja nicht viel. Das ist das 2. grosse Problem des G200. Wieviel die Änderungen im GP-Bereich wirklich bringen, wird sich auch zeigen müssen. Dank der ganzen einzelnen SPs könnte die Latenz durch das Threading teilweise recht hoch ausfallen, das ist aber sehr spekulativ. Deswegen traue ich mir auch keine Prognose zu, ob der G200 jetzt wirklich dem RV770 überlegen ist im GP-Bereich.

Man braucht keine Unmenge an Zeit jeglichen Unsinn wieder loszuwerden.
Das erfordert wieder ein neues Chipdesign, bei dem mal locker 1 Jährchen ins Land geht.

Gast
2008-07-03, 13:15:50
Also ich glaube, die 4870X2 besteht aus zwei 4850@625MHz und 2 x 512MB GDDR5. So kommt man auf eine Verlustleistung von ca. 220W und es würden zwei 6-polige PCIe-Stecker für den normalen Betrieb ausreichen, zum Übertakten braucht man dann einen 8-poligen Anschluss, war bei der 3870X2 genauso. Alles andere macht eigentlich keinen Sinn.

Kriton
2008-07-03, 13:23:04
Diese 4850/4870-Differenzierung klingt immer ein wenig merkwürdig wenn dann plötzlich GDDR5-Speicher verwendet wird. Bis auf den Speicher und den Takt gibt es keinerlei Unterschied zwischen 4850 und 4870.

Adam D.
2008-07-03, 13:24:34
Und da der R700 laut letzten (vertrauenswürdigen) Gerüchten aus 2x1GB GDDR5 besteht, wird er sicher mehr sein als 2x "HD4850". Auch die TDP wird sicher in Richtung 300W gehen.

Gast
2008-07-03, 13:26:53
Und da der R700 laut letzten (vertrauenswürdigen) Gerüchten aus 2x1GB GDDR5 besteht, wird er sicher mehr sein als 2x "HD4850". Auch die TDP wird sicher in Richtung 300W gehen.
dieses gerüch tauchte gestern bei vr -zone auch schon auf.
würde mich freuen, wenn das so zutrifft.

Sunrise
2008-07-03, 13:28:54
Aber genau das ist bescheuert, sorry. Mit dieser Vorgehensweise kommt man nicht weit, wenn die Wettbewerber sich um die Fertigung mehr bemühen. Genau da liegt ja auch das erste Problem beim G200.
Ich stimme dir da teilweise zu, dies hat jedoch (wie fast alles) auch Ursachen, die NV zwar bemerkt hat, jedoch nichtmehr sonderlich eingreifen konnte, wenn man etwas auf dem Markt haben wollte, um AMD/ATI nicht alleine das Feld zu überlassen.

Man kann NV allerdings sicher nicht vorwerfen, 65nm für GT200 gewählt zu haben, denn aus NVs Sicht (und auch aus derer, die bei B3D seit Jahren mitlesen), sollte GT200 eigentlich viel früher das Licht der Welt erblicken. Es gab mehrere CCs (Conference Calls), bei dem dies auch unverkennbar durchklang. Was hier genau passiert ist, entzieht sich leider meiner Kenntnis, jedoch war bereits G92 ein Design, welches eigentlich deutlich länger hätte reifen sollen (höhere Takte waren geplant) und im Vergleich zu GT200 gibt es einige Parallelen. Denn bereits mit G92 hatte NV größere Probleme, was die Ausbeute anging. Laut einer Aussage von Marv forcierte man jedoch die Markeinführung, "egal was es kostet". Ähnliches ist bei GT200 auch der Fall. Natürlich zusätzlich bedingt durch die enorme Größe.

Die Sache mit dem Herstellungsprozess und dessen "Abwandlungen" für diverse Märkte ist auch genau einer der Punkte, der NV ggü. ATI bisher immer einen beträchtlichen Vorteil einbrachte. ATI war in der Vergangenheit schon immer sehr aggressiv, was die Nutzung völlig neuer Herstellungsprozesse bei TSMC und deren Prozess-Ziele anging. Zugleich musste man, um eine vertretbare und konkurrenzfähige Endleistung zu erreichen, jedesmal mit der "Brechstangen-Methodik" arbeiten, und das ASIC relativ hoch takten, was sich immer negativ auf die Ausbeute auswirkte. NV hatte keines dieser Probleme, was man auch direkt erkennen kann, denn NV lieferte seit Jahren pünktlich und die Rohleistung war auch genau da, wo man sie haben wollte.

Das "GT200-Debakel" zeichnete sich bereits dadurch ab, dass G92 viel zu groß war, um die unteren Bereiche des Marktes zu bedienen. Der Fokus lag jedoch auf G92 und G94 kam erst sehr viel später. GT200 ist ein mit "brutaler Gewalt" an die Grenzen der TSMC-Masken getriebenes Ungetüm, welches zwar ordentlich Leistung liefert, dies aber durch die enorme Größe erkauft.

Man sollte jedoch bedenken, dass NV jetzt die "Probleme" hat, die sowieso irgendwann auf sie zugekommen wären. Denn NV bedient da ein "Spagat" des Marktes, u.a. völliges Neuland für GPUs, welches sich nur schwer anders mit der aktuellen Architektur lösen lässt. NV hat auch garkeine andere Wahl, als irgendwann mal damit anzufangen, und so schlecht, wie GT200 aus Consumersicht aussehen mag, ist dieser in Summe beileibe sicher nicht. Leider eben nicht das, was man als typischer Konsument von Massenware gerne kauft, wenn man dann auch noch "nur" spielen will.

Zusätzlich gebührt AMD/ATI natürlich ein riesen Kompliment für das, was hier (nach der großen Umstrukturierung) geleistet wurde. Sehr gesund und macht deutlich Lust auf mehr.

Gast
2008-07-03, 13:29:18
dieses gerüch tauchte gestern bei vr -zone auch schon auf.
würde mich freuen, wenn das so zutrifft.

Glaube ich nicht. 300W wären mit dem einen Lüfter auch nicht mehr zu kühlen, und wenn dann nur mit extremer Lautstärke.

Gast
2008-07-03, 14:36:54
Speicher nich vergessen ;) Auch wenn GDDR5 weniger Wärme abgibt, is die doppelte Speichermenge ja nicht unbemerkbar.

es sind gleich viel speicherchips und damit auch annähernd gleich viel energieverbrauch.

im verhältnis zum rest kann man den speicher eh fast vernachlässigen.

Gast
2008-07-03, 14:43:06
im verhältnis zum rest kann man den speicher eh fast vernachlässigen.
Unter Last ja, aber im Idle wiegt er verhältnismäßig schwer. Weiß man, ob PowerPlay auch das gezielte Abschalten ganzer Speichermodule im Idle vorsieht?

AnarchX
2008-07-03, 14:46:47
Unter Last ja, aber im Idle wiegt er verhältnismäßig schwer. Weiß man, ob PowerPlay auch das gezielte Abschalten ganzer Speichermodule im Idle vorsieht?
Ja, das ist ein Teil der aktuellen Stromsparmechanismen.

tombman
2008-07-03, 15:12:23
Havok, ATT, noch viel besseres AA, bzw. 8xAA!
Havok @ GPU? NOPE:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8263&Itemid=1
Es wird vorest kein Havok auf der GPU laufen, im Gegensatz zu Phys-X @ GPU ;)

ATT? Im Vergleich zu Nhancer ein Witz ;)

Viel besseres AA? Nope, nichts ownt 4x4 SSAA- glättet ALLES.

8xAA haben beide...

Gast
2008-07-03, 15:24:54
Havok @ GPU? NOPE:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8263&Itemid=1
Es wird vorest kein Havok auf der GPU laufen, im Gegensatz zu Phys-X @ GPU ;)

Macht nichts, ATI wird dafür auch PhysX unterstützen. Mal sehen, wie sich das ganze entwickelt.

tombman
2008-07-03, 15:41:43
Macht nichts, ATI wird dafür auch PhysX unterstützen. Mal sehen, wie sich das ganze entwickelt.
Aber nur wenn sie ihren Stolz runterschlucken, und das sehe ich noch nicht...

Gast
2008-07-03, 16:52:51
Aber nur wenn sie ihren Stolz runterschlucken, und das sehe ich noch nicht...
bitte tombi, tu nicht so als wären alle so stolz wie du wegen irgendwelchem kleinen zeuchs. ati wird ganz einfach das tun was ihnen marktanteile und geld bescheren wird.

Black-Scorpion
2008-07-03, 17:12:44
Ja klar ist mir das bekannt und bin auch erstaunt was ATI aus 512 dennoch rausholt. Aber es wäre interessant wie der Karte mit 1GB zur 280er steht.

Ich beschwere micht nicht über fehlende 10.1 Games. Ich stelle fest. Wenn ATI die Game-Entwickler nicht dafür begeistern oder überzeugen kann, dann ist es nicht nVs Problem.
Glaube nicht das sich da so viel ändern wird. Hat bei den vorherigen Karten auch nicht die Welt gebracht.

Wie viele Entwickler gibt es die TWIMTBP Spiele anbieten und entwickeln?
Du glaubst doch nicht ernsthaft das die DX10.1 eingebaut haben oder werden.
Jedenfalls solange wie nV keine DX10.1 Karten hat. Geld regiert die Welt, das war schon immer so.
Und die 48x0er sind schon die 2ten Karten von ATI mit DX10.1. Bei nV ist es ebenfalls die 2te Reihe die immer noch kein DX10.1 hat.

Odal
2008-07-03, 17:21:48
Havok @ GPU? NOPE:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8263&Itemid=1
Es wird vorest kein Havok auf der GPU laufen, im Gegensatz zu Phys-X @ GPU ;)


naja eigentlich kann AMD/ATI aussuchen was sie unterstützen wollen, nachdem ihnen NV eine PhysX lizenz aufdrängen wollen


ATT? Im Vergleich zu Nhancer ein Witz ;)


eigentlich ist das ATT=NHancer+Rivatuner


Viel besseres AA? Nope, nichts ownt 4x4 SSAA- glättet ALLES.


ja, wobei ich mit 32xS AA und TSAA oftmals bessere rseultate erziele
man sollte aber auch nicht vergessen wo 4x4 SSAA wirklich noch einsetzbar ist....selbst red orchestra läuft mit 4x4 SSAA grenzwertig und macht daher bei 3x3 SSAA eher spaß ;)


8xAA haben beide...

stimmt aber die NV version vom 8xMSAA sieht äussert unperformant aus

Nightspider
2008-07-03, 17:32:32
Ich stimme dir da teilweise zu, dies hat jedoch (wie fast alles) auch Ursachen, die NV zwar bemerkt hat, jedoch nichtmehr sonderlich eingreifen konnte, wenn man etwas auf dem Markt haben wollte, um AMD/ATI nicht alleine das Feld zu überlassen.

Man kann NV allerdings sicher nicht vorwerfen, 65nm für GT200 gewählt zu haben, denn aus NVs Sicht (und auch aus derer, die bei B3D seit Jahren mitlesen), sollte GT200 eigentlich viel früher das Licht der Welt erblicken. Es gab mehrere CCs (Conference Calls), bei dem dies auch unverkennbar durchklang. Was hier genau passiert ist, entzieht sich leider meiner Kenntnis, jedoch war bereits G92 ein Design, welches eigentlich deutlich länger hätte reifen sollen (höhere Takte waren geplant) und im Vergleich zu GT200 gibt es einige Parallelen. Denn bereits mit G92 hatte NV größere Probleme, was die Ausbeute anging. Laut einer Aussage von Marv forcierte man jedoch die Markeinführung, "egal was es kostet". Ähnliches ist bei GT200 auch der Fall. Natürlich zusätzlich bedingt durch die enorme Größe.

Die Sache mit dem Herstellungsprozess und dessen "Abwandlungen" für diverse Märkte ist auch genau einer der Punkte, der NV ggü. ATI bisher immer einen beträchtlichen Vorteil einbrachte. ATI war in der Vergangenheit schon immer sehr aggressiv, was die Nutzung völlig neuer Herstellungsprozesse bei TSMC und deren Prozess-Ziele anging. Zugleich musste man, um eine vertretbare und konkurrenzfähige Endleistung zu erreichen, jedesmal mit der "Brechstangen-Methodik" arbeiten, und das ASIC relativ hoch takten, was sich immer negativ auf die Ausbeute auswirkte. NV hatte keines dieser Probleme, was man auch direkt erkennen kann, denn NV lieferte seit Jahren pünktlich und die Rohleistung war auch genau da, wo man sie haben wollte.

Das "GT200-Debakel" zeichnete sich bereits dadurch ab, dass G92 viel zu groß war, um die unteren Bereiche des Marktes zu bedienen. Der Fokus lag jedoch auf G92 und G94 kam erst sehr viel später. GT200 ist ein mit "brutaler Gewalt" an die Grenzen der TSMC-Masken getriebenes Ungetüm, welches zwar ordentlich Leistung liefert, dies aber durch die enorme Größe erkauft.

Man sollte jedoch bedenken, dass NV jetzt die "Probleme" hat, die sowieso irgendwann auf sie zugekommen wären. Denn NV bedient da ein "Spagat" des Marktes, u.a. völliges Neuland für GPUs, welches sich nur schwer anders mit der aktuellen Architektur lösen lässt. NV hat auch garkeine andere Wahl, als irgendwann mal damit anzufangen, und so schlecht, wie GT200 aus Consumersicht aussehen mag, ist dieser in Summe beileibe sicher nicht. Leider eben nicht das, was man als typischer Konsument von Massenware gerne kauft, wenn man dann auch noch "nur" spielen will.

Zusätzlich gebührt AMD/ATI natürlich ein riesen Kompliment für das, was hier (nach der großen Umstrukturierung) geleistet wurde. Sehr gesund und macht deutlich Lust auf mehr.

Für mich das Wort des Monats (y)

Ich würde noch hinzufügen, das keiner weiß, wie gut sich der G200 im Server-Markt verkaufen wird. Möglicherweise wird Nvidia viel Geld im Serversegment machen, da dort die G200 Chips deutlich teurer verkauft werden können und ein sehr hohes Potential aufweisen.

Wohin die ganzen Transistoren des G200 Chips geflossen sind, werden wir erst in der Zukunft sehen.

dildo4u
2008-07-03, 17:34:36
ja, wobei ich mit 32xS AA und TSAA oftmals bessere rseultate erziele
man sollte aber auch nicht vergessen wo 4x4 SSAA wirklich noch einsetzbar ist....selbst red orchestra läuft mit 4x4 SSAA grenzwertig und macht daher bei 3x3 SSAA eher spaß ;)

Es ging whol um G200 nicht um deine 8800GT. ;)

Black-Scorpion
2008-07-03, 17:37:43
Aber nur wenn sie ihren Stolz runterschlucken, und das sehe ich noch nicht...
Es sind also wie immer alle zu Stolz die nV nicht in den AR*** kriechen und das machen was sie wollen?
Hat nV jemals eine Sache unterstützt die nicht auf ihrem Mist gewachsen ist?

*edit*
Dann eben mit s. ;)

Gast
2008-07-03, 17:51:29
<Rechtschreib-Bösewicht> "Mist" schreibt man mit einem "s", und "kompliant" ist wohl eine Neuschöpfung. Lieber das bereits existierende "compliant" benutzen, denn deutsch ausgesprochen klingts eh sehr bescheiden ;) </Rechtschreib-Bösewicht>

So, können wir nun wieder auf das Thema: ***R700*** zurück kommen? Danke! :)

Gast
2008-07-03, 18:01:12
Havok @ GPU? NOPE:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8263&Itemid=1
Es wird vorest kein Havok auf der GPU laufen, im Gegensatz zu Phys-X @ GPU ;)

ATT? Im Vergleich zu Nhancer ein Witz ;)

Viel besseres AA? Nope, nichts ownt 4x4 SSAA- glättet ALLES.

8xAA haben beide...
4x4SSAA ist Schrott besonders deren Wirkung auf Polygonkanten wie mt nur 4xAA.

AnarchX
2008-07-03, 18:10:31
R700 im Q2 2008: RV7xx und HD4870(X2) ist hier das Thema.

Sk_Antilles
2008-07-03, 18:22:49
Das Die ist 576mm² groß. Es passen max. 94 Dies auf eine 300mm² Wafer. Eine Wafer kostet mehrere tausend Dollar. Bei dieser Größe wird die Ausbeute äußerst bescheiden sein. Auf diese Webseite geben ich auch nichts, aber ich kann auch selbst rechnen. Und >100$ kommt da allemal raus.

So, ich will jetzt nicht kleinlich sein, aber anscheinend haben hier Alle den (Denk)Fehler nicht bemerkt. Also bei mir passt nicht mal ein EINZIGER 576mm2 Chip auf einen 300 mm2 Wafer. :biggrin:
Was du meinst ist ein 300mm Durchmesser Wafer. Das sind 70685,83 mm2. Aber die 94 Stück stimmen wieder, wenn man den Verschnitt mit einbezieht.
Wollte aber nur auf diesen kleinen Fehler aufmerksam machen. ;)

Gast
2008-07-03, 19:49:47
Es sind also wie immer alle zu Stolz die nV nicht in den AR*** kriechen und das machen was sie wollen?
Hat nV jemals eine Sache unterstützt die nicht auf ihrem Mist gewachsen ist?

*edit*
Dann eben mit s. ;)

*Prust* glaube du hast da nicht annähernd die Erfahrung um dir da ein Urteil oder gar eine fundierte Meinung zu bilden. Der Developer Support bei nV ist besser als der von AMD. Intel ist hier nach wie vor ungeschlagen, aber die verpulvern ja auch 1Mrd. im Jahr nur um kleine Entwickler zu unterstützen, das kann sich sonst keiner Leisten und angesprochen wird es auch sehr wenig in der Presse. Ist ja was gutes und das macht keine gute News, skandal sells News...

Black-Scorpion
2008-07-03, 20:15:50
Schön das du weißt was ich für Erfahrungen habe. Bin begeistert über deine Hellseherischen Fähigkeiten.

Vor allem wo ist der Bezug zu dem Beitrag von mir? Ach gelesen worauf ich geantwortet habe?

Kriton
2008-07-03, 21:48:55
We just got a final confirmation that R700 uses two RV770XT GPUs and that it supports massive 2GB of GDDR5 memory.

Naturally, the card uses 256 bit memory interface and it looks that the card can ship in last days of August.

ATI used the codename Spartan for R700, as someone got hot for the movie. At this time, there are no talks about any clock speeds but the brand should settle at Radeon HD 4870 X2 area.

We will confirm this as soon as we can.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8279&Itemid=1

MEDIC-on-DUTY
2008-07-03, 22:13:22
We will confirm this as soon as we can.[/URL]

sagt eigentlich schon alles... ...hatter wohl eben im Asienforum gegoogelt ;)

Ailuros
2008-07-03, 23:53:13
Richtig. Es war ein Die-Shink, bei dem NV aber draufgesattelt hat, ohne dass es ggü. dem G80 einen wesentlich positiven Effekt gehabt hätte. Der G92 hat nicht nur ein bisschen, nein deutlich mehr Transistoren. Gebracht hat es in der Praxis eher wenig.

Absoluter Schwachsinn. G92 kam als erstes Exemplar mit der 8800GT in den Markt und lieferte somit verdammt nahe Leistung an der 8800GTX nur um einen um einiges kleineren Anfangspreis. Was soll eine Mainstream GPU gegen eine vorige high end GPU denn genau liefern (aus der gleichen Generation) ausser den Preis fuer Leistung X um einiges zu reduzieren?

Jap. Aber er hätte mindestens 50mm² grösser als er hätte sein müssen, wenn es ein einfacher Shrink gewesen wäre.

Was hat jetzt die die-Groesse damit zu tun? Sowohl RV670 als auch RV770 wurden auf 55nm hergestellt; nur wurde beim letzteren mehr Mist entfernt um mehr Platz fuer die zusaetzlichen Einheiten zu erlauben.

Aber genau das ist bescheuert, sorry. Mit dieser Vorgehensweise kommt man nicht weit, wenn die Wettbewerber sich um die Fertigung mehr bemühen. Genau da liegt ja auch das erste Problem beim G200.

Welches Problem genau? Haette GT200 die gleiche Packdichte wie RV770 waere sein Stromverbrauch unertraeglich.

Nichts, darum gehts nicht. ATI hat den grössten Flaschenhals erneuert, NV hat nichts dergleichen getan. NV hat nichtmal 10.1 integriert.

Und ich frage nochmals welchen "Flaschenhals" haette NV in den ROPs spezifisch entfernen oder "erneuern" sollen? Wenn etwas gut genug dann laesst man es auch so wie es ist; wenn nicht wird umgekrempelt. Was genau haben sowieso die ROPs mit 10.1 zu tun?

Das mag ja alles richtig sein, nur jetzt mal ehrlich - was soll der Quatsch? Die Tansistoren hätte man darauf verwenden können, um die "Leistung auch auf die Strasse zu bringen". In der Praxis bringt es ja nicht viel. Das ist das 2. grosse Problem des G200. Wieviel die Änderungen im GP-Bereich wirklich bringen, wird sich auch zeigen müssen. Dank der ganzen einzelnen SPs könnte die Latenz durch das Threading teilweise recht hoch ausfallen, das ist aber sehr spekulativ. Deswegen traue ich mir auch keine Prognose zu, ob der G200 jetzt wirklich dem RV770 überlegen ist im GP-Bereich.

Ich sagte klipp und klar im Vergleich zu G80; ob sich dieses in der Zukunft auszahlen wird wage ich auch zu bezweifeln denn fuer 2009 muessen sie sich wohl in allen Bereichen verdammt stark anstrengen muessen.


Das erfordert wieder ein neues Chipdesign, bei dem mal locker 1 Jährchen ins Land geht.

Kommt drauf an wann die hypothetische demenstrechende Entwicklung angefangen hat.

Gast
2008-07-04, 00:30:06
der g92 lag immer fernab der leistung einer g80 gtx, die 8800gtx schlägt alle nvidia karten bis auf die neuen und die ultra in sachen minfps bei auflösungen höher oder gleich 1680*1050 mit 16x af und 4x aa

Cpl. Dwayne Hicks
2008-07-04, 01:42:30
der g92 lag immer fernab der leistung einer g80 gtx, die 8800gtx schlägt alle nvidia karten bis auf die neuen und die ultra in sachen minfps bei auflösungen höher oder gleich 1680*1050 mit 16x af und 4x aa

Solche Pauschal Aussagen sind natürlich Schwachsinn. :rolleyes:

Odal
2008-07-04, 02:10:20
Es ging whol um G200 nicht um deine 8800GT. ;)

welcher weit davon entfernt ist doppelt so schnell zu sein wie eine 88GT@850Mhz
da kann ich mir die performance von 4x4 SSAA beim G200 ausmalen

und bis auf ältere und anspruchslose titel müsste er dazu schon 6-10 mal so schnell wie eine 88GT@850Mhz sein um von flüssig reden zu können

4x4 SSAA ist einfach verdammt ineffizient.....

Gast
2008-07-04, 02:33:16
8xS oder 16xS tut es auch.

MEDIC-on-DUTY
2008-07-04, 08:45:52
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6633209&postcount=574 *klugscheiss*

AnarchX
2008-07-04, 09:11:13
Genau, zurück zum Thema!

R700 to also come with 1GB GDDR3 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8284&Itemid=34)

Also wohl doch eine HD4850X2?

Adam D.
2008-07-04, 09:25:57
Jop, das grenzt die Produkte auch deutlicher voneinander ab. Dazu sollte die Karte mit 1GB GDDR3 deutlich weniger kosten, außerdem könnte man die Karte sofort anbieten. Auch wenn die Karte die meisten nicht interessieren dürfte ... Aber man muss den Preis abwarten.

Gast
2008-07-04, 09:50:27
R700 is Radeon HD 4870 X2

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8285&Itemid=1

Spasstiger
2008-07-04, 09:54:26
Genau, zurück zum Thema!

R700 to also come with 1GB GDDR3 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8284&Itemid=34)

Also wohl doch eine HD4850X2?
Sieht so aus. Dann bietet man wohl die HD4850 X2 wohl für knapp 300€ an und die HD4870 X2 denke ich mal für 450€ als direkte Konkurrenz zur GTX 280.

AnarchX
2008-07-04, 10:00:18
Sieht so aus. Dann bietet man wohl die HD4850 X2 wohl für knapp 300€ an und die HD4870 X2 denke ich mal für 450€ als direkte Konkurrenz zur GTX 280.
Die 4870X2 soll doch schon nur $499 kosten, also sind es dann wohl für die 4850X2 <300€, da sie wohl auch nicht teurer sein sollte als zwei einzelne 4850.

Und Konkurrent zur HD4870X2 wird wohl eher GT200-400 sein aka GTX 290(?).

Spasstiger
2008-07-04, 10:01:17
Und Konkurrent zur HD4870X2 wird wohl eher GT200-400 sein aka GTX 290(?).
Performancetechnisch ja. Ich meine jetzt preis- und marketingtechnisch.

/EDIT: Die GTX 280 liegt ja schon bei 400€. Ich dachte, die sei noch bei 450€ und bleibt da auch bis zum Release einer neuen Radeon X2.

AnarchX
2008-07-04, 10:04:43
Performancetechnisch ja. Ich meine jetzt preis- und marketingtechnisch.
Es würde mich nicht wundern, wenn die GT200-400 auch maximal $499 im August kostet, immerhin verkauft MSI ihre OC GTX 280 momentan schon für $459 in den USA und wenn man die Leistung der 4870X2 projeziert, wird NV auch nichts anderes übrig bleiben.

MEDIC-on-DUTY
2008-07-04, 10:08:08
Es würde mich nicht wundern, wenn die GT200-400 auch maximal $499 im August kostet, immerhin verkauft MSI ihre OC GTX 280 momentan schon für $459 in den USA und wenn man die Leistung der 4870X2 projeziert, wird NV auch nichts anderes übrig bleiben.

Ist der Launchtermin für die 4870X2 jetzt für Ende Juli oder Ende August angesetzt?

Odal
2008-07-04, 10:08:27
Sieht so aus. Dann bietet man wohl die HD4850 X2 wohl für knapp 300€ an und die HD4870 X2 denke ich mal für 450€ als direkte Konkurrenz zur GTX 280.

naja wenn man sich die X-Fire Benchmarks anschaut

http://www.guru3d.com/article/radeon-hd-4850-and--4870-crossfirex-performance/

sieht es eher so aus das ein 4850 X-Fire schon die GTX280 sehr gut im Zaum hat

je nach Nutzen dieses "X-Fire Sideports" könnte die Effizienz auf einem PCB noch besser sein...

Die 4870X2 wäre da schon eher für eine potentielle Ultra280 auf G200b Basis geeignet...

MEDIC-on-DUTY
2008-07-04, 10:10:47
naja wenn man sich die X-Fire Benchmarks anschaut

http://www.guru3d.com/article/radeon-hd-4850-and--4870-crossfirex-performance/

sieht es eher so aus das ein 4850 X-Fire schon die GTX280 sehr gut im Zaum hat

je nach Nutzen dieses "X-Fire Sideports" könnte die Effizienz auf einem PCB noch besser sein...

Die 4870X2 wäre da schon eher für eine potentielle Ultra280 auf G200b Basis geeignet...

Jetzt weiß ich, warum Dir der Test so gut gefällt:
http://www.guru3d.com/imageview.php?image=14138
;D

Spasstiger
2008-07-04, 10:12:00
Die 4870X2 wäre da schon eher für eine potentielle Ultra280 auf G200b Basis geeignet...
Das AMD/ATI-Marketing könnte halt auf den gewaltigen Performancevorteile der HD4870 X2 gegenüber der GTX 280 verweisen.

Odal
2008-07-04, 10:19:12
Jetzt weiß ich, warum Dir der Test so gut gefällt:
http://www.guru3d.com/imageview.php?image=14138
;D

;D nee da is meine Freundin hübscher ;)

Das AMD/ATI-Marketing könnte halt auf den gewaltigen Performancevorteile der HD4870 X2 gegenüber der GTX 280 verweisen.
eine HD4870 könnte auch einen recht hohen Performancevorteil haben
bleibt halt nur die Frage ob genug "günstiger" GDDR5 ram verfügbar ist...

vielleicht gibts deswegen auch noch vielleicht die 4850X2...um dann die "massen" zu bedienen und wie du schon sagst...die 4870X2 als zugpferd zu haben welche so richtig den boden mit der GTX280 wischt

AnarchX
2008-07-04, 11:40:29
http://img95.imageshack.us/img95/264/200807044b4e4bcba48c7d6ld0.jpg

http://img95.imageshack.us/img95/5097/20080704ca9f515b36da041ks8.jpg

Sorkalm
2008-07-04, 11:42:33
Oha, schön schwarz. :D

Gast
2008-07-04, 11:51:18
Die Heatpipe ist auch verschwunden.

MEDIC-on-DUTY
2008-07-04, 11:58:07
Das nenne ich mal Understatement. :cool: Keine bescheuerten WoW Mongobildchen.
Aber die Stromanschlüsse sind mal selten dämlich gesetzt.

AnarchX
2008-07-04, 12:01:01
Das nenne ich mal Understatement. :cool: Keine bescheuerten WoW Mongobildchen.
Die kleben ja meist die AIBs drauf und im asiatischen Markt ist das wohl gar nicht so verkehrt. ;)

Gast
2008-07-04, 12:25:15
Erste Taktfrequenzen zu RV710 und RV730:

http://www.nordichardware.com/news,7915.html

Adam D.
2008-07-04, 12:33:49
Könnten RV710/730 bereits im 45/40nm-Prozess hergestellt sein? Ich dachte, ich hätte irgendwo mal gelesen, dass man das mit TSMC durchaus ausprobieren wollte.

w0mbat
2008-07-04, 12:35:06
Soweit ich weiß:
RV730 = 55nm, RV740 = 40/45nm

Adam D.
2008-07-04, 12:38:11
Achso, ok, dann hab ich das verwechselt :usad:

Gast
2008-07-04, 13:23:28
Hier mal alles schön auf Deutsch. Nordichardware drückt sich da ja aus meiner Sicht sehr kompliziert aus:

http://www.hardware.kilu.de/?id=19

Spasstiger
2008-07-04, 14:49:46
Aber die Stromanschlüsse sind mal selten dämlich gesetzt.
Finde ich nicht. Bei seitlichen Steckern blockiert evtl. ein großer Lüfter in der Seitenwand und bei Steckern am Kartenende sind meist Festplatten bzw. deren kabel im Weg.

MEDIC-on-DUTY
2008-07-04, 21:20:59
Finde ich nicht. Bei seitlichen Steckern blockiert evtl. ein großer Lüfter in der Seitenwand und bei Steckern am Kartenende sind meist Festplatten bzw. deren kabel im Weg.

Die HD-Blockade ist klar, meinte ich auch nicht. Ich habe auch einen Gehäuselüfter in der Seitewand neben der 280er und da blockiert nichts.
Aber mit diesen Anschlüssen und evtl. etwas stärker geschirmte und damit störischer PCI-E Kabel blockiert man wenns blöd läuft mal eben den darunter liegenden Slot.

Gast
2008-07-04, 22:48:24
Auf den Bildern am Anfang des Threads finden sich Hinweise auf die Specs vom R700:

Die Präsentation von AMD sagt "R700 delivers 2 TeraFLOPS per Board", das würde 625MHz Chiptakt bedeuten (2 x 625 x 2 x 800 = 2000 GFLOPS).

Auf dem Bild mit der 4870X2 im eingebauten Zustand sieht man deutlich, dass nur zwei 6-polige PCIe-Stecker angeschlossen sind. Das bedeutet eine maximale Verlustleistung von 225W und somit wiederum 625MHz Chiptakt. Die 4850 mit 625MHz benötigt nur 110W, d.h. für zwei Chips ca. 220W. Ich denke, es wird so sein wie bei der 3870X2, dass man den 8-poligen Anschluss nur zum Übertakten benötigt.

Fazit: Ich vermute für den R700 deshalb 625Mhz Chiptakt und 2 x 512MB GDDR5 bei ca. 220W und nicht wie bisher spekuliert 750Mhz mit 2GB RAM bei 280W+, weil das einfach unrealistisch ist.

palace
2008-07-04, 23:01:37
Auf dem Bild mit der 4870X2 im eingebauten Zustand sieht man deutlich, dass nur zwei 6-polige PCIe-Stecker angeschlossen sind. Das bedeutet eine maximale Verlustleistung von 225W
PCIe2 liefert 150W... könnte dann auch 300W bedeuten(?)
Wieviel bekomme ich denn über die 2 extra Pins (6+2) zusätzlich?

Nicht, dass mir 225W Max nicht gefallen würde ;)

Denke aber PCIe V1: Slot+6+8, V2: Slot+6+6

Gast
2008-07-04, 23:08:15
PCIe2 liefert 150W... könnte dann auch 300W bedeuten(?)
Wieviel bekomme ich denn über die 2 extra Pins (6+2) zusätzlich?

Nicht, dass mir 225W Max nicht gefallen würde ;)

Denke aber PCIe V1: Slot+6+8, V2: Slot+6+6

Nein, auch bei PCIe 2.0 sind es nur 75W über den Bus.

http://www.heise.de/newsticker/Die-Spezifikation-fuer-PCI-Express-2-0-ist-fertig--/meldung/83746

Gast
2008-07-04, 23:11:44
Slot (75W) + 6-polig (75W) + 6-polig (75W) = 225W

oder

Slot (75W) + 6-polig (75W) + 8-polig (150W) = 300W

palace
2008-07-04, 23:57:54
Slot (75W) + 6-polig (75W) + 6-polig (75W) = 225W

oder

Slot (75W) + 6-polig (75W) + 8-polig (150W) = 300W
Ah! Danke!

Edit: Wenn die 4870 ca. < 160 Watt hat, ist mir aber nicht klar, wie 2x 6 Pin für default (siehe Pic) genügen könnten... und 2x 1GB schon gar nicht...

up¦²
2008-07-05, 00:02:54
PCIe2 liefert 150W... könnte dann auch 300W bedeuten(?)
Wieviel bekomme ich denn über die 2 extra Pins (6+2) zusätzlich?

Nicht, dass mir 225W Max nicht gefallen würde ;)

Denke aber PCIe V1: Slot+6+8, V2: Slot+6+6

Nebenbei...
wenn alle Stricke reißen, sowas gibt's auch noch:
http://geizhals.at/eu/a244247.html

Blacksoul
2008-07-05, 01:51:21
So sieht sie aus:
http://img71.imageshack.us/img71/6021/4870x2aht6.jpg

http://img71.imageshack.us/img71/5282/4870x2boe9.jpg


Danke für die Bilder.
Hatten wir aber schon. ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6634726#post6634726


t.b.d

up¦²
2008-07-05, 01:56:16
na auf AnarchX ist eben Verlaß! :up:
Sorry... doppelt gemoppelt :redface:

tombman
2008-07-05, 02:40:54
http://img95.imageshack.us/img95/264/200807044b4e4bcba48c7d6ld0.jpg

http://img95.imageshack.us/img95/5097/20080704ca9f515b36da041ks8.jpg
Schmeckt gut ;)

Schwarz war halt immer die EXTREME Farbe ;)

Ailuros
2008-07-05, 08:55:27
Auf den Bildern am Anfang des Threads finden sich Hinweise auf die Specs vom R700:

Die Präsentation von AMD sagt "R700 delivers 2 TeraFLOPS per Board", das würde 625MHz Chiptakt bedeuten (2 x 625 x 2 x 800 = 2000 GFLOPS).

Auf dem Bild mit der 4870X2 im eingebauten Zustand sieht man deutlich, dass nur zwei 6-polige PCIe-Stecker angeschlossen sind. Das bedeutet eine maximale Verlustleistung von 225W und somit wiederum 625MHz Chiptakt. Die 4850 mit 625MHz benötigt nur 110W, d.h. für zwei Chips ca. 220W. Ich denke, es wird so sein wie bei der 3870X2, dass man den 8-poligen Anschluss nur zum Übertakten benötigt.

Fazit: Ich vermute für den R700 deshalb 625Mhz Chiptakt und 2 x 512MB GDDR5 bei ca. 220W und nicht wie bisher spekuliert 750Mhz mit 2GB RAM bei 280W+, weil das einfach unrealistisch ist.

Unter der Vorraussetzung dass es nur eine R700 Variante geben wird. Es spricht nichts dagegen solche boards auch mit 1GB pro chip auszustatten und man kann es den AIBs einfach frei lassen wie sie manche von den Dingern takten.

AnarchX
2008-07-05, 09:52:56
Fazit: Ich vermute für den R700 deshalb 625Mhz Chiptakt und 2 x 512MB GDDR5 bei ca. 220W und nicht wie bisher spekuliert 750Mhz mit 2GB RAM bei 280W+, weil das einfach unrealistisch ist.
Das Problem hierbei ist nur, dass die Folie mit den X12.5k für 2x R700 auch von AMD kommt und da sind durch den ebenfalls vorhandenen GPU-Z-Screen 750MHz GPU-Takt und 1GiB Speicher pro GPU deutlich erkennbar sind.

Ob 2 oder 2.4 TFLOPs is bei dieser Höhe an Rechenleistung wohl eh nicht mehr so wichtig, weshalb man die runde "2" nennt. :D

Adam D.
2008-07-05, 10:01:42
Das Problem hierbei ist nur, dass die Folie mit den X12.5k für 2x R700 auch von AMD kommt und da sind durch den ebenfalls vorhandenen GPU-Z-Screen 750MHz GPU-Takt und 1GiB Speicher pro GPU deutlich erkennbar sind.

Ob 2 oder 2.4 TFLOPs is bei dieser Höhe an Rechenleistung wohl eh nicht mehr so wichtig, weshalb man die runde "2" nennt. :D
HD4850X2: 625MHz Core, 2x512MB GDDR3, TDP ~230W, 399$
HD4870X2: 750MHz Core, 2x1GB GDDR5, TDP ~280-300W, 499$

?

horn 12
2008-07-05, 10:37:32
Dies wären dann ca. 260 Euro bei der 4850 X2
bzw. 380 Euro bei der HD 4870 X2
Denke das werden die Finalen Preise sein, bei Release etwas darunter gar noch.

pest
2008-07-05, 11:08:08
Dies wären dann ca. 260 Euro bei der 4850 X2


für wieviel will NV dann die GTX280 verkaufen? 200,-€?

Gast
2008-07-05, 11:19:22
für wieviel will NV dann die GTX280 verkaufen? 200,-€?
Natürlich. Die alte 8800GTX ging auch zuletzt um 200€ weg von DIE grösse unterscheidet die sich nicht viel von GTX280. Die paar MB an mehr Speicher würden sich sich noch in +20€ niederschlagen.

Gast
2008-07-05, 11:21:02
Ganz ehrlcih wenn ATI voll da ist mit allen X2 Karten sinkt der Preis für 280GTX rapide. Nur NV Fanboys wollen es JETZT nicht einsehen das die Karte ehe 250€ Karte ist.

Odal
2008-07-05, 11:31:10
für wieviel will NV dann die GTX280 verkaufen? 200,-€?

na wollen nicht, höchstens müssen :biggrin: denn selbst hartgesottene NVidianer überlegen sich ob sie für die gleiche leistung das doppelte latzen

Natürlich. Die alte 8800GTX ging auch zuletzt um 200€ weg von DIE grösse unterscheidet die sich nicht viel von GTX280. Die paar MB an mehr Speicher würden sich sich noch in +20€ niederschlagen.

die alte 88GTX ging nach 1.5 Jahren, als resteabverkauf für gut 200€ weg als der nachfolger in den startlöchern stand...

aber nicht kurz nach launch :rolleyes:

ausserdem hatte die alte 88GTX kein 512Bit PCB

Ailuros
2008-07-05, 14:18:39
Natürlich. Die alte 8800GTX ging auch zuletzt um 200€ weg von DIE grösse unterscheidet die sich nicht viel von GTX280. Die paar MB an mehr Speicher würden sich sich noch in +20€ niederschlagen.

Uhhmm mit dem klitzekleinen Unterschied dass NVIDIA eine Unmenge dieser Dinger am Anfang verkaufte und eben stets verdammt nahe am Anfangspreis; in dem Fall kann man sich es auch leisten beim Ausverkauf die Ueberreste fuer sehr wenig zu verscherpeln.

Als die R600 erschien war das Verhaeltnis R600-G80 bei 10:90.

Gast
2008-07-05, 18:45:21
Ich sehe da kein grosses Problem für NV. Wenn sie wenigstens kostendeckend verkaufen können ist mir nur recht. Man muss auch nicht ständig Nvidias Probleme als UNSERE Problem hinstellen, das sie eventuell nicht 300$ sondern nur 30$ einnehmen. Ihr verlorenes Geld ist unser GESPARTES Geld - so ist das. Ne, Ailuros?

crux2005
2008-07-05, 20:26:07
mir ist jetzt etwas komisches auf dem HD 4870 X2 Bild aufgefallen:

http://s8.directupload.net/images/080705/ckqid5s9.jpg

was soll das sein ? ein teil des PCB der später weggesägt wird ?

Gast
2008-07-05, 20:32:13
ja dinger kann man ab knicken, ich hatte mal ne 8800 GTX die kam frisch vom Band und musste die selber abmachen.

Gast
2008-07-06, 08:40:53
Ganz ehrlcih wenn ATI voll da ist mit allen X2 Karten sinkt der Preis für 280GTX rapide. Nur NV Fanboys wollen es JETZT nicht einsehen das die Karte ehe 250€ Karte ist.
Witzig, dass du von "JETZT" sprichst, wo ein reales Produkt gegen eine Ankündigung verglichen wird. ;)

Ailuros
2008-07-06, 09:30:32
Ich sehe da kein grosses Problem für NV. Wenn sie wenigstens kostendeckend verkaufen können ist mir nur recht. Man muss auch nicht ständig Nvidias Probleme als UNSERE Problem hinstellen, das sie eventuell nicht 300$ sondern nur 30$ einnehmen. Ihr verlorenes Geld ist unser GESPARTES Geld - so ist das. Ne, Ailuros?

Ihr Problem wird eher sein dass die Unkosten womoeglich doch nicht durch GT200 gedeckt werden. Ab GT200b wird es natuerlich besser werden, aber ich werde trotz allem das Gefuehl nicht los dass sie sich vielleicht gezwungen sehen auf 45 oder 40nm frueher als sie es bis jetzt riskiert haben zu steigen. Natuerlich unter der Vorraussetzung dass ihnen die gesamte GT2x0 Familie irgendwo um die 1 Milliarde gekostet hat, wie sie selber behaupten.

Gaestle
2008-07-06, 13:48:15
Natuerlich unter der Vorraussetzung dass ihnen die gesamte GT2x0 Familie irgendwo um die 1 Milliarde gekostet hat, wie sie selber behaupten.

Hui, da war ja NV40 mit den irgendwo genannten 400Mio direkt ein Schnäppchen.

Gast
2008-07-06, 13:50:39
Witzig, dass du von "JETZT" sprichst, wo ein reales Produkt gegen eine Ankündigung verglichen wird. ;)
Hahahaha....

http://www.hardocp.com/news.html?news=MzM0ODUsLCxoZW50aHVzaWFzdCwsLDE=

GTX 260: $222 ($329)~ 140€

GTX 280: $392 ($499)~ 250€

deekey777
2008-07-06, 13:51:04
Hui, da war ja NV40 mit den irgendwo genannten 400Mio direkt ein Schnäppchen.
Die 400 Mio hörte ich bisher iVm dem G80.

Nakai
2008-07-06, 14:06:59
Die 400 Mio hörte ich bisher iVm dem G80.

300 Mio. das hat NV selber behauptet. Stand in einer alten CHIP drin.


GTX 260: $222 ($329)~ 140€

GTX 280: $392 ($499)~ 250€

Das ist gefährlich. Ich glaube nicht, dass die GTX260 noch profitabel ist.


mfg Nakai

Chris2CB
2008-07-06, 14:13:15
Die 400 Mio hörte ich bisher iVm dem G80.


Was glaubt ihr was man so alles in der Stadt hören kann........:rolleyes:
Eine Auflistung aus was sich diese 400millionen, oder 1 milliarde zusammensetzen währe doch nett.

Die zahlen von NV40 passen schonmal nicht wirklich zum Umsatz in dieser Zeit und leider finde ich nur den kompletten Firmen Umsatz wo alles drin ist.



Das ist gefährlich. Ich glaube nicht, dass die GTX260 noch profitabel ist.


mfg Nakai

Die Preise sehen zu Krumm aus um als UVP durch zu gehen.

Sorkalm
2008-07-06, 14:19:02
Wenn man den Text bei Hexus durchließt, dann sollen die neuen MSPRs 329 USD für die GTX 260 und 499 USD für die GTX 280 sein (was aber nochmal eine Preissekung gegenüber den von Fudzilla genannten Preissenkungen wäre). Die Preise außerhalb der Klammern sind irgendwelche internen AIB-"Preise".

Gaestle
2008-07-06, 14:25:06
300 Mio. das hat NV selber behauptet.

Okay, dann eben so. Aber trotzdem sind die Entwicklungskosten offenbar ganz schön gestiegen.
Wird bei Ati nicht anders sein, wenn auch vielleicht in einer etwas geringeren Dimension, so wie Ail das andeutet.
(um mal die Kurve zum Threadthema zu kriegen)


Die zahlen von NV40 passen schonmal nicht wirklich zum Umsatz in dieser Zeit und leider finde ich nur den kompletten Firmen Umsatz wo alles drin ist.


Auch nicht, wenn mehrere Quartale zusammengerechnet werden? Die Entwicklungskosten fallen ja nicht auf einen Schlag an, sondern ziehen sich über drei - vier Jahre. Der Verkauf zieht sich bestimmt auch über ein bis zwei Jahre.

Chris2CB
2008-07-06, 14:49:52
Okay, dann eben so. Aber trotzdem sind die Entwicklungskosten offenbar ganz schön gestiegen.
Wird bei Ati nicht anders sein, wenn auch vielleicht in einer etwas geringeren Dimension, so wie Ail das andeutet.
(um mal die Kurve zum Threadthema zu kriegen)



Auch nicht, wenn mehrere Quartale zusammengerechnet werden? Die Entwicklungskosten fallen ja nicht auf einen Schlag an, sondern ziehen sich über drei - vier Jahre. Der Verkauf zieht sich bestimmt auch über ein bis zwei Jahre.


Das 1ne Jahr von ATI halte ich für realistisch, das diese für einen Chip brauchen. 3 - 4Jahre Entwicklung für ein Produkt das max. 2 Jahre aktuell ist, ergibt schon keinen Sinn mehr.

Nur weil sich ein Mitarbeiter in der Mttagspause 2003 oder 2004 gedanken über den G80 gemacht hat, ist das noch lange keine Entwicklung, bzw Finanziell nicht von bedeutung. Personal und vor allem Testsamples kosten ordentlich Geld, aber hier beginnt die entwicklung dann in vollem Gange und das ist höchsten 1 Jahr.

Ich hätte keine Lust unnötig Personal an einem Chip arbeiten zu lassen den ich eh erst in 3 Jahren Produzieren kann, das sind eher Design studien. Zudem brauche ich kein Design entwickeln das auf gut Glück auf Prozzess X laufen KÖNNTE......

Das währen von GF1 bis GF8 24 - 32jahre Entwicklungszeit........:wink: 1999 konnte man eine Geforce 256 kaufen, heute 2008 kann man eine GTX280 kaufen, also in 9 Jahren 9 Chips.

Natürlich läuft das eine ins andere rein, aber die Einheiten die noch einen Käufer finden sind doch sehr gering, siehe Geforce 7 etc. würde das ähnlich machen wie im Musik Sektor. Der Start ist Maßgebend.

Undertaker
2008-07-06, 16:23:42
Die Rechnung macht nicht ganz so sehr Sinn, es gibt mit Sicherheit mehrere Entwicklungsteams die parallel an kommenden Produkten arbeiten - also atm. auf jeden Fall ein Team für den G200b und eines für dessen Nachfolger, evntl. weiterhin auch schon erste Planung zu dem darauffolgenden Chip.

Gast
2008-07-06, 18:46:07
Die Rechnung macht nicht ganz so sehr Sinn, es gibt mit Sicherheit mehrere Entwicklungsteams die parallel an kommenden Produkten arbeiten - also atm. auf jeden Fall ein Team für den G200b und eines für dessen Nachfolger, evntl. weiterhin auch schon erste Planung zu dem darauffolgenden Chip.
LOL - Nividia wäre pleite, wenn sie jetzt erst "erste Planungen" zum darauffolgenden Chip machen würden (Ati auch). Die Dinger stehen hüben wie drüben schon zu 99% fest.

Undertaker
2008-07-06, 19:20:42
Die "ersten Planungen" beziehen sich auf den 3.-nächsten Chip (sollte eigentlich klar ersichtlich sein), das der schon zu 99% steht glaube ich kaum... ;)

Gast
2008-07-07, 07:37:56
ich hab gehört der G200b wir dein 256 Bit Si haben und DDR5 um kosten zu senken, ist das möglich ?


ich mein wäre wohl sinnvoller als ein teures 512Bit Si was nix bringt, und 512 Bit +DDR5 glaub ich auf keinen fall, was will man bitte mit 260 GB Bandbreite :ugly:

reunion@work
2008-07-07, 08:07:29
ich hab gehört der G200b wir dein 256 Bit Si haben und DDR5 um kosten zu senken, ist das möglich ?


Ich hoffe nicht. Denn wie sich eine nV-Karte mit nur 16ROPs verhält konnte man ja schon beim G92 gut sehen.

AnarchX
2008-07-07, 08:10:59
Ich hoffe nicht. Denn wie sich eine nV-Karte mit nur 16ROPs verhält konnte man ja schon beim G92 gut sehen.
Logischerweise wird man dann wohl die ROP-Partitionen überarbeiten müssen, entweder 8 ROPs pro Partition oder eine komplette Überarbeitung für höhere Effizienz.

seahawk
2008-07-07, 08:55:46
Oder man könnte es einfach so bringen, da man in einer Zwangslage ist.

Sorkalm
2008-07-07, 12:05:37
Logischerweise wird man dann wohl die ROP-Partitionen überarbeiten müssen, entweder 8 ROPs pro Partition oder eine komplette Überarbeitung für höhere Effizienz.

Weswegen es wohl für einen G200b (man beachte den Namen) eher auszuschließen ist.
Vielleicht für einen neuen High-End-Chip dann in 45 nm.

igg
2008-07-07, 12:55:23
Wie man hier lesen kann (http://forum.beyond3d.com/showpost.php?p=1185933&postcount=134) gehen R700 Testmuster wohl gerade an die Redakteure.

MEDIC-on-DUTY
2008-07-07, 13:20:03
Wie man hier lesen kann (http://forum.beyond3d.com/showpost.php?p=1185933&postcount=134) gehen R700 Testmuster wohl gerade an die Redakteure.

Na dann geht´s hoffentlich bald los mit dem Herz- und Nierentest aus offiziellen Kanälen. ;)

Gast
2008-07-07, 14:27:37
ich hab gehört der G200b wir dein 256 Bit Si haben und DDR5 um kosten zu senken, ist das möglich ?


ich mein wäre wohl sinnvoller als ein teures 512Bit Si was nix bringt, und 512 Bit +DDR5 glaub ich auf keinen fall, was will man bitte mit 260 GB Bandbreite :ugly:

Nein, G200b wird ein einfacher Die-Shrink des G200 sein, der bei gesenktem Strombedarf höhere Taktfrequenzen erlauben lassen sollte.

In der Tat gibt es aber Gerüchte, dass Nvidia auch einen Chip mit 256 Bit Speicherinterface plant und diesen dann mit GDDR5 bestückt. Dies wird jedoch noch ein wenig dauern. Man munkelt vom ersten Quartal kommenden Jahres.

igg
2008-07-07, 17:15:45
Na dann geht´s hoffentlich bald los mit dem Herz- und Nierentest aus offiziellen Kanälen. ;)
Gabs schon Infos zum NDA bzw. wann das voraussichtliche Release/Review Datum sein wird?

AnarchX
2008-07-07, 20:15:45
http://img79.imageshack.us/img79/476/0707atixx3.jpg
http://plaza.fi/muropaketti/toimituksen-blogi/geforce-gtx-280n-tappaja-saapui
... wohl noch etwas schüchtern die Karte. :biggrin:

Ausserdem meint man im B3D, dass am 14. Juli das NDA für Previews fallen soll und die Karten 2-3 Wochen später erhätlich sein sollen.

reunion
2008-07-07, 20:38:27
Ausserdem meint man im B3D, dass am 14. Juli das NDA für Previews fallen soll und die Karten 2-3 Wochen später erhätlich sein sollen.

Nachvollziehbar. Damit will man NV möglichst bald die psychologisch wichtige Performancekrone entreisen.

horn 12
2008-07-07, 20:54:01
Ja, aber was soll es dein dann werden:
Die HD 4850 X² 2x 512MB GDDR3 Speicher für 230-250 Euro
Die HD 4870 X² 2x 1GB GDDR5 Speicher für 360-380 Euro

Oder wird es nun ausschliesslich nur 1 Produkt geben?

Botcruscher
2008-07-08, 11:26:43
Da die Unterschiede eh nur beim Speicher liegen wirds sehr bunt bei den Versionen. Schon in Punkto Verfügbarkeit brauch man eine Version mit GDDR3.

Sorkalm
2008-07-08, 12:03:35
Da die Unterschiede eh nur beim Speicher liegen wirds sehr bunt bei den Versionen. Schon in Punkto Verfügbarkeit brauch man eine Version mit GDDR3.

Hmm, meinst du? So schlecht ist die Verfügbarkeit der 4870 und damit die von GDDR5 nicht... ;)

Ailuros
2008-07-08, 12:16:22
Ich hoffe nicht. Denn wie sich eine nV-Karte mit nur 16ROPs verhält konnte man ja schon beim G92 gut sehen.

G92 hat zu wenig Bandbreite und nicht ROPs; woher kommt der Schwachsinn ueberhaupt dass die ROPs irgend ein Flaschenhals sind auf G92? RV770 hat auch nur 16 ROPs und diese liegen (mit Ausnahme der Komprimierungs-Optimierungen fuer 8xMSAA) immer noch unter den Faehigkeiten der =/>G80 ROPs.

HOT
2008-07-08, 12:24:46
Jop, bei NV sind die ROPs ziemlich überdimensioniert. Mit weniger ROPs wären die NVs nicht wesentlich langsamer ;).
Übrigens wären es bei Shared Memory 1x 1024 MB GDDR3 bzw. 1x 2GB GDDR5 RAM. Da die Karte ja offensichtlich keinen Bridgechip vorsieht, scheint sich shared Memory zu bestätigen.

AnarchX
2008-07-08, 12:27:54
Jop, bei NV sind die ROPs ziemlich überdimensioniert. Mit weniger ROPs wären die NVs nicht wesentlich langsamer ;).

Nein, da NV ziemlich verschwenderisch mit der Z-Fill umgeht.


Übrigens wären es bei Shared Memory 1x 1024 MB GDDR3 bzw. 1x 2GB GDDR5 RAM. Da die Karte ja offensichtlich keinen Bridgechip vorsieht, scheint sich shared Memory zu bestätigen.
In den PCB-Shots in #1 sieht man den PLX-Bridge doch eindeutig.

Odal
2008-07-08, 12:40:55
G92 hat zu wenig Bandbreite und nicht ROPs; woher kommt der Schwachsinn ueberhaupt dass die ROPs irgend ein Flaschenhals sind auf G92? RV770 hat auch nur 16 ROPs und diese liegen (mit Ausnahme der Komprimierungs-Optimierungen fuer 8xMSAA) immer noch unter den Faehigkeiten der =/>G80 ROPs.

seh ich nicht so, meine tests ergaben das mehr bandbreite (speicherüber/untertaktung) prozentual weit weniger ausschlaggebend sind wie mehr GPU takt....

also wenn dem G92 nach bandbreite durstet...müssten 20% speicherübertaktung doch mindestens 15% mehrleistung ergeben....real sinds aber vielleicht 5%

reunion@work
2008-07-08, 12:51:23
G92 hat zu wenig Bandbreite und nicht ROPs; woher kommt der Schwachsinn ueberhaupt dass die ROPs irgend ein Flaschenhals sind auf G92? RV770 hat auch nur 16 ROPs und diese liegen (mit Ausnahme der Komprimierungs-Optimierungen fuer 8xMSAA) immer noch unter den Faehigkeiten der =/>G80 ROPs.

Du kannst es glauben oder nicht, aber es bleiben nur die ROPs. Meine 8800GTS profitiert wenig bis gar nicht von höherer Bandbreite. Was die ROPs auf dem Papier können interessiert nicht, in der Praxis stellen die Dinger einen Flaschenhals auf G92 dar. Nicht umsonst verbaut man auf GT200 gleich 32 Stück.

Gast
2008-07-08, 12:58:44
Du kannst es glauben oder nicht, aber es bleiben nur die ROPs. Meine 8800GTS profitiert wenig bis gar nicht von höherer Bandbreite.


Also sind es nicht die ROPs.

pest
2008-07-08, 13:10:08
seh ich nicht so, meine tests ergaben das mehr bandbreite (speicherüber/untertaktung) prozentual weit weniger ausschlaggebend sind wie mehr GPU takt....

also wenn dem G92 nach bandbreite durstet...müssten 20% speicherübertaktung doch mindestens 15% mehrleistung ergeben....real sinds aber vielleicht 5%

bei mir ists genau andersrum.
du musst auch den Faktor ausrechnen
also ROP-Erhöhung/Tatsächliche Erhöhung und mit Speichertakterhöhung/Tatsächliche Erhöhung vergleichen

Odal
2008-07-08, 13:44:12
was hast du getestet?

bei mir wars CoH mit 1280x1024 16xAF aber AA 16xS

also 2x2 SSAA und 4xMSAA

pest
2008-07-08, 14:04:29
es war Crysis...vielleicht auch von Spiel zu Spiel verschieden

BlackBirdSR
2008-07-08, 14:07:18
Hängen die ROPs nicht am Speicherakt? - Oder verwechsle ich da was?

reunion@work
2008-07-08, 14:23:39
Hängen die ROPs nicht am Speicherakt? - Oder verwechsle ich da was?

Ja du verwechselst was. Das SI hängt von de ROPs ab. Pro ROP-Cluster ein 64-bit SI.

tombman
2008-07-08, 14:39:14
Ausserdem meint man im B3D, dass am 14. Juli das NDA für Previews fallen soll und die Karten 2-3 Wochen später erhätlich sein sollen.
Ist der Treiber denn überhaupt schon soweit, daß man gescheite scores bekommt?

deekey777
2008-07-08, 14:46:50
G92 hat zu wenig Bandbreite und nicht ROPs; woher kommt der Schwachsinn ueberhaupt dass die ROPs irgend ein Flaschenhals sind auf G92? RV770 hat auch nur 16 ROPs und diese liegen (mit Ausnahme der Komprimierungs-Optimierungen fuer 8xMSAA) immer noch unter den Faehigkeiten der =/>G80 ROPs.
Ich könnte mir gar vorstellen, dass der G92 ua auch daran leidet, woran schon der R520 gelittet hat: Durch das krasse (Miss-)Verhältnis TMU <-> Shader von 1:1 die TMUs unterversorgt sind. Oder auch nicht.

igg
2008-07-08, 15:02:31
Ist der Treiber denn überhaupt schon soweit, daß man gescheite scores bekommt?
CJ & Co berichteten schon vor einigen Wochen von X6000+ Scores im 3d Mark Vantage, von daher glaube ich schon.

Ich frage mich eher was Nvidia bringt (http://www.nordichardware.com/news,7921.html), um in so hohe Scores zu kommen.

S940
2008-07-08, 15:27:33
Ist der Treiber denn überhaupt schon soweit, daß man gescheite scores bekommt?
Das siehste am 14ten :)

tombman
2008-07-08, 16:38:18
Ich frage mich eher was Nvidia bringt (http://www.nordichardware.com/news,7921.html), um in so hohe Scores zu kommen.
Hmm, kann eigentlich nur eine fett overclockte G200b sein...

Aber wehe, der hat G200b hat mehr shader- dann werd ich stinkig :)

AnarchX
2008-07-08, 16:40:27
Aber wehe, der hat G200b hat mehr shader- dann werd ich stinkig :)
Dann wäre es kein G200B, aber es gibt ja noch so einige andere GT2xx-Derivate (siehe #1 im GeForce 200-Thread).

tombman
2008-07-08, 16:43:42
Dann wäre es kein G200B, aber es gibt ja noch so einige andere GT2xx-Derivate (siehe #1 im GeForce 200-Thread).
Was Breiteres als G200(b)?

reunion
2008-07-08, 16:44:26
Dann wäre es kein G200B, aber es gibt ja noch so einige andere GT2xx-Derivate (siehe #1 im GeForce 200-Thread).

Jedenfalls kommt vor 45/40nm sicherlich nichts über GT200/b. Selbst in 55nm ist das Die noch immer immens groß.

Gast
2008-07-08, 16:58:08
Es kommt in 55 nm ein Performance-Chip, der auch gedoppelt wird und damit die Kohlen gegen die HD 4870 X2 rausholt...

reunion
2008-07-08, 17:08:13
Es kommt in 55 nm ein Performance-Chip, der auch gedoppelt wird und damit die Kohlen gegen die HD 4870 X2 rausholt...

Dieser Performancechip müsste aber mindestens GTX260-Leistung erreichen um mit der 4870 X2 zumindest gleich zu ziehen, und das will ich erstmal sehen bei der Die-Größe eines GT200.

Gast
2008-07-08, 17:14:29
Es kommt in 55 nm ein Performance-Chip, der auch gedoppelt wird und damit die Kohlen gegen die HD 4870 X2 rausholt...

Dazu müsste erstmal der Leistung/Watt gesengt werden um die 4870 X2 abzuhängen und die PCE Specs (300W TPD max.) nicht zu verletzten.

Gast
2008-07-08, 17:16:26
Dazu müsste erstmal der Leistung/Watt gesengt werden um die 4870 X2 abzuhängen und die PCE Specs (300W TPD max.) nicht zu verletzten.

Ja... die Leistung/Watt *gesteigert natürlich.

Unyu
2008-07-08, 17:20:46
Dazu müsste erstmal der Leistung/Watt gesengt werden um die 4870 X2 abzuhängen und die PCE Specs (300W TPD max.) nicht zu verletzten.
Eine GTX 260 mit G200 verballert schon weniger als eine 4870 mit gerade mal 512MiB.

Wie dann wohl eine Doppel GTX 260 mit G200b gegen die 4870 X2 mit 2x1024MiB dasteht ....

Gast
2008-07-08, 17:35:28
@ reunion

An dieser Stelle wurde doch schon mal von einem nativen Chip mit 192 SPs, 64 TMUs, 16 ROPs, 256 Bit-Speicherinterface in 55 nm gesprochen.
Schaut man sich das Die des GT200 an - ich habe es mal getan - so entfallen durch die 8 statt 10 Shadercluster, die 16 statt 32 ROPs und das 256 statt 512 Bit-Speicherinterface rund 20 Prozent der Fläche des GT200.

Da der Chip in 55 nm gefertigt wird, muss man den GT200b, der über dieselben Einheiten wie GT200 verfügen wird, jedoch nur in 55 statt 65 nm gefertigt wird, zu Rate ziehen.
Dieser soll - das wurde mehr oder minder bestätigt - 470 mm^2 groß sein.

Rechnet man 470*0,81, kommt man auf 380 mm^2. Das sollte ungefähr die Größe des viel zitierten Performance-Chips sein, der mit den oben genannten technischen Eigenschaften ausgestattet wird.

Wenn der Chip mit GTX 260-Taktraten aufläuft, erwarte ich ihn bei rund 140 W TDP. Gedoppelt wären das also 280 W TDP.
An dieser Stelle muss man aber noch mal deutlich zwischen AMD- und Nvidia-TDP unterscheiden. AMD gibt 157 W für die HD 4870 an, welche aber unter Last ein wenig mehr verbraucht als die GTX 260, die mit 182 W gekennzeichnet ist!

Falls an dieser Stelle die Frage nach der Bandbreite kommt, durch GDDR5-Speicher bei typischen 1800 MHz würde man bereits die Bandbreite der GTX 260 toppen...

robbitop
2008-07-08, 18:28:47
Nein, da NV ziemlich verschwenderisch mit der Z-Fill umgeht.

Die gehen nicht verschwenderisch mit der Z-Fill um. Wie stellst du dir das vor?
Das Tri-Setup ist da vermutlich eher der Flaschenhals.

seh ich nicht so, meine tests ergaben das mehr bandbreite (speicherüber/untertaktung) prozentual weit weniger ausschlaggebend sind wie mehr GPU takt....

also wenn dem G92 nach bandbreite durstet...müssten 20% speicherübertaktung doch mindestens 15% mehrleistung ergeben....real sinds aber vielleicht 5%
Mit höherem GPU-Takt steigt auch der Durchsatz des Tri-Setups.

Du kannst es glauben oder nicht, aber es bleiben nur die ROPs. Meine 8800GTS profitiert wenig bis gar nicht von höherer Bandbreite. Was die ROPs auf dem Papier können interessiert nicht, in der Praxis stellen die Dinger einen Flaschenhals auf G92 dar. Nicht umsonst verbaut man auf GT200 gleich 32 Stück.

Nicht unbedingt. Außerdem ist soviel Bandbreite gar nicht da, dass 256x Z Werte pro Takt geschrieben werden können.

Die Flaschenhals-Analyse, die hier im Forum durchgeführt wird, ist manchmal einfach nicht differenziert genug. Das Problem ist, dass oftmals nur in einem Blockschema gedacht wird, auf dem vieleicht 10 Einheiten draufgemalt sind. Eine GPU ist aber, besonders heute, mehr als das.

Gast
2008-07-08, 18:29:54
Eine GTX 260 mit G200 verballert schon weniger als eine 4870 mit gerade mal 512MiB.

Wie dann wohl eine Doppel GTX 260 mit G200b gegen die 4870 X2 mit 2x1024MiB dasteht ....

Ja mit 260 GTX SLI schlägst du aber kein HD 4870 CF. Und dann wäre da noch dieser mysteriöse Crossfire Sideport, dessen Funktion noch ungeklärt ist.

Nakai
2008-07-08, 18:33:30
Ja mit 260 GTX SLI schlägst du aber kein HD 4870 CF. Und dann wäre da noch dieser mysteriöse Crossfire Sideport, dessen Funktion noch ungeklärt ist.

Doch!


mfg Nakai

w0mbat
2008-07-08, 18:34:09
Naka, warte mal auf den ersten finalen 4800er Treiber, da könnte noch was gehen.

Nakai
2008-07-08, 18:37:02
Naka, warte mal auf den ersten finalen 4800er Treiber, da könnte noch was gehen.

Das hoffe ich. Wenn MR aber weg sind, dann spricht eh nur noch die Balkenlänger für SLI und natürlich das AF.


mfg Nakai

Psychopat
2008-07-09, 11:42:44
Auf Hartware gibt's Infos zur 4650
http://www.hartware.de/news_45139.html

Radeon HD 4650 HD 4850
Grafikchip RV730 RV770
Fertigung 55nm 55nm
Shader Einheiten 320 (64x5) 800 (160x5)
Textureinheiten 16 40
ROPs 16 16
Speicher 512 MByte GDDR3 512 MByte GDDR3
RAM-Speed 1,0-1,4ns 1,0ns
RAM-Interface 128bit 256bit
Chiptakt 710 MHz 625 MHz
RAM-Takt 700-1000 MHz 1000 MHz
PCI Express 2.0 2.0
DirectX 10.1 10.1

w0mbat
2008-07-09, 12:11:42
Also ist der RV730 quasi ein 128-bit RV670. Mal sehen ob er auch die RV770 "Verbesserungen" hat.

Sorkalm
2008-07-09, 12:16:40
Also ist der RV730 quasi ein 128-bit RV670.

Und sowas im gleichen Fertigungsprozess?

Mal sehen ob er auch die RV770 "Verbesserungen" hat.

Sonst gäbe es doch gar keinen Grund für einen extra Tape-Out. Schon so finde ich die exakt selben Daten recht merkwürdig
Von welchen Quellen in Asien wird denn gesprochen...

AnarchX
2008-07-09, 12:18:11
Chiphell, die Bilder sind aber zugriffsbeschränkt.

edit:
http://www.3dnews.ru/news/fotografiya_i_spetsifikatsii_radeon_hd_4650/
http://img74.imageshack.us/img74/8791/880511fa4.jpg
Die Karte scheint wohl unter <75W TDP zu liegen, wie man am fehlenden 6Pin-Stecker sieht. ;)

reunion@work
2008-07-09, 12:29:30
Und sowas im gleichen Fertigungsprozess?



Sonst gäbe es doch gar keinen Grund für einen extra Tape-Out. Schon so finde ich die exakt selben Daten recht merkwürdig
Von welchen Quellen in Asien wird denn gesprochen...

Wenn man die ganze überflüssigen Dinge wie bei RV770 rausgeschmissen hat dürfte der Chip mit den Daten auch in 55nm sehr klein werden. Merkwürdig finde ich nur die 16 ROPs, da wäre 8 wohl mehr als genug.

Gast
2008-07-09, 15:13:54
AMD gibt 157 W für die HD 4870 an, welche aber unter Last ein wenig mehr verbraucht als die GTX 260,



das ist nicht wahr, die 4870 zieht nicht mehr wie 150 Watt merh aus der Dose, mit FUR getestet was die Karte zu 100% dauerhaft auslasten tut.

Undertaker
2008-07-09, 17:12:17
Wo ist da der Widerspruch zur Aussage von Anarchx? Auch wenn die 4870 unter 150W liegt, die GTX260 braucht weniger.

Zockerfrettchen
2008-07-09, 19:40:11
http://www.pcgameshardware.de/aid,650749/News/AMD_Launch_der_Radeon_HD4870_X2_angeblich_bereits_am_14_Juli/

Gast
2008-07-09, 21:45:07
das ist nicht wahr, die 4870 zieht nicht mehr wie 150 Watt merh aus der Dose, mit FUR getestet was die Karte zu 100% dauerhaft auslasten tut.

Auch sehr schön meinen Satz einfach abzuschneiden und ihn somit sinnzuentfremden. Es ging einfach darum, dass die HD 4870 eine deutlich geringere TDP hat als die GTX 260, in der Wirklichkeit aber etwas mehr Energie benötigt. Ob es jetzt real unter 150 W sind, davon war gar keine Rede.

S940
2008-07-09, 23:24:52
Sonst gäbe es doch gar keinen Grund für einen extra Tape-Out. Schon so finde ich die exakt selben Daten recht merkwürdig
Von welchen Quellen in Asien wird denn gesprochen...
Wo steht was von tape-out ?
Falls ich das nicht übersehen haben sollte, glaub ich eher an Resteverwertung, solche Karten RV670+128bit Interface gabs ja schon unter dem 3690 / 3730 Namen in Asien.

ciao

Alex

Psychopat
2008-07-10, 00:50:51
Das mit der Resteverwertung des R670 hab ich mich auch schon gefragt. Allerdings ist der Kühlkörper da schon arg klein, besonders für 710 MHz. Es könnte sich schon lohnen einen neuen Chip aufzulegen, wenn er deutlich kleiner ist
Aber andererseits könnte es Resteverwertung der mobility 38xx sein, die wahrscheinlich ein neueres Stepping als die derzeitigen 38xxer hat.

Avalox
2008-07-10, 01:02:00
Auf Hartware gibt's Infos zur 4650
http://www.hartware.de/news_45139.html


Mich würden dort ganz andere Informationen interessieren.

Hat der Dual Port bei den kleinen Karten z.B. auch 2 x HDCP für Video bieten?

Das fehlt den nVidia Karten ja auch.

Ist der HDMI Audio Support im selben Umfang vorhanden?

Da reden wir bei nVidia erst gar nicht drüber.

usw.

Die kleineren Karten sind ja grade für HDMI Video sehr interessant.

Avalox
2008-07-10, 01:04:26
Nachvollziehbar. Damit will man NV möglichst bald die psychologisch wichtige Performancekrone entreisen.


Die Überschrift heisst "Der GTX280 Killer ist hier"?!

igg
2008-07-10, 09:07:25
Schön, dass es schon in 4 Tagen soweit ist. Das dürfte nochmal für einen ordentlichen Preisrutsch sorgen...

Gast
2008-07-10, 11:10:17
R700 GDDR5 to sell for $549

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8368&Itemid=1

Sorkalm
2008-07-10, 11:30:44
Nochmal Fudzilla:
RV730 and RV710 to launch in September

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8373&Itemid=1

Knacki99
2008-07-10, 11:39:48
Mich interessieren eigentlich 3 Varianten:

4870 mit 1GB Speicher
4870X2 mit 2GB Speicher

GTX 280 mit leiserer Kühlung

Vielleicht weiss man Montag mehr...

Adam D.
2008-07-10, 12:29:07
Seltsamer Varianten-Auswahl, spielen ja jeweils in unterschiedlichen Preis- und Leistungsregionen.

Sorkalm
2008-07-10, 17:58:41
http://www.3dnews.ru/news/fotografiya_i_spetsifikatsii_radeon_hd_4650/

Wie sicher sind denn die restlichen Daten neben den SPs?

16 ROPs halt ich für relativ viel für so einen Chip (zumal 128 Bit Interface), und wenn die Architektur so gut skalierbar ist, könnte man auch über mehr Textureinheiten nachdenken ... damit kann man RV670 vll. sinnvoll in 55nm ablösen und G94 eher schlagen.

PHuV
2008-07-10, 19:29:00
Die 2 GB sind doch bestimmt wieder auf 2 x 1 GB, sprich pro Chip verteilt, oder?

Adam D.
2008-07-10, 19:36:15
Natürlich, oder willst du 4GB GDDR5 auf das Board stecken? :biggrin: 1GB reicht einem RV770 dicke.

PHuV
2008-07-10, 19:42:58
Wäre doch mal interessant, wenn 2 GPUs auf einen gemeinsamen Speicher zugreifen könnten.

Adam D.
2008-07-10, 19:52:42
Wäre doch mal interessant, wenn 2 GPUs auf einen gemeinsamen Speicher zugreifen könnten.
Klar ist shared Memory eine interessante Entwicklung, aber dafür ist es noch zu früh. Eventuell sehen wir das dann mit dem Nachfolger.

Gast
2008-07-10, 20:45:45
R700 up to 80 % Faster than GeForce GTX 280

Pre-release performance evaluations suggest that the Radeon HD 4870 X2 2GB GDDR5 model will on an average be 50% faster than the GeForce GTX 280 and in some tests 80% faster. A second model, the HD 4850 X2 (2GB GDDR3 memory, 2x RV770Pro) will also convincingly outperform the GeForce GTX 280. The R700 series will be brought into the market late-July thru August.

Auszug:
http://www.techpowerup.com/65382/R700_up_to_80__Faster_than_GeForce_GTX_280.html

derwalde
2008-07-10, 21:06:40
R700 up to 80 % Faster than GeForce GTX 280

Pre-release performance evaluations suggest that the Radeon HD 4870 X2 2GB GDDR5 model will on an average be 50% faster than the GeForce GTX 280 and in some tests 80% faster. A second model, the HD 4850 X2 (2GB GDDR3 memory, 2x RV770Pro) will also convincingly outperform the GeForce GTX 280. The R700 series will be brought into the market late-July thru August.

Auszug:
http://www.techpowerup.com/65382/R700_up_to_80__Faster_than_GeForce_GTX_280.html


80% klingt nach vernichtung.:redface:

Gast
2008-07-10, 21:16:09
Nvidias Antwort:

http://www.techpowerup.com/65380/NVIDIA_Preparing_GT300_Graphics_Processor?.html

Adam D.
2008-07-10, 21:22:09
Nvidias Antwort:

http://www.techpowerup.com/65380/NVIDIA_Preparing_GT300_Graphics_Processor?.html
Ist Unsinn, man siehe den G200-Thread.

Gast
2008-07-10, 21:23:00
Nvidias Antwort:

http://www.techpowerup.com/65380/NVIDIA_Preparing_GT300_Graphics_Processor?.html

Lol mitte 2009?

LovesuckZ
2008-07-10, 21:24:35
80% klingt nach vernichtung.:redface:

Klingt nach Crossfire. :rolleyes:

igg
2008-07-10, 22:10:45
80% klingt nach vernichtung.:redface:
Naja.. wenn die von 1600x1200 8xAA/16xAF (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet) reden, tut das eine 4870 CF jetzt auch schon ;)

Wenn man bedenkt, dass die gleiche Quelle vom GTX3xx berichtet hat, kann man sich den Rest schon denken...

tombman
2008-07-11, 00:33:50
50% ja, mehr ned.

Wenn G200 20% schneller ist als RV770, also 80% zu 100% steht (GTX280 vs HD4870), dann ist R700 ca 80 * 1.9 (sehr hohe Skalierung wegen sideport on chip) @ ~ 150%.

up¦²
2008-07-11, 00:45:12
Vielleicht macht der Sideport ja den teuren Bridgechip überflüssig... :confused:
Wäre eine ganz wichtige Kostendrückung!

tombman
2008-07-11, 00:47:08
Vielleicht macht der Sideport ja den teuren Bridgechip überflüssig... :confused:
Wäre eine ganz wichtige Kostendrückung!
Der chip ist doch 100% sicher auf der Karte, zeigen ja die Pics schon.

Und für den 4x CF Betrieb braucht man ja trotzdem noch normales CF. Die Sideport Geschichte geht ja nur innerhalb eines pcbs.

Sorkalm
2008-07-11, 00:51:08
Vielleicht macht der Sideport ja den teuren Bridgechip überflüssig... :confused:
Wäre eine ganz wichtige Kostendrückung!

Wenn die Preise entsprechend hoch sind, kann man sich auch den Bridgechip leisten. Zumal gewisse Entwicklungskosten im Gegensatz wegfallen.

up¦²
2008-07-11, 01:01:24
Der chip ist doch 100% sicher auf der Karte, zeigen ja die Pics schon.

Und für den 4x CF Betrieb braucht man ja trotzdem noch normales CF. Die Sideport Geschichte geht ja nur innerhalb eines pcbs.
Ja, wie's ausschaut, stimmt. :redface:

derguru
2008-07-11, 01:06:53
da bin ich mal gespannt was mit der r700 wird und was für änderungen kommen,denn von der 3870x2 war ich nicht gerade begeistert.ich glaub ich würde immer noch eine 4870 1gb version im cf vorziehen.

Avalox
2008-07-11, 01:38:57
Klingt nach Crossfire. :rolleyes:


Crossfire gibt es ja zusätzlich. Eben zwei, drei, oder vier X2 Karten.

tombman
2008-07-11, 01:40:36
Crossfire gibt es ja zusätzlich. Eben zwei, drei, oder vier X2 Karten.
Nein, zwei ist das Maximum. Mehr als 4 Gpus gibts nicht, da Treiber nicht mehr erlaubt.

Avalox
2008-07-11, 02:12:50
Nein, zwei ist das Maximum. Mehr als 4 Gpus gibts nicht, da Treiber nicht mehr erlaubt.


Na warten wir mal ab. Mir ist doch ganz stark so. Das Spider eben genau dieses bieten wird.
Was ja auch Sinn machen würde für eine Lösung, welche man von Anfang an als Multi GPU deklariert hat.

tombman
2008-07-11, 02:14:00
Na warten wir mal ab. Mir ist doch ganz stark so. Das Spider eben genau dieses bieten wird.
Was ja auch Sinn machen würde für eine Lösung, welche man von Anfang an als Multi GPU deklariert hat.
Eine X2 hat aber nur EINEN CF Stecker, also geht gar ned mehr ;)

Nightspider
2008-07-11, 02:18:23
Na warten wir mal ab. Mir ist doch ganz stark so. Das Spider eben genau dieses bieten wird.
Was ja auch Sinn machen würde für eine Lösung, welche man von Anfang an als Multi GPU deklariert hat.

Was biete ich ? :tongue:

8 GPU Chips wurden schließlich ja auch schon mit Nvidia Karten für GPGPU genutzt.

Die Zukunft läuft sowieso darauf zu aber in naher Zukunft wahrscheinlich noch nicht.

Avalox
2008-07-11, 02:20:18
Eine X2 hat aber nur EINEN CF Stecker, also geht gar ned mehr ;)

Ich denke diese sind beim AMD 790 FX und der 4800 überhaupt nicht mehr nötig.:confused:

Grestorn
2008-07-11, 07:43:15
Mehr als 4 GPUs halte ich für sehr problematisch, auch wegen dem Input-Lag, der mit jeder weiteren GPU stärker spürbar wird.

Deswegen wird man die GPUs als komplett unabhängige Einheiten, die ganze Frames berechnen, nicht beliebig skalieren können.

AnarchX
2008-07-11, 08:21:19
THG bestätigt so einige Gerüchte mit AMD-Folien:
http://img60.imageshack.us/img60/1126/09radeon4870x2dw0.jpg
http://www.tomshardware.tw/596,news-596.html

Vorallem die Fußnote "***" fällt wieder auf, die gab es AFAIR schon 4850/70. Vielleicht verzichtet AMD diesmal in der Tat auf die PP-Features, da man die Leistung als Verkaufsargument hat und eben auch etwas auf die BOM achten muss, wenn man mit Kampfpreisen startet?

Mehr als 4 GPUs halte ich für sehr problematisch, auch wegen dem Input-Lag, der mit jeder weiteren GPU stärker spürbar wird.

Deswegen wird man die GPUs als komplett unabhängige Einheiten, die ganze Frames berechnen, nicht beliebig skalieren können.
Ja, solang man auf AFR setzt würde ich auch 4 GPUs als mehr oder weniger sinnvolles Maximum sehen.
Anders sieht es da im GPGPU-Bereich aus, da kann man sich mit 4 X2 sicherlich eine nette Workstation in halbwegs handlichen Format bauen und mit 9.6TFLOPs stimmt die Leistung auch und das wohl für <2500€.

Sorkalm
2008-07-11, 10:13:41
Die Fußnote stand doch aber schon bei den 3800er-Karten dabei (hab ich damals so verstanden, dass sie sich so gegenüber Partner-Karten wo das deaktiviert war, absicherten).

Adam D.
2008-07-11, 10:14:30
Das heißt, es sind tatsächlich 2 RV770XT... TDP anyone?

AnarchX
2008-07-11, 10:17:24
Das heißt, es sind tatsächlich 2 RV770XT... TDP anyone?
Nunja, bei der HD3870 X2 mit 196W TDP hat AMD ein 550W NT verlangt, nun verlangt man ein 650W NT, also wird die TDP wohl schon in Richtung 300W gehen. Darüber nicht, da man ja die Karte nur mit maximal 300W versorgen kann: 6+8Pin + PCIe = 75+150+75W

Adam D.
2008-07-11, 10:38:40
Viel Leistung, großer Stromhunger, da kommt man wohl nicht drum rum. Hoffen wir mal, dass zumindest bei Release das PowerPlay funktioniert, sonst wird das ganz ganz bitter. Auf die Kühllösung bin ich ehrlich gesagt auch sehr gespannt. Aber wieder mal Respekt an ATi, immerhin scheint die Karte ja zu funktionieren und allein das ist schon mal gar nicht übel ;)

Gast
2008-07-11, 10:48:40
Clock Settings: TBD

Sorkalm
2008-07-11, 10:52:11
Clock Settings: TBD

Aber nicht wenn die Karte schon bei den Testern ist. Und die 2,4 GFLOPs auf der Folie da sprechen auch eine eindeutige Sprache.

Gast
2008-07-11, 11:06:43
Clock Settings: TBD

Ich gehe von weniger als 750MHz aus, da man sonst an die 300W Grenze kommt und dann auch keine Luft zum Übertakten mehr übrig bleibt.

HOT
2008-07-11, 11:08:24
TDP = maximal 225W, alles andere wäre außerhalb der PCIe-2.0-SPEC. Diese wird man denke ich auch anpeilen.

Adam D.
2008-07-11, 11:09:21
TDP = maximal 225W, alles andere wäre außerhalb der PCIe-SPEC.
Und jetzt erklär uns mal, wie du 2 RV770XT auf 225W TDP bringen willst :usad:

PS: Wieviel TDP hat ein voller G200? :wink:

AnarchX
2008-07-11, 11:09:53
TDP = maximal 225W, alles andere wäre außerhalb der PCIe-2.0-SPEC. Diese wird man denke ich auch anpeilen.
GTX 280: 236W TDP. ;)

up¦²
2008-07-11, 11:18:45
Ansonsten nachrüsten:
http://geizhals.at/eu/a244247.html

Avalox
2008-07-11, 11:20:26
Ansonsten nachrüsten:
http://geizhals.at/eu/a244247.html


Es sind ja inzwischen 2kW Netzteile zu bekommen. Die Stromversorgung ist gar kein Problem. Auch für 4 X2 Karten in einem System nicht.

Shakti
2008-07-11, 11:29:02
Bei xtreme systems hat ein Finne die Karte schon getestet und kurz angemerkt, das 15% Mehrleistung gegenueber 2x 4870 unrealistisch viel waere. Waere ja schade.

Gast
2008-07-11, 11:34:31
Mit 750MHz würde man über 300W kommen (2x 160W der 4870 + PCIx-Bridge + mehr Speicher), daher unmöglich. Ich tippe eher auf 650MHz.

AnarchX
2008-07-11, 11:36:41
Mit 750MHz würde man über 300W kommen (2x 160W der 4870 + PCIx-Bridge + mehr Speicher), daher unmöglich. Ich tippe eher auf 650MHz.
Man darf die TDP der Single-Karte nicht als Maßstab nehmen. Die HD3870X2 hatte auch nur 196W, obwohl die GPUs auf 825 statt 777MHz liefen und auch GDDR3 verbaut wurde und eben auch der PLX verbaut wurde.

Die 2.4 TFLOPs auf der PR-Folie, die wohl etwas neuer als diese Tech-Folie mit dem "Clock: TBA" ist, bestätigt doch die 750MHz ziemlich sicher, die auch schon auf den anderen AMD-Folien zu R700 zu sehen waren (#1).

Adam D.
2008-07-11, 11:37:50
Mit 750MHz würde man über 300W kommen (2x 160W der 4870 + PCIx-Bridge + mehr Speicher), daher unmöglich. Ich tippe eher auf 650MHz.
Dann sind die 2,4 TeraFLOPs aber nicht drin :confused:

Und woher sollen die 15% auch kommen? Bis auf den Bridge-Chip ist doch absolut nix anders und der holt sicher net 15% raus.

w0mbat
2008-07-11, 11:50:08
2,4 TeraFLOPS = 2*800SPs*750MHz
Die Kommunikation läuft wie bei R680 über den PLX-Chip, der Crossfire-Sideport soll irgendwas abgleichen, aber keine Ahnung was. Dadurch soll auch die Skalierung besser sein und es gibt auch noch Gelabere von irgendwelchen "echten FPS".

Gast
2008-07-11, 11:54:57
Und woher sollen die 15% auch kommen? Bis auf den Bridge-Chip ist doch absolut nix anders und der holt sicher net 15% raus.

Die Speichermenge beträgt auch 1GB pro GPU.

Shakti
2008-07-11, 11:58:56
http://www.tomshardware.tw/596,news-596.html