PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 8


Seiten : [1] 2 3 4

robbitop
2007-04-18, 07:37:30
Im Broadcastbereich wird es dann sowieso bei Interlacedübertragungen bleiben, alles andere wären unnötige, redundante Informationen.


1. doppelt gemoppelt X-D
2. warum redundant? Vollbilder enthalten mehr Bildinformationen als Halbbilder. Das Schlimme ist ja, soweit ich das kapiert habe, dass die Halbbilder durch den zeitlichen Versatz auch je nach Kameraschwenk o.Ae. einen raeumlichen Versatz haben und damit theoretisch sehr fiese Kaemme auf dem Bild entstehen. Ein Deinterlacer mag da zwar helfen, aber nur bis zu einem gewissen Grad. Es fehlen eben pro Bild Informationen, so dass man 2 theoretisch verschiedene Bilder zusammensetzen muss (auch wenn sie meist nur minimal verschieden sind).

Ich persoenlich bin ja fuer 1080p mit mindestens 30fps, damits bei Kameraschwenks nicht anfaengt zu ruckeln und auch kein Pixelplus das emulieren muss, denn das kann zu Artefakten fuehren.

Ergo: nativ forhandene Informationen sind besser als alles elektronische rumgefrickel.
-----------------------------------
Teil sieben. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5417620#post5417620)
Der Tech-Day soll nächste Woche stattfinden, der Launch dann irgendwann im Mai (3-4 Wochen nach dem Tech-Day sind nichts ungewöhnliches, siehe G80).

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5432039#post5432039
Vorstellung der neuen Produkte in der zweiten Hälfte des Monats Mai. :)
Scheibar erste Benchmarks der HD2900XT: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5434670#post5434670
Übertaktet: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5436549#post5436549

James Ryan
2007-04-18, 08:30:38
Im 3D Mark nicht, bei Crysis schon. Noch dazu wurde die XT gegen die GTX getestet, welche nicht ATIs High End ist.

Die GTX wird bei Erscheinen der XTX auch nicht NVIDIAs High-End sein. ;)

MfG :cool:

AnarchX
2007-04-18, 09:44:22
Fuad hat neue "Infos":
Radeon HD 2900 XT for €434 - European price (http://www.fudzilla.com/index.php?option=com_content&task=view&id=584&Itemid=1)
Nunja, wenn das stimmen sollte also nicht mehr ganz der P/L-Killer

It might be the fastest card around but Ati still hold its breath with R600XTX. ATI's fastest XTX flavour won't arrive till June if not even later. @ Geforce 8800 Ultra to cost $900 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=583&Itemid=1)

James Ryan
2007-04-18, 09:49:55
Fuad hat neue "Infos":
Radeon HD 2900 XT for €434 - European price (http://www.fudzilla.com/index.php?option=com_content&task=view&id=584&Itemid=1)
Nunja, wenn das stimmen sollte also nicht mehr ganz der P/L-Killer

@ Geforce 8800 Ultra to cost $900 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=583&Itemid=1)

War abzusehen dass die XT nicht 350€ kosten wird.
Aber dass die XTX jetzt soviel später kommt, ist nicht gut. Die XT ist doch eh nur eine halbgare R600 mit 512 MB GDDR3 Ram.

MfG :cool:

robbitop
2007-04-18, 10:51:21
http://www.fudzilla.com/index.php?option=com_content&task=view&id=590&Itemid=1

Schon gelesen? Herrlich, mit was fuer einem Mist sich Fudo immer abfuellen laesst. X-D
Dass diese Skalierbarkeit ueber Pixelprozessoren spaetestens seit dem R300 vorhanden ist, merkt er gar nicht.

Dass RV630 ein halber R600 ist, macht Sinn, denn mit 65 nm hat man die Moeglichkeit das zu realisieren. Und ich hoffe, dass dieser die G84 weghaut. Diese ist viel zu wenig fuer den Namen "8600GTS"

AnarchX
2007-04-18, 11:01:03
Dass RV630 ein halber R600 ist, macht Sinn, denn mit 65 nm hat man die Moeglichkeit das zu realisieren. Und ich hoffe, dass dieser die G84 weghaut. Diese ist viel zu wenig fuer den Namen "8600GTS"

Ailuros hatte mal angedeutet RV630 ist auf der einen Seite 1/2 des R600 auf der anderen Seite nur 1/4.
Irgendwie kommt da die Vermutung auf, dass der RV630 das zu viel hat was dem G84 fehlt und eben umgekehrt.

Anarchy-HWLUXX
2007-04-18, 11:09:51
Diese ist viel zu wenig fuer den Namen "8600GTS"

Jau, bei der Performance wär 8600GS passender gewesen ;(

robbitop
2007-04-18, 11:13:14
1/4 G80 da waere nach herkoemmlichen Schema eher eine 8300 bis 8400 ok gewesen. Die 600er ist bei NV schon immer 1/2 Highend gewesen. Naja bei ATI ist das ja seit der R4xx auch so.

AnarchX
2007-04-18, 11:25:56
1/4 G80 da waere nach herkoemmlichen Schema eher eine 8300 bis 8400 ok gewesen. Die 600er ist bei NV schon immer 1/2 Highend gewesen. Naja bei ATI ist das ja seit der R4xx auch so.

Ich würde nicht sagen, dass Ziel ist da stets 1/2 des HighEnds gewesen, sondern der vorherige Midrange-Chip aus dem eigenen Haus sollte immer um den Faktor 2 übertroffen werden und wenn man sich neuere Titel bzw. Titel mit der Performance-Characteristika der Zukunft wie Oblivion/G3/Stalker anschaut wurde auch die hier wieder erreicht.

Mal sehen wie sich der RV630 schlagen wird, nur besteht hier das Problem, dass dieser wohl erst in 2 Monaten der Markt erreichen wird, sodass NV die DX10-Lemminge in dieser Zeit noch etwas schröpfen wird.

PCGH_Carsten
2007-04-18, 11:26:04
1/4 G80 da waere nach herkoemmlichen Schema eher eine 8300 bis 8400 ok gewesen. Die 600er ist bei NV schon immer 1/2 Highend gewesen. Naja bei ATI ist das ja seit der R4xx auch so.


Jetzt müssen beide ja auch noch ein bißchen zusätzliches Zeug für DX10 unterbringen - da bleibt weniger Raum für Funktionseinheiten. Leider.

AnarchX
2007-04-18, 11:30:59
Jetzt müssen beide ja auch noch ein bißchen zusätzliches Zeug für DX10 unterbringen - da bleibt weniger Raum für Funktionseinheiten. Leider.

Irgendwie vermute ich, dass die BSP-Engine bei G84/G86 doch auch einiges an Transistoren frisst, wenn man sich die Transistorcounts beider GPUs anschaut.

Da könnte bei ATi vielleicht der UVD durch den 65nm Prozess beim RV630 ausgeglichen wurden sein und somit einer kleiner Vorteil da sein.

Gast
2007-04-18, 12:07:14
Ailuros hatte mal angedeutet RV630 ist auf der einen Seite 1/2 des R600 auf der anderen Seite nur 1/4.
Irgendwie kommt da die Vermutung auf, dass der RV630 das zu viel hat was dem G84 fehlt und eben umgekehrt.

Ja, 1/4 in punkto SI und 1/2 in punkto Funktionseinehieten.

Gast
2007-04-18, 12:08:41
Mal sehen wie sich der RV630 schlagen wird, nur besteht hier das Problem, dass dieser wohl erst in 2 Monaten der Markt erreichen wird, sodass NV die DX10-Lemminge in dieser Zeit noch etwas schröpfen wird.

nichtmal noch ein Monat.

AnarchX
2007-04-18, 12:09:53
Ja, 1/4 in punkto SI und 1/2 in punkto Funktionseinehieten.
Ich habe den den Verdacht, dass sich das 1/4 auch auf ROPs/TMUs beziehen könnte. ;)

nichtmal noch ein Monat.
Ja, da ist der Launch, aber wie es aussieht wird man sie da aber nicht kaufen können.

Nakai
2007-04-18, 13:03:22
Ich habe den den Verdacht, dass sich das 1/4 auch auf ROPs/TMUs beziehen könnte. ;)


Ja, da ist der Launch, aber wie es aussieht wird man sie da aber nicht kaufen können.

8 TMUs und 4 ROPs. Naja wieso nicht. Dann muss das Ding aber arg hochgetaktet sein um die fehlenden Enheiten auszugleichen.

mfg Nakai

robbitop
2007-04-18, 13:16:22
Ich habe den den Verdacht, dass sich das 1/4 auch auf ROPs/TMUs beziehen könnte. ;)


1/4 bezieht sich auf die Clusteranzahl und somit auch auf die TMUs und ALUs.
Dass jetzt ein paar mehr TAs drin sind, bringt idR nur wenig. Dass pro Texel mal nur ein biSample anfaellt ist eben sehr selten. Die reine Filterleistung pro Cluster ist immernoch dieselbe.

robbitop
2007-04-18, 13:17:20
Ich habe den den Verdacht, dass sich das 1/4 auch auf ROPs/TMUs beziehen könnte. ;)


Bei 380 Mio Transistoren (was ja schon 1/2 R600 ist)?

AnarchX
2007-04-18, 13:23:48
Bei 380 Mio Transistoren (was ja schon 1/2 R600 ist)?
Woher ist diese Zahl?
Wer sagt, dass ATi die Transistoren bei 65nm genau so dicht packen kann wie bei 80nm?

robbitop
2007-04-18, 13:26:51
Tauchte in letzter Zeit haeufiger auf. Muesste man aber anhand der Kerngroesse, der Kenntnis des Prozesses und bestehenden GPUs approximieren koennen. Wer hat mal DIE Sizes?

PCGH_Carsten
2007-04-18, 13:34:09
Bei 80nm packt Ati derzeit ca. 1,37M Transistoren/mm² (RV570).

robbitop
2007-04-18, 13:46:09
Dann sind es bei 65 nm rund 2 Mio Transistoren pro mm^2.
Die DIE Size vom RV630 soll sein..?

PCGH_Carsten
2007-04-18, 13:49:08
Die DIE Size vom RV630 soll sein..?
Laut Ailuros etwa gleich mit G84, also 165-169mm².

robbitop
2007-04-18, 13:54:15
Ok sind bei mir ~340 Mio Transistoren.

Ferengie
2007-04-18, 14:18:25
Hoffentlich fällt der RV630 nicht so mager aus wie die gestrigen Nvidias.

Nakai
2007-04-18, 14:26:11
Ok sind bei mir ~340 Mio Transistoren.

Naja kein halber R600 bei so wenigen Transistoren.

mfg Nakai

robbitop
2007-04-18, 14:30:52
Aber auch kein viertel ;)
Kleines Gedankenspiel: Wenn sie das SI und ROPs vierteln, ein bisschen Redundanz kuerzen koennte es aber bei den "Clustern" noch eine Halbierung sein.Bisher ist das nur eine grobe Approximation, da man solche Daten nicht genau auf andere Prozesse und uebertragen kann und da die finale Die Size noch nicht exakt bekannt ist.

Nakai
2007-04-18, 14:41:25
Wenn es mit den ROPs wie beim G80 gemacht wird, und der R600 16 ROPs hat, dann müsste der Rv630 4 ROPs besitzen.
Dann hast du recht.

Wobei man bei den Cluster vll einiges weglassen könnte was beim R600 drin ist.
(Register, Caches usw.)

mfg Nakai

robbitop
2007-04-18, 15:08:18
Wenn es mit den ROPs wie beim G80 gemacht wird, und der R600 16 ROPs hat, dann müsste der Rv630 4 ROPs besitzen.
Dann hast du recht.

Wobei man bei den Cluster vll einiges weglassen könnte was beim R600 drin ist.
(Register, Caches usw.)

mfg Nakai
Jeder Cluster braucht eigene Caches und Register.

reunion
2007-04-18, 15:32:09
RV630 hat ca. 153mm², ist also doch ein Stück kleiner als G84.

robbitop
2007-04-18, 15:34:13
Dann wird da wohl kein halber R600 reinpassen.

reunion
2007-04-18, 15:35:25
Ich habe den den Verdacht, dass sich das 1/4 auch auf ROPs/TMUs beziehen könnte. ;)


Warum? Weils bei RV530 so war? Wie ich schon mehrmals sagte, ist die Situation mit damals in keinster Weise vergleichbar, denn es wird aller voraussicht keinen R680 mit der dreifachen ALU-Anzahl geben. Und platz hat man dank 65nm auch genug.


Ja, da ist der Launch, aber wie es aussieht wird man sie da aber nicht kaufen können.

Mehr als ein paar sich ständig widersprechende Kommentare von FUAD gibts dazu bisher nicht. Dein Misstrauen ist ja schon und gut, aber stelle das doch bitte nicht so dar, als wäre das als Fakt anzusehen.

Bei 80nm packt Ati derzeit ca. 1,37M Transistoren/mm² (RV570).

330/230=1.43478. Wo liegt der Fehler?
Wobei ich solche Vergleiche bei unterschiedlichen Architekturen ohnehin nicht für besondern sinnvoll erachte. Braucht nur der Cacheanteil bei R6xx gestiegen sein, und schon hinkt der Vergleich. Immerhin packt ja nV mit ihrer Architektur bei identischen Fertigungsprozessen auch um einiges enger.

PCGH_Carsten
2007-04-18, 15:51:59
330/230=1.43478. Wo liegt der Fehler?
Bei den 230...; das sind 242mm².

reunion
2007-04-18, 15:58:39
Bei den 230...; das sind 242mm².

Nachgemessen? ATi gibt jedenfalls 230mm² an. Hier muss man dann allerdings differenzieren, denn bei den anderen Chips werden ja auch meist die Herstellerangaben herangezogen.

Gast
2007-04-18, 16:20:29
Gibt's immer noch keine bestätigten genauen Daten zum R600? Das ist doch langsam echt lächerlich. Wäre der R600 eine "Wunder-GPU", wüsste man doch schon längst davon. Ich, wäre ich für den Marketingbereich bei AMD zuständig, würde jedenfalls groß rumposaunen, dass so und so viele Shader-Einheiten mit der und der Leistung vorhanden sind, dass die Karte so und so viel schneller als eine 8800 GTX ist, dass dieses und jenes neues Feature enthalten ist und und und ... Zumindest würde ich potenziellen Kunden schmackhaft machen. Wenn ich jetzt eine 8800 GTX kaufe und in einem Monat kommt der R600 raus, hat AMD nichts davon. Daher muss ich jetzt davon ausgehen, dass der R600 nicht viel schneller als der G80 sein wird.

san.salvador
2007-04-18, 16:34:59
Mir scheint AMD/ATI nicht sehr vom eigenen Produkt überzeugt zu sein.

Wie der gast schon gesagt hat, AMD/ATI hat in keinster Weise versucht, die potentiellen GTS/GTX-Käufer zum Warten zu bringen.
Warum haben sie das nicht getan?

CEO
2007-04-18, 16:43:35
Jo ich bin auch gespannt wie flitzekacke auf ATI's produkkt.

Gast
2007-04-18, 17:00:51
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/atis_rv630_radeon_hd_2600/

Sagt aber auch rein gar nichts neues. Nur diese Geblubber von wegen DualSlot Kühler = massive Wärme + extrem hoher Stromverbrauch ist wieder naja typisch

Knacki99
2007-04-18, 17:00:56
War abzusehen dass die XT nicht 350€ kosten wird.
Aber dass die XTX jetzt soviel später kommt, ist nicht gut. Die XT ist doch eh nur eine halbgare R600 mit 512 MB GDDR3 Ram.

MfG :cool:

DITO!

PCGH_Carsten
2007-04-18, 17:19:36
Nachgemessen? ATi gibt jedenfalls 230mm² an. Hier muss man dann allerdings differenzieren, denn bei den anderen Chips werden ja auch meist die Herstellerangaben herangezogen.

Wir messen alles per Schieblehre (Meßschieber) nach.

reunion
2007-04-18, 17:32:28
Wir messen alles per Schieblehre (Meßschieber) nach.

Okay, das ist natürlich dann was anderes. Habt ihr auch schon einen G80 gemessen?

MechWOLLIer
2007-04-18, 17:40:22
Sagt aber auch rein gar nichts neues. Nur diese Geblubber von wegen DualSlot Kühler = massive Wärme + extrem hoher Stromverbrauch ist wieder naja typisch
Und das steht wo?

PCGH_Carsten
2007-04-18, 17:44:38
Okay, das ist natürlich dann was anderes. Habt ihr auch schon einen G80 gemessen?

Nein, wir wollten noch keines unserer Testmuster potenziell dafür opfern. Wir sind aber "dran". :)

BlackBirdSR
2007-04-18, 17:49:39
Wir messen alles per Schieblehre (Meßschieber) nach.

Und wer sagt dann, dass die umgossene Fläche auch komplett dem DIE entspricht?

Godmode
2007-04-18, 17:50:53
Und wer sagt dann, dass die mmgossene Fläche auch komplett dem DIE entspricht?

Du meinst wie zum Beispiel NVIO, der recht groß erscheint aber in Wirklichkeit nicht viele Transistoren trägt?

robbitop
2007-04-18, 18:01:44
ja oder Traegermaterial um den Kern

Henroldus
2007-04-18, 18:05:42
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/atis_rv630_radeon_hd_2600/

Sagt aber auch rein gar nichts neues. Nur diese Geblubber von wegen DualSlot Kühler = massive Wärme + extrem hoher Stromverbrauch ist wieder naja typisch
schaut mir sehr nach ner gewöhnlichen x1950XTX aus :confused:

AnarchX
2007-04-18, 18:06:47
schaut mir sehr nach ner gewöhnlich x1950XTX aus :confused:

Die hat aber keine CF-Connectoren( und sieht auch so doch anders aus) . ;)
Das ist definitiv die HD 2600XT, wobei ein anderes Bild in Frage stellt ob der Dualslot-Kühler überhaupt notwendig ist.

Nakai
2007-04-18, 18:32:25
Jeder Cluster braucht eigene Caches und Register.

Ich meinte eigentlich ob man diese verkleinern oder andere Teile im Chip weglassen könnte. Falls der Rv630 auch diese Sound und Videofähigkeiten hat, könnte er auch nur ein 1/4er R600 sein.

mfg Nakai

|MatMan|
2007-04-18, 18:37:23
Traegermaterial um den Kern
jeder mm² auf dem Wafer ist bares Geld, d.h. man verschwendet 12 mm² fürs Sägen (der eigentliche Sägeschnitt kommt ja noch dazu, denn der ist ja "weg"), das wären dann ca 3,5 mm pro Kante = 3,5 mm Abstand zwischen den Chips auf dem Wafer -> IMO viel zu viel.

reunion
2007-04-18, 18:41:43
jeder mm² auf dem Wafer ist bares Geld, d.h. man verschwendet 12 mm² fürs Sägen (der eigentliche Sägeschnitt kommt ja noch dazu, denn der ist ja "weg"), das wären dann ca 3,5 mm pro Kante = 3,5 mm Abstand zwischen den Chips auf dem Wafer -> IMO viel zu viel.

Wie kommst du bitte auf 3.5mm pro Kante. Egal, ist auf jeden Fall falsch.

robbitop
2007-04-18, 18:49:50
Ich meinte eigentlich ob man diese verkleinern oder andere Teile im Chip weglassen könnte. Falls der Rv630 auch diese Sound und Videofähigkeiten hat, könnte er auch nur ein 1/4er R600 sein.

mfg Nakai
Ohgott bitte keine Register oder Caches beschneiden! ;)

Sound besteht ja nur im Durchschleifen von digitalen Signalen. Es entsteht ja kein Signalprocessing wie beim EMUx0kx. Und selbst wenn ist das nicht der Rede Wert.
Videoprozessor frisst sicher ein paar Transistoren.

PCGH_Carsten
2007-04-18, 18:51:03
Und wer sagt dann, dass die umgossene Fläche auch komplett dem DIE entspricht?
Niemand. :) Hast du eine bessere Idee?

Nakai
2007-04-18, 18:57:05
Ohgott bitte keine Register oder Caches beschneiden! ;)

Sound besteht ja nur im Durchschleifen von digitalen Signalen. Es entsteht ja kein Signalprocessing wie beim EMUx0kx. Und selbst wenn ist das nicht der Rede Wert.
Videoprozessor frisst sicher ein paar Transistoren.

Okay das genügt mir als Antwort! ;)

Danke sehr^^

Hast du eine bessere Idee?

Mit den Werten von ATI rechnen.^^

mfg Nakai

laser114
2007-04-18, 19:32:53
Fuad hat mal wieder was über die R6xx-Generation zu erzählen:


R600 is "a mini core" marchitecture (http://www.fudzilla.com/index.php?option=com_content&task=view&id=590&Itemid=1)

The R600 is nothing more than two times the RV630 or four times the RV610 chip.
...
The RV630 has 32 Unified Shaders while the RV610 has 16 only

Heimatloser
2007-04-18, 19:42:02
Wenn der R600 im Verhältnis zu Nvidia dann doch zu lahm ist könnten die das ganze ja noch um einen "Mini Core" aufrüsten.

Und das Ding werde ich mir dann in meinen AthlonXP reinhauen.

Wahnsinn.

DerHeimatlose

dargo
2007-04-18, 19:58:00
Angenommen die Crysis Resultate haben Hand und Fuss und die XT hat sagen wir mal 50MHz weniger Taktrate als die XTX. Da kann die letztere Glueck haben wenn sie um ~10% in 1600/4xAA schneller als die XT sein wird.

Ich messe gerade den 158.19 ab und ich sehe bis jetzt eine Leistungssteigerung die sich zwischen 5 und 15% betraegt.
Ich habe mit dem Forceware 158.19 in Rainbow Six: Vegas eine Leistungssteigerung von satten 32% 20% mit einer G8800GTS@612/900Mhz gegenüber dem FW 101.02 gemessen. Das nenne ich mal ein Treiberupdate. :D

BlackBirdSR
2007-04-18, 20:04:20
jeder mm² auf dem Wafer ist bares Geld, d.h. man verschwendet 12 mm² fürs Sägen (der eigentliche Sägeschnitt kommt ja noch dazu, denn der ist ja "weg"), das wären dann ca 3,5 mm pro Kante = 3,5 mm Abstand zwischen den Chips auf dem Wafer -> IMO viel zu viel.

Du vergisst Folgendes:
Platz auf den Wafer ist wichtig. Das stimmt. Allerdings gibt es immer ein paar Sachen, die niemals fehlen dürfen. Besonders nicht im ersten Batch/Stepping.
Da wären Test-Strukturen, um die Chips elektrisch zu testen, noch bevor sie verpackt werden. Test-Strukturen um die Waferqualität zu prüfen. Anschlusspads und I/O, welche nicht ausschließlich/kaum aus Transistoren bestehen, aber viel Platz wegnehmen.
Dies und mehr belegt Platz auf dem Wafer, ohne zum Transistorbüdge des Chips beizutragen. Eventuell gibt AMD/ATI nunmal den gerundeten Wert an, der im Zusammenhang zu den gezählten Transistoren steht.

Ich würde meinen Konkurrenten, oder der unwissenden Öffentlichkeit auch nicht unbedingt erzählen, wie viel Platz auf dem Wafer wirklich belegt wird.

Ich habe mit dem Forceware 158.19 in Rainbow Six: Vegas eine Leistungssteigerung von satten 32% mit einer G8800GTS@612/900Mhz gegenüber dem FW 101.02 gemessen. Das nenne ich mal ein Treiberupdate. :D

Dual-Core-Optimierungen?
Nimm dir doch mal einen Process-Explorer und schau nach. Habe leider keine G80

dargo
2007-04-18, 20:06:10
Fuad hat neue "Infos":
Radeon HD 2900 XT for €434 - European price (http://www.fudzilla.com/index.php?option=com_content&task=view&id=584&Itemid=1)
Nunja, wenn das stimmen sollte also nicht mehr ganz der P/L-Killer

Völliger BS. Ich möchte mal wissen wie er zu der Annahme kommt, dass die Europaer mehr für die Karte bezahlen sollen/müßen? :|

Dual-Core-Optimierungen?
Nimm dir doch mal einen Process-Explorer und schau nach. Habe leider keine G80
Nee, die Szene ist völlig gpu-limitiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5416981&postcount=72

BlackBirdSR
2007-04-18, 20:11:51
Völliger BS. Ich möchte mal wissen wie er zu der Annahme kommt, dass die Europaer mehr für die Karte bezahlen sollen/müßen? :|


Nee, die Szene ist völlig gpu-limitiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5416981&postcount=72

eine GPU-Limitierung muss ja nicht heißen, dass die Grafikkarte nicht mehr berechnen kann. Eventuell ist es ja der Treiber, der nicht schnell genug arbeitet, oder die benötigten Optimierungen nicht liefern kann.
Selbst wenn es Leistungslimitiert ist, dann nicht immer zu 100%.

Und am Treiber liegt es ja auch ;)

Heimatloser
2007-04-18, 20:25:37
Ich habe mit dem Forceware 158.19 in Rainbow Six: Vegas eine Leistungssteigerung von satten 32% mit einer G8800GTS@612/900Mhz gegenüber dem FW 101.02 gemessen. Das nenne ich mal ein Treiberupdate. :D

Das ist aber ganz schön heavy.

Sieht mit dem Treiber auch alles genauso gut wie vorher aus, oder ist da was an Qualität drauf gegangen ?

DerHeimatlose

dargo
2007-04-18, 20:27:42
eine GPU-Limitierung muss ja nicht heißen, dass die Grafikkarte nicht mehr berechnen kann. Eventuell ist es ja der Treiber, der nicht schnell genug arbeitet, oder die benötigten Optimierungen nicht liefern kann.
Selbst wenn es Leistungslimitiert ist, dann nicht immer zu 100%.

Und am Treiber liegt es ja auch ;)
Du meinst also NV hätte mit dem neuen Treiber endlich die DC-Optimierung stark verbessert? Eigendlich sollte sich dann eine Steigerung der Frames nur beim CPU-Limit zeigen, oder?

Das ist aber ganz schön heavy.

Sieht mit dem Treiber auch alles genauso gut wie vorher aus, oder ist da was an Qualität drauf gegangen ?

DerHeimatlose
Mir sind keine Unterschiede aufgefallen.

Gast
2007-04-18, 20:33:13
Niemand. :) Hast du eine bessere Idee?
Ja es einfach nicht machen da es eine milchmessung ist!
Aus dem einfachem Grund das keiner sehen kann wie es unter der schutzumantelung ausschaut.

Sebelt man nun den schutz vom r600 oder g8 ab geht es natürlich.

Aber hart so zu messen wen man sich schon im klaren ist das man müll verzapft aber nunja ....

Sailor Moon
2007-04-18, 20:33:38
warum redundant? Vollbilder enthalten mehr Bildinformationen als Halbbilder. Das Schlimme ist ja, soweit ich das kapiert habe, dass die Halbbilder durch den zeitlichen Versatz auch je nach Kameraschwenk o.Ae. einen raeumlichen Versatz haben und damit theoretisch sehr fiese Kaemme auf dem Bild entstehen. Ein Deinterlacer mag da zwar helfen, aber nur bis zu einem gewissen Grad. Es fehlen eben pro Bild Informationen, so dass man 2 theoretisch verschiedene Bilder zusammensetzen muss (auch wenn sie meist nur minimal verschieden sind).

Sorry für OT, wird aber bei diesem einen Beitrag von mir bleiben: Dem ist nicht so. Der Deinterlacer kann, wenn die Quelle Film war, natürlich die Vollbilder verlustfrei wiederherstellen. Die Frames wurden ja nur auf die Fields verteilt.
Bei 2:2 Material ist das eigentlich simpel, da braucht er nur die passenden zwei Fields zusammenfügen. Bei 3:2 Material (also "i60 von p24") nennt sich der Vorgang IVTC (inverse telecine). Das setzt natürlich voraus, dass die Kadenzerkennung (im Idealfall any:any - gibt ja z.B. im Zeichentrickbereich auch sehr ungewöhnliche Kadenzen, weiterer Fallstrick wären sogenannte "bad edits" etc.) einwandfrei funktioniert und das Teil z.B. nicht in den Videomode zurückfällt. Leider sind die Deinterlacer in den TVs durch die Bank weg eher schlecht und sehr "videolastig". Oft wird bei 1080i gar nur Fieldscaling gemacht. Zudem ist 2:2 Material von der Erkennung her sowieso nicht ganz unkompliziert, auch wenn es so einfach klingt. Aber grundsätzlich ist da gar kein Problem. Gebe ich also z.B. in 1080i60 von meinem BR Player aus, kann ein vernünftiger Deinterlacer die 24 Orginalframes zurückgewinnen. Die Ausgabe erfolgt dann je nachdem, was das Display in Sachen Bildwiederholfrequenz kann.
Eine Broadcastübertragung mit 1080p50 oder p60 hätte also deutlich mehr Informationen als nötig. Bei p60 wird zudem die ruckelfreie Wiedergabe sehr schwer, denn eine progressive cadence detection ist selbst im Videoprozessorbereich verdammt selten.
Bei echtem Videomaterial liegt die Sache anders, weil hier zwischen den Fields ein zeitlicher Versatz vorhanden ist. Ein guter Deinterlacer mit vernünftigem Videomode kann aber auch hier einiges herausholen. Das, was z.B. aktuelle Videoprozessoren da leisten, ist schon extrem gut - und je nach Szene in Sachen reiner Bildqualität kaum bis gar nicht von echtem Filmmaterial zu unterscheiden.

Ich persoenlich bin ja fuer 1080p mit mindestens 30fps, damits bei Kameraschwenks nicht anfaengt zu ruckeln und auch kein Pixelplus das emulieren muss, denn das kann zu Artefakten fuehren.
Film hat nunmal 24 Frames/s, wenn ich jetzt den PAL Speedup mal weglasse (gibt es auf BR und HD DVD eh nicht mehr). In einer 1080i60 Ausgabe stecken die wie gesagt auch noch voll drin. Werden diese 24 Frames/s dann entsprechend auf einem Display mit x*24Hz ausgegeben, gibt es auch keine zusätzlichen Ruckler. Die 3:2 Ruckler entstehen ja dadurch, dass die Verteilung auf 60 Fields/s nicht linear funktionieren kann. Die Krux ist dabei natürlich die Beschränktheit vieler integrierter Deinterlacer. In dem Fall ist eine direkte 1080p24 Ausgabe und passender Support vom Display natürlich eine nette Sache.
Übrigens: Auf DVD ist auch immer interlaced gespeichert, egal ob die Quelle Film oder Video war. Ist aber aus den angesprochenen Gründen kein Problem.

Gruß

Denis

w0mbat
2007-04-18, 20:47:31
Völliger BS. Ich möchte mal wissen wie er zu der Annahme kommt, dass die Europaer mehr für die Karte bezahlen sollen/müßen? :|
[...]

Das ist der Listenpreis eines große europäischen Resellers.

Henroldus
2007-04-18, 20:47:58
Du vergisst Folgendes:
Platz auf den Wafer ist wichtig. Das stimmt. Allerdings gibt es immer ein paar Sachen, die niemals fehlen dürfen. Besonders nicht im ersten Batch/Stepping.
Da wären Test-Strukturen, um die Chips elektrisch zu testen, noch bevor sie verpackt werden. Test-Strukturen um die Waferqualität zu prüfen.
Teststrukturen werden meines wissens nach im sägeverschnittbereich zwischen den chips eingesetzt und belegen somit keinen zusätzlichen platz.

wieso wird hier eigentlich um transistoren gefeilscht?

dargo
2007-04-18, 20:51:15
Das ist der Listenpreis eines große europäischen Resellers.
Klar, direkt nach dem Launch nehme ich mal an. Wir schauen uns den Strassenpreis nochmal nach zusätzlichen 4-8 Wochen an. ;)

robbitop
2007-04-18, 20:56:11
Film hat nunmal 24 Frames/s
Und das kann in manchen Situationen einfach zu wenig sein. (auch im Kino merke ich das dann und wann) Ich will mindestens 30 ;) Wenn ich da an so manche Kameraschwenks denke oder an konstant bewegte Objekte. Gehts dir da nicht aehnlich?

Danke uebrigens fuer die Erklaerung bzgl Interlacing. :)

Sailor Moon
2007-04-18, 20:59:40
Und das kann in manchen Situationen einfach zu wenig sein
Hab dir eine PN geschickt, um den Thread nicht weiter zu belasten :-)

deekey777
2007-04-18, 21:19:05
Fuad hat mal wieder was über die R6xx-Generation zu erzählen:


R600 is "a mini core" marchitecture (http://www.fudzilla.com/index.php?option=com_content&task=view&id=590&Itemid=1)
Und der R580 war, was den Pixelteil angeht, ein vierfacher RV530. Was ist daran so neu? Dass das Design skalierbar sein muss, ist doch jedem klar.

laser114
2007-04-18, 21:20:03
Was ist daran so neu?

Dass er meint, der RV630 wird ein halber R600 - und kein Viertel.

PCGH_Carsten ohne Keks
2007-04-18, 21:24:42
Ja es einfach nicht machen da es eine milchmessung ist!
Aus dem einfachem Grund das keiner sehen kann wie es unter der schutzumantelung ausschaut.

Sebelt man nun den schutz vom r600 oder g8 ab geht es natürlich.

Aber hart so zu messen wen man sich schon im klaren ist das man müll verzapft aber nunja ....
Ähm, ja.

Sorry, aber bisher haben wir nur die Dies gemessen, keine Heatspreader. Für wie dämlich hältst du uns eigentlich???

PCGH_Carsten ohne Keks
2007-04-18, 21:33:24
Ich würde meinen Konkurrenten, oder der unwissenden Öffentlichkeit auch nicht unbedingt erzählen, wie viel Platz auf dem Wafer wirklich belegt wird.

Aus dem Grunde messen wir auch lieber selbst - auch wenn da hier und da ein Zehntel Millimeter evtl. mal durch den "Substrat-Kleber" draufgeht: Wir bemühen uns schon, den weitestgehend zu entfernen an der Stelle, an der wir messen.

Ailuros
2007-04-18, 22:02:36
Im meist erwarteten Spiel fuer 2007 liegen tatsaechlich die XT und die GTX dicht Nase an Nase nach Angaben. Sogar eine G7x soll ziemlich anstaendig mit hohen settings in dem Ding laufen. Nun ja auf der Schachtel steht dann sowieso irgend ein "DX10 game" Bloedsinn ;)

Gast
2007-04-18, 22:19:14
Wo hast du das her? Ein Gerücht zu Crysis sagte ja etwas sehr ähnliches, nur das die G7x Serie da gut abschneidet soll ist neu und wohl eher nicht zutreffen (Shader overkill ahoi)
Nach welcher Webseite eigentlich "Most anticipated Game 2007", IGN sieht ja Bioshock vorne ;)

Gast
2007-04-18, 22:30:46
Ähm, ja.

Sorry, aber bisher haben wir nur die Dies gemessen, keine Heatspreader. Für wie dämlich hältst du uns eigentlich???
omg

wen du so fragst dür ziemlich (bzw dich so anpinkelst)

Ein einfaches wir/ich können/kann es nicht genau sagen (wegen dem spreader) wäre der richtige weg!

nicht irgendwas messen und ne zahl in den raum ballern.

und das die spreader nicht gleich sind ist "EUCH" denk ich mal bekannt rechnet nun nicht einfach nenn festen wert ab.

und da sind wir wieder bei der "falschaussage"

Also einfach lassen.

Gast
2007-04-18, 22:55:41
Gehts noch?

du redest totalen schwachsinn vor dir hin...

Falls du es weist, hat der R600 keinen Heatspreader.... nur der G80..

BlackBirdSR
2007-04-18, 23:06:50
Aus dem Grunde messen wir auch lieber selbst - auch wenn da hier und da ein Zehntel Millimeter evtl. mal durch den "Substrat-Kleber" draufgeht: Wir bemühen uns schon, den weitestgehend zu entfernen an der Stelle, an der wir messen.

Von Substrat-Kleber rede ich doch gar nicht. Den Post vorhin ganz gelesen?

@Dargo:
Wenn der DC-Support nur darauf abzielt die CPU zu entlasten natürlich.
Wenn der Treiber aber mit dem 2. Kern zusätzliche Optimierungen nutzen kann, die sonst nicht/schlecht möglich sind (Performanceverlust durch hohe CPU-Last), dann wäre das eine Möglichkeit.

Wenn der Treiber die Performance erhöht, handelt es sich ja nicht um ein GPU-Limit im Sinne der max. Textur/Shader/Geometrieleistung. Die ist nicht bei peak.
Der Treiber ermöglicht mehr Effizienz. Also eher eine Treiber/Code-Limitierung ;) Aber jetzt wirds Haarspalterei.

|MatMan|
2007-04-18, 23:14:23
Wie kommst du bitte auf 3.5mm pro Kante. Egal, ist auf jeden Fall falsch.
ja hast Recht, es sind ca 0,4 mm (unter der Annahme einer quadratischen Chipfläche, damit man sich etwas darunter vorstellen kann) - wenn man zu schnell schreibt und nicht nochmal drüber nachdenkt :redface:

Du vergisst Folgendes:
Platz auf den Wafer ist wichtig. Das stimmt. Allerdings gibt es immer ein paar Sachen, die niemals fehlen dürfen. Besonders nicht im ersten Batch/Stepping.
Da wären Test-Strukturen, um die Chips elektrisch zu testen, noch bevor sie verpackt werden. Test-Strukturen um die Waferqualität zu prüfen. Anschlusspads und I/O, welche nicht ausschließlich/kaum aus Transistoren bestehen, aber viel Platz wegnehmen.
Dies und mehr belegt Platz auf dem Wafer, ohne zum Transistorbüdge des Chips beizutragen. Eventuell gibt AMD/ATI nunmal den gerundeten Wert an, der im Zusammenhang zu den gezählten Transistoren steht.
hm könnte natürlich sein dass PCGH da eine recht frühe Revision gemessen hat und die späteren dann wirklich bei 230 mm² liegen.
Ansonsten müsste ATI trotzdem die volle Chipgröße inklusive Bondpads und allem drum und dran als offizielle Größe angeben, denn ohne geht ja es nunmal nicht. Die reine Transistorfläche kann man eh nicht angeben, da die Chips wohl kaum nur aus einer Verdrahtungsebene bestehen.

Mir ging es nur darum, dass die Differenz in der Fläche mit Sicherheit nicht nur ungenutztes Silizium ist.
Außerdem vertraue ich eher einer real gemessenen Die-Größe (und damit realem Waferplatz) als einer Marketingzahl.

Fetza
2007-04-19, 02:14:58
Im meist erwarteten Spiel fuer 2007 liegen tatsaechlich die XT und die GTX dicht Nase an Nase nach Angaben. Sogar eine G7x soll ziemlich anstaendig mit hohen settings in dem Ding laufen. Nun ja auf der Schachtel steht dann sowieso irgend ein "DX10 game" Bloedsinn ;)

Das wage ich zu bezweifeln. Mein g70 performt mit 1280x1024 mit 4xaa gerade so eben noch flüssig in spielen wie quake 4. Und damit meine ich so 80% des games ungefähr.... also werden neue spiele mit sicherheit nicht in high-detail auf dem 2 jahre? alten chip design flüssig laufen.

Moralelastix
2007-04-19, 04:54:52
Das wage ich zu bezweifeln. Mein g70 performt mit 1280x1024 mit 4xaa gerade so eben noch flüssig in spielen wie quake 4. Und damit meine ich so 80% des games ungefähr.... also werden neue spiele mit sicherheit nicht in high-detail auf dem 2 jahre? alten chip design flüssig laufen.


Wer weiß was Crytek da noch alles optimieren konnte im Vergleich zu FarCry. Und das es große Unterschiede von Spiel zu Spiel bei der effizienten Nutzung der Hardware gibt is ja nix Neues(Grottic 3 :biggrin: ).

Ich kann mich auch an den Multiplayer von der GC erinnern der ja auf x1900 gut lief.

Außerdem sprachen die ja immer davon das auch noch alte Highend Systeme (Lauchdate - 3Jahre) bei Crysis ne faire Chance haben.

Ailuros
2007-04-19, 05:55:49
Das wage ich zu bezweifeln. Mein g70 performt mit 1280x1024 mit 4xaa gerade so eben noch flüssig in spielen wie quake 4. Und damit meine ich so 80% des games ungefähr.... also werden neue spiele mit sicherheit nicht in high-detail auf dem 2 jahre? alten chip design flüssig laufen.

Ich hab nirgends AA erwaehnt und sagte ausdruecklich "anstaendig".

PCGH_Carsten
2007-04-19, 09:23:06
omg
wen du so fragst dür ziemlich (bzw dich so anpinkelst)
Ein einfaches wir/ich können/kann es nicht genau sagen (wegen dem spreader) wäre der richtige weg!
nicht irgendwas messen und ne zahl in den raum ballern. und das die spreader nicht gleich sind ist "EUCH" denk ich mal bekannt rechnet nun nicht einfach nenn festen wert ab. und da sind wir wieder bei der "falschaussage" Also einfach lassen.
Wir reden aktuell gar nicht von R600 und G80 - sind also ziemlich OT - von daher erübrigen sich die Diskussion um die Heatspreader und deine unbegründeten Angriffe ziemlich gründlich.

Von Substrat-Kleber rede ich doch gar nicht. Den Post vorhin ganz gelesen?
Ja.

ks
2007-04-19, 13:34:17
Wahrscheinlich OT:

Da ja ATI ja auf den HD Zug springt....
wird (wenigstens) die neue Karte/Chip die Möglichkeit bieten 2 TFTs anzuschliessen und TV-Out(am besten HDTV über Komponenten-Kabel) gleichzeitig laufen zu lassen? Die HDMI Unterstützung ist zwar fein, aber bei 2 Monitoren/TFT ist diese auch net mehr nutzbar..........vielleicht untypisches Szenario....wäre aber nen sehr gutes feature

sonst wäre ne kleine Version vom R6xx interessant als zusatzkarte für zweit Monitor und hdtv out....

Gmax
2007-04-19, 13:45:02
Radeon HD 2900 XT has 102.4 GB/s bandwidth (http://www.fudzilla.com/index.php?option=com_content&task=view&id=611&Itemid=1)

seahawk
2007-04-19, 13:56:14
Das sind wohl schon lange keine "News" mehr

Gmax
2007-04-19, 13:58:18
Von den 518Gflops hatte ich noch nichts gelesen(bei der XT).

Super Grobi
2007-04-19, 13:58:33
Man immer so blöde Neuigkeiten. Will endlich Benchmarks (Games!) sehen. Und das ganze dann im Vergleich zur 8800.

SG

AnarchX
2007-04-19, 14:39:38
ATI RV630 may follow in G84's footstep (http://www.bit-tech.net/news/2007/04/19/rv630_may_follow_in_g84s_footsteps/)

[...]At the moment, feelings are somewhat mixed in Taiwan. At least, amongst the various sources that were willing to talk to us about the upcoming parts. So, while our various sources in Taiwan weren't willing to disclose specific performance numbers, they did indicate that we can expect it to be a similar story to GeForce 8600 GTS.

Neither G84 or RV630 are (going to be) massively under-performing products -- they're just not very compelling if the IHVs and their partners don't get the pricing dead on. Pricing is incredibly important in the mid-range, as £10-20 can make a massive difference to a product's value for money prospects when it's retailing for somewhere between £100 and £150. G84 is just a little over-priced at the moment, especially when you have to remember there is no DirectX 10 content out there -- one of the chip's big selling points over current mid-range offerings.[...]


edit:
http://img89.imageshack.us/img89/9134/cimg0604sm1.jpg (http://imageshack.us)
http://img154.imageshack.us/img154/3429/cimg0608ce5.jpg (http://imageshack.us)
http://img89.imageshack.us/img89/3860/2600qy8.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-752201-1-1.html

Ein anderer Kühler als bei der HD 2600XT von CB.

PCGH_Carsten
2007-04-19, 15:07:12
Kein Stromanschluss - interessant.

AnarchX
2007-04-19, 15:09:52
Kein Stromanschluss - interessant.

Du hast Recht, da ist nun ein Kondensator.

seahawk
2007-04-19, 15:10:52
Sicher ? auch nicht oben in der Ecke.

dargo
2007-04-19, 15:11:50
Ich hab nirgends AA erwaehnt und sagte ausdruecklich "anstaendig".
Mal davon abgesehen, dass ein G7x eh kein HDR+MSAA beherrscht.

Radeon HD 2900 XT has 102.4 GB/s bandwidth (http://www.fudzilla.com/index.php?option=com_content&task=view&id=611&Itemid=1)
Das erklärt wohl auch den Kampfpreis von 399$, bei 800Mhz GDDR3 nicht verwunderlich.

AnarchX
2007-04-19, 15:11:57
Sicher ? auch nicht oben in der Ecke.

Oben rechts bei dem Kondesator sieht man 6 Lötstellen die nicht belegt sind.
Da ist bei dieser Version noch der Stromanschluss:
http://pics.computerbase.de/1/7/8/0/3/1.jpg

dargo
2007-04-19, 15:16:58
ATI RV630 may follow in G84's footstep (http://www.bit-tech.net/news/2007/04/19/rv630_may_follow_in_g84s_footsteps/)



edit:
http://img89.imageshack.us/img89/9134/cimg0604sm1.jpg (http://imageshack.us)

Ein anderer Kühler als bei der HD 2600XT von CB.
Sieht nach einer Singleslot-Kühlung aus, oder?

Kein Stromanschluss - interessant.
Sollte der langsamste RV630 nicht bei <75W liegen?

AnarchX
2007-04-19, 15:20:44
HD 2600XT @ 3DMark06 C2D E6600
http://img299.imageshack.us/img299/6398/30wt8.jpg (http://imageshack.us)

Da scheint wohl bit-tech(ATI RV630 may follow in G84's footstep) richtig zu liegen. HD 2600XT = ~X1950GT/Pro + D3D10 + niedrigerer Stromverbrauch.

deekey777
2007-04-19, 15:22:30
Von den 518Gflops hatte ich noch nichts gelesen(bei der XT).
Wie kommst du auf 518 GFLOP/s und das bei der HD 2900XT?
HD 2600XT @ 3DMark06 C2D E6600
http://img299.imageshack.us/img299/6398/30wt8.jpg (http://imageshack.us)

Da scheint wohl bit-tech(ATI RV630 may follow in G84's footstep) richtig zu liegen. HD 2600XT = ~X1950GT/Pro + D3D10 + niedrigerer Stromverbrauch.
Habe ich was verpasst? VR-Zone haben schon zu den Zeiten von Kaiser Wilhelm Zwo die Performance der HD 2600XT auf dem Level der X1900GT geschätzt. Was soll die Aufregung? :|

DrumDub
2007-04-19, 15:26:06
Wie kommst du auf 518 GFLOP/s und das bei der HD 2900XT? fuad: The R600XT can work out 518GFlops and that is only with the Shader units. http://www.fudzilla.com/index.php?option=com_content&task=view&id=611&Itemid=1

Godmode
2007-04-19, 15:30:39
fuad: http://www.fudzilla.com/index.php?option=com_content&task=view&id=611&Itemid=1


The R600XT can work out 518GFlops and that is only with the Shader units.


Ich wüsste nicht was sonst außer den Shaderunits zur arithmethischen Leistung beitragen würde?:rolleyes:

Zu den HD 2600 XT Ergebnissen: da hab ich wohl getäuscht, ich sagte gestern noch das die HD 2600 XT sehr Leistungsfähig aussieht!

deekey777
2007-04-19, 15:34:12
fuad: http://www.fudzilla.com/index.php?option=com_content&task=view&id=611&Itemid=1
Überlesen, die Schriftgröße ist so winzig...

Und wie kommt der Typ auf 518?
Nehmen wir an: "5D"-ALUs (Vec4+1) mit je 1 MADD. Da wären bei 10 FLOPs, bei 64 Stück sind wir schon bei 640 FLOPs (reiner MADD-Leistung wohl bemerkt, AMD betont dies nicht umsonst). Bei 750 MHz wären wir bei 480 GFLOP/s, die 500er Grenze ist mit spätestens mit 800 MHz geknackt (512 GFLOP/s; für UE3 wichtig).
Wie kommt :cop:Fudo:cop: bei der XT auf 518 GFLOP/s? Bei ihr hieß, dass sie 10-15 % langsamer getaktet wird als die XTX. Es sei denn, seine Annahme war richtig, dass die HD 2900XT sich nur bei der Speicherausstattung von der XTX unterscheiden wird und nicht beim GPU-Takt.

AnarchX
2007-04-19, 15:37:17
Habe ich was verpasst? VR-Zone haben schon zu den Zeiten von Kaiser Wilhelm Zwo die Performance der HD 2600XT auf dem Level der X1900GT geschätzt.

Nun ist dies aber (mehr oder weniger) gesichert und bei dieser alten Meldung hätte man auch den damaligen Stand der Treiber hineininterpretieren können.

Wenn bit-tech und seinen Quellen Recht behalten, wird wohl auch hier das Featureset einen großen Anteil am Preis haben.

Spasstiger
2007-04-19, 15:59:53
Weiß eigentlich schon jemand, wie man die spekulierten VEC4+1-Alus aufteilen können wird? Nur 4:1 oder sind auch 2:2:1 und 3:1:1 denkbar?

DrumDub
2007-04-19, 16:09:53
Ich wüsste nicht was sonst außer den Shaderunits zur arithmethischen Leistung beitragen würde?:rolleyes: fuad halt. vielleicht denkt er bei nem 512bit si gibts auch 512 gflops gratis oben drauf... ;D

PCGH_Carsten
2007-04-19, 16:11:25
Sicher ? auch nicht oben in der Ecke.


Auf der Rückseite sind zwar Lötstellen zu sehen, auf der Front, wie AnarchX richtig bemerkt, aber nur ein blauer Elko.

Nakai
2007-04-19, 16:17:14
Dann wohl kein voller Rv630.^^;)

mfg Nakai

PCGH_Carsten
2007-04-19, 16:23:34
Sollte der langsamste RV630 nicht bei <75W liegen?


So wie auch der 8600 GTS - der hat aber trotzdem einen PCIe-Anschluss.


Wenn bit-tech und seinen Quellen Recht behalten, wird wohl auch hier das Featureset einen großen Anteil am Preis haben.

Natürlich - auch die Ati-Ingenieure können nicht zaubern. Nicht umsonst habe unter anderem auch ich das schon mehrmals betont. Einzig 65nm könnten hier noch einen deutlichen Vorteil bringen, wenn Ati es schafft, die Packungsdichte deutlich zu erhöhen.

Gast
2007-04-19, 16:29:51
Dann wohl kein voller Rv630.^^;)

mfg Nakai
Wenn die Performance nur auf X1900 GT/X1950 PRO Niveau liegt, dann nicht. R600 wird schließlich mindestens doppelt soviel Power haben/müssen wie eine X1900 XT. Aber der nicht vorhandene Stromstecker ist wirklich ein gutes Zeichen. TDP könnte dann wirklich unter 75 W sein. Allerdings braucht die X1900 GT auch nicht wirklich vielmehr, jedenfalls nach den Tests hier
http://www.xbitlabs.com/articles/video/display/power-noise_4.html
Vielleicht wird es ja Übertakterversionen geben, die einen zusätzlichen Anschluss besitzen werden, um das letzte Quentchen Takt aus dem Chip zu pressen. :)

AnarchX
2007-04-19, 16:51:14
Der User von PCinlife hat nun auch mal einen kleinen Test mit NfS Carbon gemacht:

C2D 3.6GHz, 8600GTS @720Mhz/2.2GHz
42 FPS
http://forum.coolaler.com/showthread.php?t=151318

C2D E6600, HD 2600XT
52FPS
http://we.pcinlife.com/viewthread.php?tid=752201&page=3&fromuid=167461#pid14254725

Godmode
2007-04-19, 17:01:34
Der User von PCinlife hat nun auch mal einen kleinen Test mit NfS Carbon gemacht:

C2D 3.6GHz, 8600GTS @720Mhz/2.2GHz
42 FPS
http://forum.coolaler.com/showthread.php?t=151318

C2D E6600, HD 2600XT
52FPS
http://we.pcinlife.com/viewthread.php?tid=752201&page=3&fromuid=167461#pid14254725

Wenn das in den anderen Spielen auch so aussieht, dann habe ich mich wohl doch nicht geiirt was die Performance der HD 2600 XT angeht!

AnarchX
2007-04-19, 17:05:54
Wenn das in den anderen Spielen auch so aussieht, dann habe ich mich wohl doch nicht geiirt was die Performance der HD 2600 XT angeht!

Nunja, NfS:C läuft auch verhältnismässig gut auf ATi-Karten.
Vielleicht gibt er ja noch ein paar andere Peformance-Werte heraus, die eindeutiger sind.

Der UVD scheint jedenfalls auch gut zu funktionieren: 1080p E6600 (http://img413.imageshack.us/my.php?image=5per21107alc9.jpg).

Nakai
2007-04-19, 17:13:19
Selbst wenn NFS ATI-Optimiert ist, ist dieser Wert mehr als zufriedenstellend.

mfg Nakai

AnarchX
2007-04-19, 17:17:37
Selbst wenn NFS ATI-Optimiert ist, ist dieser Wert mehr als zufriedenstellend.


Natürlich, aber man sollte daraus keine falschen Schlüsse ziehen, was sich hinter dem RV630 verbergen könnte.

reunion
2007-04-19, 17:18:56
Der User von PCinlife hat nun auch mal einen kleinen Test mit NfS Carbon gemacht:

C2D 3.6GHz, 8600GTS @720Mhz/2.2GHz
42 FPS
http://forum.coolaler.com/showthread.php?t=151318

C2D E6600, HD 2600XT
52FPS
http://we.pcinlife.com/viewthread.php?tid=752201&page=3&fromuid=167461#pid14254725


Wow, ein bis auf die Zähne übertakteter C2D und eine übertaktete 8600GTS gegen einen auf Standardtakt laufenden E6600 und einer 2600XT, wobei letztere über 20% vorne liegt.

Nunja, NfS:C läuft auch verhältnismässig gut auf ATi-Karten.


Nein, es läuft nur auf einem G7X verhältnismäßig schlecht. Ein G8x zeigt keine unnäturlichen Schwankungen. Jedenfalls reagiert Carbon sehr stark auf die Shaderleistung, was schonmal auf eine anständige ALU-Anzahl hindeutet.

deekey777
2007-04-19, 17:21:34
Selbst wenn NFS ATI-Optimiert ist, ist dieser Wert mehr als zufriedenstellend.

mfg Nakai
NFSC ist gar nicht optimiert, die Radeons kommen aber traditionell mit unoptimiertem Code besser klar als die Geforce (zumindest bis inkl. G70), was aber mit hohem Transistoraufwand erkauft wurde.

Andererseits skaliert NFSC gut mit arithmetischer Leistung.

reunion
2007-04-19, 17:22:07
Sollte der langsamste RV630 nicht bei <75W liegen?

Nur ist das ganz klar die XT-Platine, da die anderen wesentlich kürzer sind. Und wenn selbst die ohne ext. Stromanschluss auskommt, deutet das schonmal auf einen sehr niedrigen Stromverbauch hin.

Gast
2007-04-19, 17:22:19
Nunja, NfS:C läuft auch verhältnismässig gut auf ATi-Karten.
Das ist eine glatte Lüge und das solltest du eigentlich wissen.

Richtig wäre, das NFS:C scheiße auf CineFX Architekturen und anderen mit seriellen TMUs läuft.

Aber zu behaupten das liefe auf ATi Karten besser klingt natürlich besser, auch wenns quatsch ist.

dildo4u
2007-04-19, 17:22:43
So oder so NFS:Carbon und die Shader kommen von der X-Box 360 Version(Leadplattform für die Entwicklung aller übrigen Versionen) von daher ist ein Vorteil für ATI nicht verwunderlich vor allem weil der R500 ja sowas wie der indirekte Vorgänger vom R600 ist.

Gmax
2007-04-19, 17:24:18
Könnte mal jemand nen Screen von den 2600XT Benches machen?
Ich werde von pcinlife aufgefordert, ein Passwort einzugeben.

AnarchX
2007-04-19, 17:26:41
Könnte mal jemand nen Screen von den 2600XT Benches machen?
Ich werde von pcinlife aufgefordert, ein Passwort einzugeben.

Bist du an einem NFS-Menü-Screen interessiert wo oben eine 52 steht? :|

Das ist eine glatte Lüge und das solltest du eigentlich wissen.

Richtig wäre, das NFS:C scheiße auf CineFX Architekturen und anderen mit seriellen TMUs läuft.

Aber zu behaupten das liefe auf ATi Karten besser klingt natürlich besser, auch wenns quatsch ist.

Wenn ich mir Benches ansehe hält R580 in Carbon relativ gut mit dem G80 mit:
http://www.motherboards.org/reviews/hardware/1685_17.html

deekey777
2007-04-19, 17:27:54
Das ist eine glatte Lüge und das solltest du eigentlich wissen.

Richtig wäre, das NFS:C scheiße auf CineFX Architekturen und anderen mit seriellen TMUs läuft.

Aber zu behaupten das liefe auf ATi Karten besser klingt natürlich besser, auch wenns quatsch ist.
Lies mein Posting, er hat schon Recht. Es hat rein gar nichts mit den nichtentkoppelten TMUs zu tun (shader_waits_for_texture ist in NFSC zwar etwas höher, aber nicht so ausschlaggebend wie 2.600 batches im Durchschnitt).

reunion
2007-04-19, 17:31:51
So oder so NFS:Carbon und die Shader kommen von der X-Box 360 Version(Leadplattform für die Entwicklung aller übrigen Versionen) von daher ist ein Vorteil für ATI nicht verwunderlich vor allem weil der R500 ja sowas wie der indirekte Vorgänger vom R600 ist.

Ein Spiel kann immer nur einen Aspekt von vielen aufzeigen, und kann deshalb natürlich keine Allgemeingültigkeit beanspruchen. Für eine endgültige Beurteilung wird man den Launch abwarten müssen. Nur ist soetwas mit Sicherheit aussagekräftiger als ein 3dmark-Wert.

Gmax
2007-04-19, 17:35:47
Bist du an einem NFS-Menü-Screen interessiert wo oben eine 52 steht? :|


Wenns nur das ist, dann lass mal gut sein=)

Nakai
2007-04-19, 17:36:17
Andererseits skaliert NFSC gut mit arithmetischer Leistung.

Danke für den Hinweis, dann muss der Rv630 schon sehr viel mehr an arithmetischer Performance aufbringen muss.

mfg Nakai

Gast
2007-04-19, 17:37:21
Nur ist soetwas mit Sicherheit aussagekräftiger als ein 3dmark-Wert.

Lass mich raten: Weil die ATi karten hier besonders gut perfomen, gell?
Auch die G80 karten sind in Carbon nicht wirklich leistungsfähig, wenn man die Ergebnisse mit anderen Spielen vergleicht.

reunion
2007-04-19, 17:47:32
Lass mich raten: Weil die ATi karten hier besonders gut perfomen, gell?


Nein, weil man das auch spielen kann. Ein hoher 3dmark-Wert bringt im Endeffekt gar nichts.


Auch die G80 karten sind in Carbon nicht wirklich leistungsfähig, wenn man die Ergebnisse mit anderen Spielen vergleicht.

Beispiel? Sofern die Grafikkarte limitiert, ist eine 8800GTX dort AFAIK gut 2x schneller als eine X1950XTX, was ungefähr den Durchschnitt entspricht.

Gast
2007-04-19, 17:52:13
Nein, weil man das auch spielen kann. Ein hoher 3dmark-Wert bringt im Endeffekt gar nichts.

Ich habe den 3DMark2006 öfters ausgeführt als Carbon gespielt. Warum sollte also der Carbonwert mehr Aussagekraft haben?
Es ist auch nur eine Anwendung wie der 3DMark2006.

Beispiel? Sofern die Grafikkarte limitiert, ist eine 8800GTX dort AFAIK gut 2x schneller als eine X1950XTX, was ungefähr den Durchschnitt entspricht.[/QUOTE]

http://www.hardware.fr/articles/644-21/nvidia-geforce-8800-gtx-8800-gts.html
Mit AA und "HDR" sind es gerade 40%. Eine GTS läuft gar nur auf dem Niveau. Carbon ist daher nur eine Anwendung, die wohl stark von Vec(4/5) Einheiten profitiert, da die Entwicklerumgebung die Xbox 360 war.

reunion
2007-04-19, 17:59:36
Ich habe den 3DMark2006 öfters ausgeführt als Carbon gespielt. Warum sollte also der Carbonwert mehr Aussagekraft haben?
Es ist auch nur eine Anwendung wie der 3DMark2006.


Inwiefern ist jetzt relevant, was du öfter ausgeführt hast? NFS:Carbon ist ein Spiel (welches im übrigen mit guten Verkaufszahlen punkten kann), wodurch man einen Mehrwert erhält, wenn eine Grafikkarte dort gut performt, sofern man das Spiel besitzt. Von einem hohen 3dmark-Wert habe ich nichts.

Dass beide Anwendungen natürlich keine Allgemeingültigkeit besitzen, habe ich ja weiter hinter schon erwähnt.


http://www.hardware.fr/articles/644-21/nvidia-geforce-8800-gtx-8800-gts.html
Mit AA und "HDR" sind es gerade 40%. Eine GTS läuft gar nur auf dem Niveau. Carbon ist daher nur eine Anwendung, die wohl stark von Vec(4/5) Einheiten profitiert, da die Entwicklerumgebung die Xbox 360 war.

Okay, da hat mich in der Tat mein Gedächtnis getäuscht.

deekey777
2007-04-19, 18:00:36
Danke für den Hinweis, dann muss der Rv630 schon sehr viel mehr an arithmetischer Performance aufbringen muss.

mfg Nakai
Es können mehrere Sachen sind. Das erste wäre: Was wurde überhaupt gebencht?
Wurden gleiche Einstellungen verwendet? War das Spiel auf die neueste Version aktualisiert?
Es gibt zu viele Unbekannte, die selbst für eine Spekulation zu viel sind. Erst wenn Ergebnisse von einer Person kommen, wo man davon ausgehen kann, dass unter gleichen Einstellungen getestet wurde, dann kann man sich ein Bild über die Leistung bilden.

Gast
2007-04-19, 18:04:05
Inwiefern ist jetzt relevant, was du öfter ausgeführt hast? NFS:Carbon ist ein Spiel (welches im übrigen mit guten Verkaufszahlen punkten kann), wodurch man einen Mehrwert erhält, wenn eine Grafikkarte dort gut performt, sofern man das Spiel besitzt. Von einem hohen 3dmark-Wert habe ich nichts.


Weil du einfach selektiv handelst.
Ein Carbon hat keine bessere Aussagekraft als der 3DMark Wert. Nur weil man Carbon spielen kann, ist es nichts besseres.

AnarchX
2007-04-19, 18:13:48
Die vorherigen Carbon-Werte waren mit der High Einstellung, nun Maximum 1280x1024 :

8600gts fw158.17, e6700 (PCINLIFE Admin):
42 FPS

HD 2600XT, beta driver, e6600:
46 FPS

Gast
2007-04-19, 18:15:35
Weniger als 10% in einem Spiel, welches die traditionellere Architektur bevorzugt.
Das ist jetzt weniger berauschend, da die X1950pro in Carbon ca. 35% schneller ist.

reunion
2007-04-19, 18:22:29
Die vorherigen Carbon-Werte waren mit der High Einstellung, nun Maximum 1280x1024 :

8600gts fw158.17, e6700 (PCINLIFE Admin):
42 FPS

HD 2600XT, beta driver, e6600:
46 FPS

Quelle?

Damit muss einer der beiden Werte BS sein. Denn eine übertaktete 8600GTS mit einem 3.6Ghz C2D auf "High"-Einstellungen kann nicht dieselben fps erreichen wie eine auf Standardtakt laufende 8600GTS mit einem E6700(auf Standardtakt?) und "Maximum"-Einstellungen.

AnarchX
2007-04-19, 18:28:47
Damit muss einer der beiden Werte BS sein. Denn eine übertaktete 8600GTS mit einem 3.6Ghz C2D auf "High"-Einstellungen kann nicht dieselben fps erreichen wie eine auf Standardtakt laufende 8600GTS mit einem E6700(auf Standardtakt?) und "Maximum"-Einstellungen.

Anderere Treiber?

Weitere HD 2600XT Werte gibt es heute nicht mehr, da der Besitzer nun schlafen geht.

Quelle?
Natürlich der Thread bei PCinlife. ;)

deekey777
2007-04-19, 18:37:29
Weiß eigentlich schon jemand, wie man die spekulierten VEC4+1-Alus aufteilen können wird? Nur 4:1 oder sind auch 2:2:1 und 3:1:1 denkbar?
Also 2:2(:1) wäre denkbar, weil Vec2 in Kommen sei (für die Texturkoordinaten).
Bringt 3:1(:1) überhaupt was, wenn wir schon ein Dual-Issue (4+1) hätten?

reunion
2007-04-19, 18:38:05
Weil du einfach selektiv handelst.
Ein Carbon hat keine bessere Aussagekraft als der 3DMark Wert. Nur weil man Carbon spielen kann, ist es nichts besseres.

Das hat nichts mit selektiv handeln zu tun. Beide Anwendungen können natürlich nichts oder nur sehr begrenzt etwas im Bezug auf andere Anwendungen aussagen. Aber das sage ich nun schon das dritte mal. Nur ist der 3dmark eben nur ein Benchmark. Ist ja schön, wenn dir das ein "Glücksgefühl" bietet, wenn du viele Punkte im 3dmark hast, bei mir ist das jedenfalls nicht so.

[MK2]Mythos
2007-04-19, 19:34:00
Mal wieder was vom Inq:
"Sound and physics are the buzzwords for AMD's R600"
http://uk.theinquirer.net/?article=39042
Eventuell verbirgt sich hinter dem R600 doch ein bißchen mehr als eine GPU mit HDCP-Confirm-Realtek-Sound-Durschschleife...?

dargo
2007-04-19, 19:37:14
Nur ist das ganz klar die XT-Platine, da die anderen wesentlich kürzer sind. Und wenn selbst die ohne ext. Stromanschluss auskommt, deutet das schonmal auf einen sehr niedrigen Stromverbauch hin.
Dann gibts dafür nur eine Erklärung. Die momentanen unbestätigten TDP Angaben zum RV630 sind Blödsinn, oder beziehen sich auf einen ursprünglich geplanten RV630 in 80nm.

dargo
2007-04-19, 19:52:43
http://www.hardware.fr/articles/644-21/nvidia-geforce-8800-gtx-8800-gts.html
Mit AA und "HDR" sind es gerade 40%. Eine GTS läuft gar nur auf dem Niveau. Carbon ist daher nur eine Anwendung, die wohl stark von Vec(4/5) Einheiten profitiert, da die Entwicklerumgebung die Xbox 360 war.
Und jetzt erkläre mir bitte wie die den G71 mit HDR+FSAA getestet haben? ;)
Carbon nutzt überhaupt kein HDR. Würde es HDR nutzen würdest du auch bei der G8800GTX nahezu 100% mehr im Vergleich zum R580 sehen.

Noch lustiger finde ich den G80 Treiber - ForceWare 96.94. :tongue:
Wenn, dann bitte FW 158.19 gegen Catalyst 7.4 testen. Alles andere macht momentan wenig Sinn. Gerade weil der G80 noch "frisch" ist.

Jackyl
2007-04-19, 20:34:25
Wurde diese Bilder einer angeblichen Retailversion eigendlich schon gepostet?
http://www.overclockers.ru/hardnews/25116.shtml

Nakai
2007-04-19, 21:20:34
Ja.^^

mfg Nakai

horn 12
2007-04-19, 21:28:18
Nakai, Neuigkeiten zum Lauch oder Techday.
Kommen definitiv Infos von A/A zum R600 am Techday an Licht oder doch wie immer behauptet unter NDA?
Ist dies mit dem Hardlauch der XT und XL am 14. Mai nun 100 Pro sicher oder kann es gar früher werden?

Nakai
2007-04-19, 21:29:47
Zur Zeit läuft alles nach Plan, ich hab da ne Bestätigung erhalten. ;)

mfg Nakai

Knacki99
2007-04-19, 21:33:44
Hmm alles gut und schön aber was ist mit der 1GB XTX???

Das ist die einzige Karte des Lineup die für mich in Frage käme. "TBD" finde ich nicht wirklich befriedigend...

Gast
2007-04-19, 21:34:42
Dann gibts dafür nur eine Erklärung. Die momentanen unbestätigten TDP Angaben zum RV630 sind Blödsinn, oder beziehen sich auf einen ursprünglich geplanten RV630 in 80nm.
Der jetzige R630 ist doch in 65 nm, oder? Es wäre doch eine Enttäuschung, wenn er ungefähr die Leistung wie eine X1900GT hat und eine TDP größer 70 Watt hätte. Da wäre ja trotz D3D10 Features überhaupt kein technischer Fortschritt erkennbar. ATi scheint in der Mainstreamklasse eindeutig das komplettere und bessere Pferd als nV im Stall zu haben. Da könnte nV das Nachsehen haben, während hingegen ATi höchstwahrscheinlich beim High End das Nachsehen hat bzw. den Rückstand in dieser Saison nicht mehr aufholen kann.

Nakai
2007-04-19, 22:13:12
ATI hat wohl kapiert das der 65Nm für DX10 und dessen Features besser ist. Es wird kein halber R600, aber auch kein viertelter.

ATi höchstwahrscheinlich beim High End das Nachsehen hat bzw

Die Karten werden neu gemischt, wenn NV kein besseres Zugpferd liefert, muss es ATI auch nicht.


mfg Nakai

Gast
2007-04-19, 22:16:32
ATI hat wohl kapiert das der 65Nm für DX10 und dessen Features besser ist.

Aha. Sowie der 80nm Prozeß für den r600?


Die Karten werden neu gemischt, wenn NV kein besseres Zugpferd liefert, muss es ATI auch nicht.


Seit wann hat AMD ein Zugpferd, welches besser als die 8800GTX ist?

Gast
2007-04-19, 22:22:57
Die Karten werden neu gemischt, wenn NV kein besseres Zugpferd liefert, muss es ATI auch nicht.


mfg Nakai
Ich meinte damit, dass der R600 das Ruder wahrscheinlich nicht mehr herumreißen kann, da er nicht wesentlich besser ist, um 8800GTX Besitzer zum Umsteigen zu animieren. Trotzdem ist es auch wichtig, dass ATi jetzt langsam mit dem R630 in die Pötte kommt, bevor nV auch noch den Markt mit seinen Mainstreamkarten zum Großteil "befriedigt".

Ailuros
2007-04-19, 23:12:11
Alle Spiele der NFS Serie die das bloede motion-trail (ich will motion blur heissen) haben, laufen mit dem Mist eingeschaltet um einiges besser auf Radeons und das nicht nur bei Carbon.

Es waere interessant wenn jemand die Leistung einer Radeon messen wuerde einmal mit motion trail an und einmal aus, damit man sehen kann wie der Unterschied genau aussieht.

In welcher Aufloesung hat der Herr eigentlich Carbon gemessen? Mit oder ohne AA?

Zurueck zum Thema: AMD's Treibpferd wird fuer das high end Segment die 2900XT sein. Mehr oder weniger auf 8800GTX Nivaeu aber mit einem um einiges niedrigeren Preis als das was die letztere momentan kostet. In dem Fall wird es dann wohl eher zu einer Preis-Schlacht zwischen den beiden.

Das nach allen Indizien eher seltene ultra high end Modell wird spaeter kommen und wird auch um einiges mehr als die XT kosten. Ein teures Presse-Benchmark-Dingsbums hingegen wohl NV wahrscheinlich doch eine eher bloedsinnige GPU mit einem noch hoeheren Preis hingegenstellt. Keine Ahnung ob die angeblichen fast $1000 hier fuer das Ding stimmen, aber mit dem Zug hat NV ebenso einen Vogel wie ATI mit der XTX.

deekey777
2007-04-20, 00:00:46
Hier gibt's was zu NFSC: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5285677#post5285677

Winter[Raven]
2007-04-20, 07:50:05
Zurueck zum Thema: AMD's Treibpferd wird fuer das high end Segment die 2900XT sein. Mehr oder weniger auf 8800GTX Nivaeu aber mit einem um einiges niedrigeren Preis als das was die letztere momentan kostet. In dem Fall wird es dann wohl eher zu einer Preis-Schlacht zwischen den beiden.

Nvidia wird es sich leisten können, in den 6 Monate die durch AMD entstanden sind, hat sich NV eine goldene Nase verdient.

Gast
2007-04-20, 09:49:10
imho steht ati trotz 8800 noch immer sehr gut wenn nicht besser als nv da ;)

James Ryan
2007-04-20, 09:57:28
imho steht ati trotz 8800 noch immer sehr gut wenn nicht besser als nv da ;)

Und wie kannst du das begründen?

MfG :cool:

Anarchy-HWLUXX
2007-04-20, 10:07:00
Und wie kannst du das begründen?

MfG :cool:

Realitätsverlust wär ne idee :ulol3:

Gast
2007-04-20, 10:25:36
Realitätsverlust wär ne idee :ulol3:

Oder ein Problem mit den G80 Treibern...

Winter[Raven]
2007-04-20, 10:30:06
imho steht ati trotz 8800 noch immer sehr gut wenn nicht besser als nv da ;)

Wenn du schon was postest, dann bitte im Zusammenhang, und nicht ein Satz stehen lassen...

Warum steht ATI besser da?

Gast
2007-04-20, 10:59:36
Oder ein Problem mit den G80 Treibern...

welches Problem? Habe eine 8800 seit Release und konnte bisher jedes Game (was ich als brauchbar erachtet habe) ohne Probleme spielen. Das soll natürlich nicht heissen, dass nVidia keine Treiber-Probleme hat aber sie haben bestimmt nicht enorm mehr als ATi auch.

AnarchX
2007-04-20, 11:17:16
HD 2600XT
http://img243.imageshack.us/img243/3150/cimg0612qf1nq8.jpg (http://imageshack.us)

James Ryan
2007-04-20, 11:21:51
Wow, danke für das Bild!
Die Karte sieht gut aus, vor allem hat sie keinen Stromstecker?! :eek:
Macht sich hier die 65nm doch so deutlich bemerkbar?

MfG :cool:

themk
2007-04-20, 11:21:56
Ist das nicht n Video-Chip?

deekey777
2007-04-20, 11:30:09
Ist das nicht n Video-Chip?
Theater 200.

Anarchy-HWLUXX
2007-04-20, 11:45:49
Wow, danke für das Bild!
Die Karte sieht gut aus, vor allem hat sie keinen Stromstecker?! :eek:
Macht sich hier die 65nm doch so deutlich bemerkbar?

MfG :cool:


Nur bei den kleinen Versionen ...

Schau mal HIER : http://pics.computerbase.de/1/7/8/0/3/1.jpg

Das gleiche PCB - diesmal ist aba der 6pin auch wirklich aufgelötet ... am oberen Rand ist die PCB Bezeichnung zu sehen, die mit 6pin hat ein "C" hinten dran ...

AnarchX
2007-04-20, 12:57:08
Nur bei den kleinen Versionen ...

Schau mal HIER : http://pics.computerbase.de/1/7/8/0/3/1.jpg

Das gleiche PCB - diesmal ist aba der 6pin auch wirklich aufgelötet ... am oberen Rand ist die PCB Bezeichnung zu sehen, die mit 6pin hat ein "C" hinten dran ...


Aber die Karten oben wird nunmal vom Catalyst als HD 2600XT indentifiziert, warum nun der Stromanschluss nicht mehr vorhanden ist kann viel Gründe haben:
-Fortschritte bei der Fertigung des RV630, niedrige Spannung möglich
-es gab wirklich einen 80nm RV630, für den die 128W TDP galt und das Sample auf der Cebit mit Stromanschluss und Dualslot-Kühler verwendete noch dessen Design
-nachdem G84 sich nur als 1/4 G80 herausgestellt hat, schwächte man den RV630 etwas ab, wodurch man am Kühler und PCB spart
...

seahawk
2007-04-20, 13:02:13
Das heißt nix, ne 9700 wurde auch immer als PRO angezeigt

AnarchX
2007-04-20, 13:05:30
Das heißt nix, ne 9700 wurde auch immer als PRO angezeigt

Und wird auch eine X1600Pro als X1600XT angezeigt? :rolleyes:
Zudem hat die Karte nunmal GDDR4 -> XT. ;)

Für die "kleinen" RV630 Karten gibt es übrigens noch ein anderes PCB:
http://img100.imageshack.us/img100/2499/imgp5541ii2.jpg (http://imageshack.us)

seahawk
2007-04-20, 13:15:38
Hast ja recht. Da fragt man sich warum sie auf den Stromanschluss verzichten. Evtl. im Angesicht des schwächlichen G84 etwas am Takt reduziert ?

Oder evtl. ist der Stromanschluss optional.

Ich habe das Gefühl, dass der RV630 ne richtig gute Karte wird.

Gast
2007-04-20, 13:19:25
Theater 200.
Nein, der steinalte Rage Theatre.

Coda
2007-04-20, 13:34:32
Wow, danke für das Bild!
Die Karte sieht gut aus, vor allem hat sie keinen Stromstecker?! :eek:
Macht sich hier die 65nm doch so deutlich bemerkbar?
Irgendwie ist es mir sehr Suspekt, dass eine Karte mit ~700 Mio. Transistoren und GDDR4(3?) Speicher <75W verbrauchen soll. Nicht, dass es nicht möglich wäre. Evtl. bringen die Digitalen Spannungswandler ja was, weil sie einen besseren Wirkungsgrad haben.

Dennoch würde ich auch hier erstmal abwarten was nachher wirklich im Laden steht.

AnarchX
2007-04-20, 13:36:21
Irgendwie ist es mir sehr Suspekt, dass eine Karte mit ~700 Mio. Transistoren und GDDR4(3?) Speicher <75W verbrauchen soll. Nicht, dass es nicht möglich wäre. Evtl. bringen die Digitalen Spannungswandler ja was, weil sie einen besseren Wirkungsgrad haben.

Dennoch würde ich auch hier erstmal abwarten was nachher wirklich im Laden steht.

:|
Das ist doch eine HD 2600XT.

Anarchy-HWLUXX
2007-04-20, 13:38:30
:|
Das ist doch eine HD 2600XT.

na ja, die PCBs schaun sich doch sehr ähnlich - kann man schomal verwechseln ... bis auf die tatsache das die R600 je 8 RAM chips pro seite hat ;)

Moralelastix
2007-04-20, 13:44:27
Na bei diesem "Endloslaunch" kann man ja auch mal die Übersicht verlieren.;D

Odal
2007-04-20, 14:04:19
dann könnte die story das sich der R600 launch verschiebt wegen fertigungsproblemen ja doch stimmen....

es gab schon den R600 ableger X2600XT in 80nm welche aber vermutlich zu teuer zu fertigen war für mainstream und AMD bringt dann gleich die neuauflage in 65nm welche billiger zu fertigen ist und eben diesen kleinen vorteil bietet extrem wenig strom aufzunehmen so daß man ohne stromstecker auskommt und die pcie spezifizierte stromaufnahme genügt

Coda
2007-04-20, 14:08:37
Das ist doch eine HD 2600XT.
Ups. Na dann :)

Gast
2007-04-20, 14:39:45
na ja, die PCBs schaun sich doch sehr ähnlich - kann man schomal verwechseln ... bis auf die tatsache das die R600 je 8 RAM chips pro seite hat ;)
Liegt daran, dass das PCB für so ne Mainstreamkarte schon recht imposant ist. Da kann man schnell denken, dass es sich um das Spitzenmodell dreht. Btw, ist eigentlich auch eine R630 XT Version mit 512 Vram geplant bzw. technisch möglich?

deekey777
2007-04-20, 15:07:36
Nein, der steinalte Rage Theatre.
Wie kommst du darauf?

Gast
2007-04-20, 15:13:46
Wie kommst du darauf?
Form

Der Theatre 200 ist kleiner und quadratisch.

Gast
2007-04-20, 15:14:58
Hier siehst, das es ein Rage Theatre sein muss:
http://pics.computerbase.de/1/7/8/0/3/1.jpg

dargo
2007-04-20, 15:18:15
-es gab wirklich einen 80nm RV630, für den die 128W TDP galt und das Sample auf der Cebit mit Stromanschluss und Dualslot-Kühler verwendete noch dessen Design

Das erscheint mir am plausibelsten. Wobei sich diese 128W damals auf die XTX bezogen haben, oder?

AnarchX
2007-04-20, 15:20:10
Das erscheint mir am plausibelsten. Wobei sich diese 128W damals auf die XTX bezogen haben, oder?

XTX? Diese Bezeichnung gibt es wie auch NVs "GTX" nur beim höchsten High-End-Modell.

dargo
2007-04-20, 15:22:11
XTX? Diese Bezeichnung gibt es wie auch NVs "GTX" nur beim höchsten High-End-Modell.
Sollte es nicht eine X2600 XL/XT und XTX geben? Verwechsle ich hier was?

Edit:
Ich habe das noch so in Erinnerung:

X2600XL = <75W TDP
X2600XT = <93W TDP
X2600XTX = <128W TDP

Oder war es:
X2600GT = <75W TDP
X2600XL = <93W TDP
X2600XT = >128W TDP

:uponder:

Wobei sich die TDP Angaben wirklich nur auf einen RV630 in 80nm bezogen haben müßten.

AnarchX
2007-04-20, 15:25:59
Sollte es nicht eine X2600 XL/XT und XTX geben? Verwechsle ich hier was?

Ich denke schon, XTX und XL sind Kürzel des High-End-Segments.
Wenn dann kommt eine HD 2600XT, 2600Pro und vielleicht noch eine 2600SE(und in Asien vielleicht ein 2600GT ;)).

Hier sind übrigens die alten Fakten zu den RV630 und RV610 Modellen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5322104&highlight=Dailytech#post5322104

dargo
2007-04-20, 15:31:05
Hier sind übrigens die alten Fakten zu den RV630 und RV610 Modellen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5322104&highlight=Dailytech#post5322104
Ja, genau. Das meinte ich. Da gabs aber überhaupt noch keine Bezeichnung (zb. @X2600XT) für den RV630. X-D

Edit:
Das bringt mich auf eine Idee. Wenn die ursprünglichen ~128W TDP der HD 2600XT (nehmen wir mal an in 80nm) gestimmt haben könnte man davon ausgehen, dass AMD bei dem späteren R6x0 in 65nm die TDP nahezu halbieren kann? Das wäre ja der Wahnsinn. Nur 100-120W TDP für einen R680(?). :eek:

reunion
2007-04-20, 15:35:55
HD 2600XT
http://img243.imageshack.us/img243/3150/cimg0612qf1nq8.jpg (http://imageshack.us)

Sehr nett. Kein Stromanschluss, damit weniger Stromverbrauch wie eine ohnehin schon sparsame 8600GTS. Und ein sehr kleiner Die - selbst die GDDR4-Bausteine sind größer.

dann könnte die story das sich der R600 launch verschiebt wegen fertigungsproblemen ja doch stimmen....

es gab schon den R600 ableger X2600XT in 80nm welche aber vermutlich zu teuer zu fertigen war für mainstream und AMD bringt dann gleich die neuauflage in 65nm welche billiger zu fertigen ist und eben diesen kleinen vorteil bietet extrem wenig strom aufzunehmen so daß man ohne stromstecker auskommt und die pcie spezifizierte stromaufnahme genügt

Es wurde schon vor Monaten von Digitimes behauptet, dass RV610/RV630 die ersten Tapeouts noch in 80nm hatten. Deshalb vermutlich auch die sehr kleinen Dies in 65nm.

Gast
2007-04-20, 15:38:36
Sehr nett. Kein Stromanschluss, damit weniger Stromverbrauch wie eine ohnehin schon sparsame 8600GTS.

Und wodran machst du fest, dass die Karte sparsamer als die 8600GTS ist?
nVidia ist bekannt, dass sie mit den Stromanschlüßen nicht geizig sind und somit nicht als Indikator für den Stromverbrauch anwendbar sind.

reunion
2007-04-20, 15:40:23
Und wodran machst du fest, dass die Karte sparsamer als die 8600GTS ist?
nVidia ist bekannt, dass sie mit den Stromanschlüßen nicht geizig sind und somit nicht als Indikator für den Stromverbrauch anwendbar sind.

Achja? Seit wann das denn? Niemand verbaut einen Stromanschluss, wenn dieser überflüssig ist.

James Ryan
2007-04-20, 15:42:42
Achja? Seit wann das denn? Niemand verbaut einen Stromanschluss, wenn dieser überflüssig ist.

Naja, es gab sogar Gf 3 Karten mit Stromanschluss, und die waren nun wirklich nutzlos. ;)

MfG :cool:

Gast
2007-04-20, 15:43:16
Achja? Seit wann das denn? Niemand verbaut einen Stromanschluss, wenn dieser überflüssig ist.

7900GS/GT, 8800GTX haben alle einen Stromanschluss zu viel.
Wer sagt, dass der Anschluss nicht als Sicherheit gilt, um den Störfaktor Mainboard nicht zu haben?
Das du ihn als Indikator hälst, liegt an deiner ATi nähe. Nach Messungen von Xbitlabs verbraucht die 8600GTS im 3D Modus ca. 47 Watt. Da bräuchte man kieinen Stromanschluss, wenn der PCI-E schon 75 Watt liefert.

dargo
2007-04-20, 15:44:53
Naja, es gab sogar Gf 3 Karten mit Stromanschluss, und die waren nun wirklich nutzlos. ;)

Es gab auch eine X800XL PCIe die bei ~50W real lag. Trotzdem hatte sie einem externen Stromanschluss. Anscheinend war die TDP irgendwo in der Nähe der 75W. Wie hoch ist die TDP nochmal der G8600GTS?

reunion
2007-04-20, 15:45:01
Naja, es gab sogar Gf 3 Karten mit Stromanschluss, und die waren nun wirklich nutzlos. ;)

MfG :cool:

Meine GF3 hatte keinen Stromanschluss. Nichtmal eine GF4 hatte einen AFAIK. Ja, soetwas wäre nutzlos, allerdings war das auch nicht die Regel wie bei der 8600GTS, die ohne ext. Strom vermutlich nur fiept beim starten.

laser114
2007-04-20, 15:46:46
Laut einem User auf Planet3DNow soll AMD auf diesem Webcast (http://phx.corporate-ir.net/phoenix.zhtml?p=irol-eventDetails&c=74093&eventID=1505717) (Thema: Bilanz des 1. Quartals 2007, Dauer: 1 Stunde, englisch) gesagt haben, das mitte Mai 2007 zehn verschiedene Modelle auf R6xx-Basis gelauncht werden.

Ich sehe aber wenig auf den Newsseiten ... wenn jemand mal Interesse hat reinzuhören, bitte. ;)

dargo
2007-04-20, 15:48:04
7900GS/GT, 8800GTX haben alle einen Stromanschluss zu viel.

Bitte?
Eine G8800GTX hat eine TDP von 177W (manche gehen von 185W aus). Dafür sind zwei externe 6Pin Stromanschlüße Pflicht. Eine G7900GT liegt real bei ~49W. Die TDP könnte also durchaus bei ~75W liegen (oder zumindest in der Nähe).

James Ryan
2007-04-20, 15:51:13
Meine GF3 hatte keinen Stromanschluss. Nichtmal eine GF4 hatte einen AFAIK. Ja, soetwas wäre nutzlos, allerdings war das auch nicht die Regel wie bei der 8600GTS, die ohne ext. Strom vermutlich nur fiept beim starten.

Doch, es gab von einer Firma (irgendwas asiatisches, ka) Gf 3 Karten mit Stromanschluss!

MfG :cool:

Gast
2007-04-20, 15:51:28
Bitte?
Eine G8800GTX hat eine TDP von 177W (manche gehen von 185W aus).

Genau darum geht es. Da wir hier zwei unterschiedliche Fiormen haben, werde diese unterschiedliche TDP Grenzen festlegen.
Nvidia ist in diesen Sachen sehr pessimistisch, ATi war anscheinend eher mehr realisitsch.
Ein Stromanschluss hat daher kaum eine Relevanz, ob eine Karte mehr Strom oder weniger Strom aufnimmt.


Dafür sind zwei externe 6Pin Stromanschlüße Pflicht. Eine G7900GT liegt real bei ~49W. Die TDP könnte also durchaus bei ~75W liegen (oder zumindest in der Nähe).

Seit wann benötigt man für eine theoretische Zahl zwei physikalische Stromanschlüsse?

reunion
2007-04-20, 15:53:55
7900GS/GT, 8800GTX haben alle einen Stromanschluss zu viel.
Wer sagt, dass der Anschluss nicht als Sicherheit gilt, um den Störfaktor Mainboard nicht zu haben?
Das du ihn als Indikator hälst, liegt an deiner ATi nähe. Nach Messungen von Xbitlabs verbraucht die 8600GTS im 3D Modus ca. 47 Watt. Da bräuchte man kieinen Stromanschluss, wenn der PCI-E schon 75 Watt liefert.

Im Grunde hat dargo schon alles wesentliche dazu gesagt. Was ich noch ergänzen möchte, ist, dass du hoffentlich nicht so naiv bist, zu glauben, dass der 3dmark, den xbitlabs verwendet, dafür sorgt, dass sämtliche Einheiten einer 8600GTS ständig zu 100% ausgelastet sind. Dass man die TDP nur unter Laborbedingungen erreicht, sollte klar sein.

Doch, es gab von einer Firma (irgendwas asiatisches, ka) Gf 3 Karten mit Stromanschluss!

MfG :cool:

Das habe ich auch nicht bestritten.

Gast
2007-04-20, 15:56:56
Dann müsste nach deiner Meinung eine X1650XT weniger Strom verbrauchen als eine 7900gs? Zweite hat nämlich einen zusätzlichen Stromanschluss, erste nicht.
Und laut Xbitlabs, Computerbase und Techreport verbraucht die 7900GS immer weniger Strom.
Also entweder irrst du ("Niemand verbaut einen Stromanschluss, wenn dieser überflüssig ist.") oder diese drei Seiten haben alle falsche Ergenisse gemessen.

reunion
2007-04-20, 15:57:21
Genau darum geht es. Da wir hier zwei unterschiedliche Fiormen haben, werde diese unterschiedliche TDP Grenzen festlegen.
Nvidia ist in diesen Sachen sehr pessimistisch, ATi war anscheinend eher mehr realisitsch.
Ein Stromanschluss hat daher kaum eine Relevanz, ob eine Karte mehr Strom oder weniger Strom aufnimmt.

Hast du dir das jetzt aus den Fingern gesaugt? Es gibt kein Indiz dafür, dass ATi hier näher an die Grenzen geht als Nv. Wie Dargo schon sagte: "Es gab auch eine X800XL PCIe die bei ~50W real lag. Trotzdem hatte sie einem externen Stromanschluss."

dargo
2007-04-20, 15:58:25
Seit wann benötigt man für eine theoretische Zahl zwei physikalische Stromanschlüsse?
Was macht dich so sicher, dass dies nur eine theoretische Zahl ist? Intel gibt einem C2D eine TDP von 65W. In diversen Tests (meistens mit Dualprime95) wurden real ~45W gemessen. Mit dem Tool "TAT" ist aber die CPU Temperatur um ca. 6°C höher als bei DualPrime95.

Ich hoffe du verstehst was ich damit sagen will. Die 177-185W einer G8800GTX bekommt man sicherlich auch real mit entsprechender Software zu sehen. Dass, man da dran in Games nicht kommt ist eine andere Geschichte.

Was ich noch ergänzen möchte, ist, dass du hoffentlich nicht so naiv bist, zu glauben, dass der 3dmark, den xbitlabs verwendet, dafür sorgt, dass sämtliche Einheiten einer 8600GTS ständig zu 100% ausgelastet sind. Dass man die TDP nur unter Laborbedingungen erreicht, sollte klar sein.

Genau so sieht es aus.

reunion
2007-04-20, 15:59:03
Dann müsste nach deiner Meinung eine X1650XT weniger Strom verbrauchen als eine 7900gs? Zweite hat nämlich einen zusätzlichen Stromanschluss, erste nicht.
Und laut Xbitlabs, Computerbase und Techreport verbraucht die 7900GS immer weniger Strom.
Also entweder irrst du ("Niemand verbaut einen Stromanschluss, wenn dieser überflüssig ist.") oder diese drei Seiten haben alle falsche Ergenisse gemessen.

Das sind doch nur Überbleibsel der höheren Modellen, die dasselbe PCB verwendeten, und auch eine ext. Stromanschluss benötigten. Vermutlich ist das PCB so designet, dass ein Großteil über den ext. Stromanschluss fließen soll. Logisch, dass man hier nicht extra ein neues PCB entwickelt. Das ist bei der 8600GTS aber nicht der Fall. Aber das war jetzt genug OT.

seahawk
2007-04-20, 16:00:41
Es ist sogar denkbar, dass die OEM keine Stromanschlüsse hat und die Retail welche hat. Bei OEMs kann man sicherer sein, dass das Board annährend 75W PCie stabil iefern kann. Bei ersten PCie Platinene würde ich darauf nicht unbedingt wetten.

Gast
2007-04-20, 16:05:15
Das sind doch nur Überbleibsel der höheren Modellen, die dasselbe PCB verwendeten, und auch eine ext. Stromanschluss benötigten. Vermutlich ist das PCB so designet, dass ein Großteil über den ext. Stromanschluss fließen soll. Logisch, dass man hier nicht extra ein neues PCB entwickelt. Das ist bei der 8600GTS aber nicht der Fall. Aber das war jetzt genug OT.

Dann nehme die 7900GT. Diese hat auch einen Stromanschluss und verbraucht auf allen drei Seiten weniger Strom. Und deren Platine ist kein Überbleibsel der 7900GTX, wo man so argumentieren könnte.
Da ich meine These argumentiv dargelegt habe, kannst du gerne Beispiele finden, wo ein Stromanschluss immer ein Indikator für einen höhreren Stromverbrauch darstellt.

dargo
2007-04-20, 16:09:28
Dann nehme die 7900GT. Diese hat auch einen Stromanschluss und verbraucht auf allen drei Seiten weniger Strom. Und deren Platine ist kein Überbleibsel der 7900GTX, wo man so argumentieren könnte.

Nenne uns bitte erstmal die TDP einer G7900GT.

Gast
2007-04-20, 16:11:44
Dann nehme die 7900GT. Diese hat auch einen Stromanschluss und verbraucht auf allen drei Seiten weniger Strom. Und deren Platine ist kein Überbleibsel der 7900GTX, wo man so argumentieren könnte.
Da ich meine These argumentiv dargelegt habe, kannst du gerne Beispiele finden, wo ein Stromanschluss immer ein Indikator für einen höhreren Stromverbrauch darstellt.
Stromanschluss hin oder her, Fakt bleibt, dass die Karte in 65 nm kommt und nV bietet nur 80 nm an. Theoretisch müsste ATi dadurch Vorteile bzgl. des Verbrauches haben.

reunion
2007-04-20, 16:12:53
Dann nehme die 7900GT. Diese hat auch einen Stromanschluss und verbraucht auf allen drei Seiten weniger Strom.


Weniger Strom als was? Es gibt dutzende Karte, die im Alltagsbetrieb nicht über 75W kommen, aber trotzdem einen ext. Stromanschluss haben. Das macht deine Argumentation aber nicht plausibler. Siehe oben.


Da ich meine These argumentiv dargelegt habe, kannst du gerne Beispiele finden, wo ein Stromanschluss immer ein Indikator für einen höhreren Stromverbrauch darstellt.

Ein ext. Stromanschluss bedeutet, dass eine Karte über 75W verbrauchen kann, und dies zumindest unter Laborbedingungen auch erreicht wurde, kein ext. Stromanschluss bedeutet, dass die Karte mit absoluter Gewissheit nie über 75W verbrauchen wird. So einfach ist das. Deshalb ist ein ext. Stromanschluss sehr wohl ein Indikator für den Stromverbrauch, wenn auch natürlich nur ein grober.

Gast
2007-04-20, 16:14:52
Nenne uns bitte erstmal die TDP einer G7900GT.

[quote]The 7900 GT's thermal design power is only 80 watts[quote]
http://www.techreport.com/reviews/2006q1/geforce-7600-7900/index.x?pg=2

TDP Angabe von nVidia.

reunion
2007-04-20, 16:18:17
[quote]The 7900 GT's thermal design power is only 80 watts[quote]
http://www.techreport.com/reviews/2006q1/geforce-7600-7900/index.x?pg=2

TDP Angabe von nVidia.

Tja, deshalb der Stromanschluss.

Gast
2007-04-20, 16:19:20
Ein ext. Stromanschluss bedeutet, dass eine Karte über 75W verbrauchen kann, kein ext. Stromanschluss bedeutet, dass die Karte mit absoluter Gewissheit nie über 75W verbrauchen wird. So einfach ist das. Deshalb ist ein ext. Stromanschluss sehr wohl ein Indikator für den Stromverbrauch, wenn auch natürlich nur ein grober.
Dürften eigentlich nur um die 70 W TDP sein, eine gewisse Reserve muss ja noch vorhanden sein. Das würde bedeuten, dass die Karte bei durchschnittlichen Anwendungen vielleicht um die 60 W verbraucht mit einer Leistung einer X1900GT plus D3D10. Das wäre wirklich beeindruckend.

Gast
2007-04-20, 16:21:22
Von der selben Seite zur 7900GTX

NVIDIA estimates that this combo will require about 120W worth of cooling capacity.

Gast
2007-04-20, 16:22:19
Stromanschluss hin oder her, Fakt bleibt, dass die Karte in 65 nm kommt und nV bietet nur 80 nm an. Theoretisch müsste ATi dadurch Vorteile bzgl. des Verbrauches haben.Aber auch nur theoretisch. In der Praxis hat auch R520 mehr Strom als G70 verbraucht, obwohl er in einem neueren Prozess gefertigt wurde und die Transistorenanzahl fast gleich war.

reunion
2007-04-20, 16:25:49
Aber auch nur theoretisch. In der Praxis hat auch R520 mehr Strom als G70 verbraucht, obwohl er in einem neueren Prozess gefertigt wurde und die Transistorenanzahl fast gleich war.

Auch die Taktfrequenz fließt linear in die Verbrauchswerte mit ein. Und bei einer fast 50% höheren Taktfrequenz war das auch nicht verwunderlich.

Gast
2007-04-20, 16:26:59
Tja, deshalb der Stromanschluss.

Kann es sein, dass du mich verarschen willst?
Meine These lautet, dass nVidia die TDP Angabe zu pessimistisch wählt und dadurch einen zusätzlichen Stromanschluss anbringt.
EIn zusätzlicher Stromanschluss bedeutet aber nicht, dass die Karte mit diesen mehr Strom verbrauchen muss als eine Karte ohne.
Das einzige was du vorbringst, sind nur Thesen auf Thesen. In welcher Anwendung soll die 7900GTX 120W benötigen? Wenn es diese gäbe, bräuchte die X1900XTX mindesten zwei 6Pin Anschlüsse.
Aber lassen wir es: Ich habe Argumente, die jeder nachvollziehen kann. Und solange sehe ich deine These, dass die X2600XT weniger Strom benötigen werde, als falsch an.

reunion
2007-04-20, 16:31:38
Warum sollte nV einen Verbrauchswert angeben, der Blödsinn ist? Deine These ist ja toll, nur ist es eben nur eine These. Ist ja schön, dass du jetzt krampfhaft versuchst, irgendwie den Stromverbrauch der 8600GTS im Vergelich zur HD 2600XT künstlich zu drücken. Nur da ist meine Argumentation, dass eine Karte ohne ext. Stromanschluss weniger Strom verbrauchen wird als eine mit wesentlich nachvollziehbarer und logischer IMHO.

dargo
2007-04-20, 16:32:34
Dürften eigentlich nur um die 70 W TDP sein, eine gewisse Reserve muss ja noch vorhanden sein. Das würde bedeuten, dass die Karte bei durchschnittlichen Anwendungen vielleicht um die 60 W verbraucht mit einer Leistung einer X1900GT plus D3D10. Das wäre wirklich beeindruckend.
Ich würde mich nicht wundern wenn es real um die ~45-50W sind.

In welcher Anwendung soll die 7900GTX 120W benötigen? Wenn es diese gäbe, bräuchte die X1900XTX mindesten zwei 6Pin Anschlüsse.

Blödsinn. Wenn es so wäre bzw. die TDP bei >150W liegen würde hätte die X1900XTX auch zwei externe Stromanschlüße. In welcher Anwendung verbraucht eine G8800GTX 177-185W? ;)
Die Antwort ist relativ einfach, in keinem Game!

Gast
2007-04-20, 16:38:40
Warum sollte nV einen Verbrauchswert angeben, der Blödsinn ist? Deine These ist ja toll, nur ist es eben nur eine These. Ist ja schön, dass du jetzt krampfhaft versuchst, irgendwie den Stromverbrauch der 8600GTS im Vergelich zur HD 2600XT künstlich zu drücken. Nur da ist meine Argumentation, dass eine Karte ohne ext. Stromanschluss weniger Strom verbrauchen wird als eine mit wesentlich nachvollziehbarer IMHO.
Laut http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/39/#abschnitt_stromverbrauch
dürfte die Karte wirklich nicht viel verbrauchen. Ist zwar nur das Gesamtsystem betrachtet aber man hat die anderen Karten als Vergleich. Kommt auch immer drauf an, wo am meisten Strom entnommen wird, vielleicht bevorzugt nV lieber den Hauptanteil direkt vom Netzteil zu entnehmen und weniger das Mainboard zu belasten. Am Ende könnten beide Karten etwa gleich viel verbrauchen aber ich denke, R630XT wird dafür die bessere Performance bieten.

Gast
2007-04-20, 18:47:22
Warum sollte nV einen Verbrauchswert angeben, der Blödsinn ist?

Woher soll ich das wissen? Wer sagt dir, dass nVidia auf ihrem höchsten nicht nochmal 20% draufrechnen?

Deine These ist ja toll, nur ist es eben nur eine These.

Eine These, die mit Argumenten belegt und durch Beispiele gestützt wird.
Deine These schwebt immernoch im Raum und ist über den Status "Hypothese" nicht herausgekommen.

Ist ja schön, dass du jetzt krampfhaft versuchst, irgendwie den Stromverbrauch der 8600GTS im Vergelich zur HD 2600XT künstlich zu drücken.

Stelle mal deine Liebe zu ATi ab und lese nochmal. Ich habe nirgendwo den Verbrauch der 8600GTS "künstlich gedrückt".


Nur da ist meine Argumentation, dass eine Karte ohne ext. Stromanschluss weniger Strom verbrauchen wird als eine mit wesentlich nachvollziehbarer und logischer IMHO.

Dann müsste auch folgende Behauptung richtig sein: Die Erde ist eine Scheibe, da man nur auf einer "2D" Fläche gucken kann und der Fußboden nicht durchsichtig ist.
Genauso argumentierst du: Die Karte verbraucht weniger, weil sie keinen Stromanschluss hat. Natürlich ist dies plausible, wenn man keine weiteren Daten hat. Genauso wie das Beispiel mit der Erde auch richtig wäre.
Da es aber genug Gegenargumente für deine Behauptung gibt (Vergleich 7900GT und X1650XT), bist du derjenige, der "krampfhaft versuchst, irgendwie den Stromverbrauch der [XD 2600XT] im Vergelich zur [8600GTS] künstlich zu drücken."


Blödsinn. Wenn es so wäre bzw. die TDP bei >150W liegen würde hätte die X1900XTX auch zwei externe Stromanschlüße. In welcher Anwendung verbraucht eine G8800GTX 177-185W?

Wenn beide Karten von einem Hersteller kämen, der die gleichen Bedingungen an die Ermittlung der TDP setze, dann hätte die X1900XTX zwei 6PIN Stromanschlüsse.
Da wir aber zwei unterschiedliche Hersteller haben, die die TDP wahrscheinlich anders ermitteln, ist ein Vergleich jener nicht möglich.

reunion
2007-04-20, 19:29:01
Woher soll ich das wissen? Wer sagt dir, dass nVidia auf ihrem höchsten nicht nochmal 20% draufrechnen?


Weil das keinen Sinn ergibt?


Eine These, die mit Argumenten belegt und durch Beispiele gestützt wird.
Deine These schwebt immernoch im Raum und ist über den Status "Hypothese" nicht herausgekommen.

Dann müsste auch folgende Behauptung richtig sein: Die Erde ist eine Scheibe, da man nur auf einer "2D" Fläche gucken kann und der Fußboden nicht durchsichtig ist.
Genauso argumentierst du: Die Karte verbraucht weniger, weil sie keinen Stromanschluss hat. Natürlich ist dies plausible, wenn man keine weiteren Daten hat. Genauso wie das Beispiel mit der Erde auch richtig wäre.
Da es aber genug Gegenargumente für deine Behauptung gibt (Vergleich 7900GT und X1650XT), bist du derjenige, der "krampfhaft versuchst, irgendwie den Stromverbrauch der [XD 2600XT] im Vergelich zur [8600GTS] künstlich zu drücken."


Träum weiter. Es gibt nach aktuellen Stand der Dinge nur einen klaren Hinweis, was den Stromverbrauch der beiden Karten betrifft. Nämlich dass eine Karte einen ext. Stromanschluss benötigt, und eine nicht. Und du kommst jetzt mit irgendwelchen verdammt weit hergeholten Thesen, wonach nV (aus Spaß?) 20% "draufrechnet" und deshalb diesen Stromanschluss verbaut, der natürlich total sinnlos ist. Dann stellst du dich ernsthaft hin, und vergleichst diese plausiblen Argumentation mit irgendwelche Urgeschichtlichen Weltanschauungen, während deine Linie - laut dir - natürlich der Weisheit letzter Schluss ist. Sonts gehts dir aber schon noch gut?


Wenn beide Karten von einem Hersteller kämen, der die gleichen Bedingungen an die Ermittlung der TDP setze, dann hätte die X1900XTX zwei 6PIN Stromanschlüsse.


Du hast nicht mal in entferntesten die notwendigen Daten, um das auch nur abschätzen zu können.

Deine ständigen persönlichen Diffamierungen - die völlig überflüssig sind - erspare ich mir zu kommentieren, da so etwas ohnehin nur von Leuten kommt, die sich selbst alles andere als objektiv verhalten.

Gast
2007-04-20, 19:47:06
Weil das keinen Sinn ergibt?

Es macht für dich keinen Sinn. Das ist ein Unterschied.
Da wir nicht wissen wie nVidia ihre TDP Angabe ermittelt, ist es daher vollkommen unsinnig zu behaupten, dass der Stromanschluss unbedingt notwendig wäre.

Träum weiter. Es gibt nach aktuellen Stand der Dinge nur einen klaren Hinweis, was den Stromverbrauch der beiden Karten betrifft. Nämlich dass eine Karte einen ext. Stromanschluss benötigt, und eine nicht.

Und genau hier hörst du auf. Du gehst auf das Beispiel 7900GT und X1650XT in keinster Weise ein. Warum verbraucht die X1650XT in drei Vergleichen jeweils mehr Strom als die 7900GT - trotz eines nicht vorhandenen Stromanschlusses?

Und du kommst jetzt mit irgendwelchen verdammt weit hergeholten Thesen, wonach nV (aus Spaß?) 20% "draufrechnet" und deshalb diesen Stromanschluss verbaut, der natürlich total sinnlos ist. Dann stellst du dich ernsthaft hin, und vergleichst diese plausiblen Argumentation mit irgendwelche Urgeschichtlichen Weltanschauungen, während deine Linie - laut dir - natürlich der Weisheit letzter Schluss ist. Sonts gehts dir aber schon noch gut?

Ich habe eine Analogie als Gegenargument gebracht, um zu veranschaulichen, dass deine These richtig sein könnte - wenn keine anderen Faktoren herangezogen und heutige Kenntnisse ignoriert werden.

Du hast nicht mal in entferntesten die notwendigen Daten, um das auch nur abschätzen zu können.


Ich sehe an der Aussage nichts falches. Einerseits habe ich sie im Konjunktiv geschrieben (Möglichkeitsform), andererseits ist es die Wahrheit, dass die X1900XTX im 3D Modus in sehr vielen Vergleichen um die 40 Watt mehr benötigt. Wenn also die 7900GTX in einem Test an die 120 Watt gelange, dann dürfte die X1900XTX in die Nähe der 150 Watt heranreichen. Und da bleibt zur stabilen Versorgung nur ein zwei 6Pin Anschlüsse übrig.

horn 12
2007-04-20, 20:12:26
Eine HD 2900XL wird wohl die Performance zweier X1950 PRO (Dual X1950 Pro) Karten erreichen, und sogar etwas mehr.
Habe heute denn Bench der Dual gesehen, nicht schlecht wenn das die
R600 XL toppen kann!!

dargo
2007-04-20, 20:58:09
Eine HD 2900XL wird wohl die Performance zweier X1950 PRO (Dual X1950 Pro) Karten erreichen, und sogar etwas mehr.
Habe heute denn Bench der Dual gesehen, nicht schlecht wenn das die
R600 XL toppen kann!!
Die Dual X1950 Pro ist sowas von überflüßig. Erreicht in etwa das Niveau einer X1950XTX. Wer braucht dann eine Dual X1950 Pro mit mehr Stromverbrauch?

horn 12
2007-04-20, 21:04:12
Dies schon. Diese Karte hätte es Anfang des Jahres geben müssen, da nun ATI mit den R600 Karten auftritt, klar viel zu spät die Karte,- und der Preis zu hoch.
Hoffe das A/A mit der HD 2900 XL wirklich einen Kracher bringt, denn im P/L Verhältnis dürfte die Karte klar ein Favorit werden.

PCGH_Carsten ohne Keks
2007-04-20, 21:36:01
Um das Verwirrspiel mal zu beenden: Nvidia gibt offiziell 71 Watt (oder 73 - habs nicht mehr im Hinterkopf) als "Maximum Power Draw" des 8600 GTS-Boards an.

Wenn man nun bedenkt, dass die Hersteller wohl gern auch den Kunden das Übertakten ermöglichen würden oder aber 512 MByte einsetzen würden, erhält der Stromanschluss plötzlich eine Existenzberechtigung.

seahawk
2007-04-20, 21:38:02
Wäre auch ne Erklärung bei der 2600 - 256MB ohne, 512Mb mit

robbitop
2007-04-20, 22:34:35
Warum sollte nV einen Verbrauchswert angeben, der Blödsinn ist?
NV gibt immer einen etwas zu hohen Wert an. Vergleich mal die Stresstests von xbit mit den TDPs. Die Differenz ist nicht gerade klein.

Die TDP wird mit einem gewissen Sicherheitswert aufgerundet, damit die Reseller die Systeme mit grosszuegigen Netzteilen ausstatten, die Kuehlung grosszuegiger ausgelegt ist, die Spannungswandlung ect. Ausserdem gibt es eine gewisse Serienstreuung Das ist Standard im Ingenieurwesen.

reunion
2007-04-21, 09:05:47
Es macht für dich keinen Sinn. Das ist ein Unterschied.
Da wir nicht wissen wie nVidia ihre TDP Angabe ermittelt, ist es daher vollkommen unsinnig zu behaupten, dass der Stromanschluss unbedingt notwendig wäre.


Da halte ich es für wesentlich unsinniger, zu behaupten, dass man eine Stromanschluss verbaut, der nicht nötig ist. Wenn dieser wirklich unsinnig wäre, dann hätte man genauso wie bei den kleineren Modellen unter der 8600GTS darauf verzichtet. Aber warten wir doch einfach ab. Es wird sich ja bald zeigen, wie es dann wirklich aussieht.


Und genau hier hörst du auf. Du gehst auf das Beispiel 7900GT und X1650XT in keinster Weise ein. Warum verbraucht die X1650XT in drei Vergleichen jeweils mehr Strom als die 7900GT - trotz eines nicht vorhandenen Stromanschlusses?


Erstmal möchte ich anmerken, dass eine X1650XT nur minimal mehr verbraucht als eine 7900GT. Laut xbitlabs 48.4W vs. 55.2W - also 6.8W mehr für die X1650XT im 3dmark06. Desweiteren verbaut bsw. Asus auch auf der X1650XT eine ext. Stromanschluss, der Verbrauch dieser Karte dürfte also so ziemlich das Ende der Fahnenstange darstellen, was ohne Stromanschluss noch machbar ist. Warum jetzt trotzdem nur die 7900GT einen Stromanschluss benötigt, kann viele Gründe haben. Zum einen ist bekannt, dass ATi-Karten auch über die 3.3V-Leitung des PCIe-Slots Leistung ziehen, während nV hier AFAIK nichts beansprucht. Schon das könnte des Rätsels Lösung sein, und erklären, weshalb die 7900GT auf ext. Stromversorgung angewiesen ist: Da sie eben im Gegensatz zu X1650XT nur die 12V Leitung belastet. Mögliche andere Gründe könnten zB die unzureichende Auslastung durch den 3dmark06 sein.


Ich sehe an der Aussage nichts falches. Einerseits habe ich sie im Konjunktiv geschrieben (Möglichkeitsform), andererseits ist es die Wahrheit, dass die X1900XTX im 3D Modus in sehr vielen Vergleichen um die 40 Watt mehr benötigt. Wenn also die 7900GTX in einem Test an die 120 Watt gelange, dann dürfte die X1900XTX in die Nähe der 150 Watt heranreichen. Und da bleibt zur stabilen Versorgung nur ein zwei 6Pin Anschlüsse übrig.

Tja, und da sie nachweislich keinen zweiten 6-Pin Anschluss zur stabilen Versorgung benötigt, ist dein Schluss offensichtlich falsch. Wie schon gesagt, du kannst nicht beurteilen, wie sich die Chips bei 100%iger Auslastung unter Laborbedingungen tatsächlich verhalten. Vielleicht erreicht die X1950XTX eine bessere Auslastung der Einheiten und benötigt deshalb selbst in Extremsituationen nicht viel mehr Strom als im 3dmerk06.

NV gibt immer einen etwas zu hohen Wert an. Vergleich mal die Stresstests von xbit mit den TDPs. Die Differenz ist nicht gerade klein.

Die TDP wird mit einem gewissen Sicherheitswert aufgerundet, damit die Reseller die Systeme mit grosszuegigen Netzteilen ausstatten, die Kuehlung grosszuegiger ausgelegt ist, die Spannungswandlung ect. Ausserdem gibt es eine gewisse Serienstreuung Das ist Standard im Ingenieurwesen.

Schon klar, nur sollte das nicht nur für nV gelten.

robbitop
2007-04-21, 09:13:32
Schon klar, nur sollte das nicht nur für nV gelten.
Das gilt fuer alle ASIC Hersteller. Eigentlich fuer alle Ingenieursleistungen auf der Welt.

AnarchX
2007-04-21, 12:58:40
ATI Radeon HD X2600XT benchmarks (http://hdtvsg.blogspot.com/)
We got hold of an early sample of the RV630. The benchmark numbers are encouraging as it beats the hell out of the 8600GTS.

Here are some early results using X6800 processor with 2GB of DDR2-800.

3Dmark06

Radeon HD 2600XT - 5760 marks
GeForce 8600GTS - 5900 marks

3Dmark05

Radeon HD 2600XT - 11652 marks
GeForce 8600GTS - 11500 marks

FEAR (1600x1200)

Radeon HD 2600XT - 29 fps
GeForce 8600GTS - 29 fps

BvB123
2007-04-21, 13:28:38
Hoffentlich siehts in anderen Games besser aus :(

Gast
2007-04-21, 14:04:56
Hoffentlich siehts in anderen Games besser aus :(

wer so ein billige karte kauft,kann auch keine performance erwarten oder

Gast
2007-04-21, 14:11:20
Radeon HD 2600XT - 5760 marks
GeForce 8600GTS - 5900 marks

Oh mein Gott!!!!!! Hoffentlich performt die in Games und DX10 besser!

reunion
2007-04-21, 14:19:24
Die Ergebnisse erscheinen mir nicht authentisch. Dass die 8600GTS bei beiden 3dmarks eine Punkteanzahl erreicht, die auf eine Hunderterstelle genau passt, ist schon sehr unwahrscheinlich. Dann noch die exakt gleiche Framerate in FEAR. Und auch die 3dmark Ergebnisse sind beinahe ident - einmal ist die eine um ~150P vorne, und einmal die andere. IMO hat sich das jemand aus den Fingern gesaugt.

SavageX
2007-04-21, 14:20:27
Radeon HD 2600XT - 5760 marks
GeForce 8600GTS - 5900 marks

Oh mein Gott!!!!!! Hoffentlich performt die in Games und DX10 besser!

Wieso rufst Du bei 2-3% Unterschied im gleichen Marktsegment nach metaphysischem Beistand?

Gast
2007-04-21, 14:22:26
Das schöne ist ich hab kein Gott ;) Atheist
BTT

Coda
2007-04-21, 14:54:05
Könnte mal irgendjemand einen Spekulativer-Stromverbrauch-Bash-Thread eröffnen?

Das interessiert die allermeisten Benutzer nämlich im Endeffekt nicht die Bohne.

Gast
2007-04-21, 20:52:04
Wie der meiste Rest hier auch wird nur am Thema vorbeigeblubbert...

Fetza
2007-04-22, 00:36:09
Könnte mal irgendjemand einen Spekulativer-Stromverbrauch-Bash-Thread eröffnen?

Das interessiert die allermeisten Benutzer nämlich im Endeffekt nicht die Bohne.

Jo genau, ich find ehrlich gesagt auch, das man das gerede über die micker beschleuniger (r630) auslagern sollte. Wer hier im forum interessiert sich für beschnittene hardware?

greetz

Iwan
2007-04-22, 01:09:46
ich?
meine schmerzgrenze liegt bei 200€ alles darüber kan sich derjenige kaufen der zuviel geld hat...

Fetza
2007-04-22, 01:50:39
ich?
meine schmerzgrenze liegt bei 200€ alles darüber kan sich derjenige kaufen der zuviel geld hat...

ok, tschuldigung - so wars nicht gemeint.:redface:

Gast
2007-04-22, 02:02:36
ich?
meine schmerzgrenze liegt bei 200€ alles darüber kan sich derjenige kaufen der zuviel geld hat...

Was hält dich denn davon ab noch 50€ bzw. 2 Monate weiter zu sparen und was gescheites zu kaufen..... die "besseren" Midrange Produkte sind nunmal über 200€ angesiedelt und alles darunter ist ein Griff ins Klo für Gamer.

Lawmachine79
2007-04-22, 02:42:36
*Gähn* ich geb hier mal noch meinen Senf ab, bevor ich schlafen gehe - ich denke der Thread gehört mittlerweile auf die Spielwiese - die brauchen das Scheißding gar nicht mehr rauszubringen und sollen am R700 arbeiten - ich lach mich tot, die ersten G100 Spekuthreads sprießen aus dem Boden und ATI kriegt es nicht auf die Reihe, den R600 rauszuhauen. Wie dumm kann man denn sein? Ich betrachte das aus der Distanz, wer sich hier täglich beteiligt kriegt glaube ich gar nicht mehr mit, wie absurd die ganze Geschichte mittlerweile anmutet - G80 ist für NVidia Geschichte, die juckt das ganze gar nicht mehr, während ATI "fieberhaft" am Release des Konkurrenten arbeitet - selbst wenn das Ding morgen rauskommt, ist es Fehl am Platz. Der Chip hat höchstens noch eine Existenzberechtigung, wenn er dreimal so schnell wie der G80 ist - irgendwie muss ich mich grad totlachen. Ich zocke seit 'nem halben Jahr in dicksten Auflösungen mit meisterhafter Bildquali wie ein junger Gott und ein paar Fanboys warten noch auf Godot ;D
Es ist einfach ein Armutszeugnis, was AMD/ATI da abliefert - wer das ein oder andere Mal mit mir diskutiert hat, weiß, daß ich ein AMD - "Fanboy" bin - ide Barcelonageschichte verstehe ich ja, CPUs sind was anderes, haben einen längeren Regenerationszyklus - aber AMD hätte lieber NVidia als diesen dummen Tuntenladen kaufen sollen - dann hätten sie jetzt keine Probleme - ATI kaufen war irgendwie, als ob man ein behindertes Kind adoptiert.

Fetza
2007-04-22, 02:54:19
*Gähn* ich geb hier mal noch meinen Senf ab, bevor ich schlafen gehe - ich denke der Thread gehört mittlerweile auf die Spielwiese - die brauchen das Scheißding gar nicht mehr rauszubringen und sollen am R700 arbeiten - ich lach mich tot, die ersten G100 Spekuthreads sprießen aus dem Boden und ATI kriegt es nicht auf die Reihe, den R600 rauszuhauen. Wie dumm kann man denn sein? Ich betrachte das aus der Distanz, wer sich hier täglich beteiligt kriegt glaube ich gar nicht mehr mit, wie absurd die ganze Geschichte mittlerweile anmutet - G80 ist für NVidia Geschichte, die juckt das ganze gar nicht mehr, während ATI "fieberhaft" am Release des Konkurrenten arbeitet - selbst wenn das Ding morgen rauskommt, ist es Fehl am Platz. Der Chip hat höchstens noch eine Existenzberechtigung, wenn er dreimal so schnell wie der G80 ist - irgendwie muss ich mich grad totlachen. Ich zocke seit 'nem halben Jahr in dicksten Auflösungen mit meisterhafter Bildquali wie ein junger Gott und ein paar Fanboys warten noch auf Godot ;D
Es ist einfach ein Armutszeugnis, was AMD/ATI da abliefert - wer das ein oder andere Mal mit mir diskutiert hat, weiß, daß ich ein AMD - "Fanboy" bin - ide Barcelonageschichte verstehe ich ja, CPUs sind was anderes, haben einen längeren Regenerationszyklus - aber AMD hätte lieber NVidia als diesen dummen Tuntenladen kaufen sollen - dann hätten sie jetzt keine Probleme - ATI kaufen war irgendwie, als ob man ein behindertes Kind adoptiert.

eine gewagte und meiner meinung nach auch falsche these, denn obwohl du recht hast mit dem viel zu späten launch des r600, so ist er wenn die preis/leistungs stimmt, noch hochinteressant. Wir wissen weder, wie er mit aa performt, noch sonstwie. Wenn sich der preis mit 399 euro bestätigt, ist er alleine schon dazu gut, nv dazu zu drängen endlich mal die gtx in seichtere preisregionen zu drücken.

Wenn der r600 gut performt, hat den peinlichsten chip release meiner meinung nach immer noch nv mit dem nv30. Es hängt also alles davon ab, wie gut der chip letztlich wird.

edit: fanboy bin ich übrigends nicht, ich interessiere mich nur für das beste produkt, hinshichtlich der preis/leistung und mein g70 hat mir bisher noch gereicht. Allerdings jetzt nichtmehr.... bald muss ne neue karte her :)

PaNi
2007-04-22, 04:14:56
Also meine Spekulation ist: Ati bringt diese Karte nie raus! ;)
Mal ehrlich ich warte seit gefühlte 10 Jahre auf diese Karte aber auch nur damit sich die Preise anpassen(ich bin so einer von der Sorte der immer eiwg wartet bis er sich was neues holt weil er angst hat sich was für 300€ zu kaufen und morgen kostet es nur noch 200€ :) )
Hab damals den x2 3800 gekauft und prompt kam C2D und er war nich mal mehr die 1/2 Wert.
Also is mir egal wie viel besser sie ist Hauptsache sie kommt noch raus bevor ich Tod bin :)
THX for Reading ^^

w0mbat
2007-04-22, 11:58:20
@warmachine79: Für den User ist es doch völlig egal wann der R600 kommt, Hauptsache er ist zu diesem Zeitpunkt ein gutes Angebot. Ich hatte nich so viel Geld ein 3/4 Jahr nach dem Kauf meiner X1900 XT schon auf den G80 umzurüsten. Und mit meiner GPU kann ich bis jetzt auch noch alles ruckelfrei zocken. Da warte ich lieber auf den R600 und schau mir dessen P/L-Verhältnis an. Es hält mich ja nicht davon ab dann auch eine 8800er zu kaufen.

Der R600 ist nur dann zu spät, wenn er kein gutes P/L-Verhältnis mehr bringen kann, also wenn nVidia z.B. schon einen viel schnelleren G90 hätte.

Gast
2007-04-22, 12:05:08
Der R600 ist nur dann zu spät, wenn er kein gutes P/L-Verhältnis mehr bringen kann, also wenn nVidia z.B. schon einen viel schnelleren G90 hätte.

Ein gutes P/L-Verhältnis kann man durch Preissenkung immer erreichen, nur sinkt dann Umsatz und Gewinn und gerade das kann sich AMD derzeit nicht leisten.

Gast
2007-04-22, 13:50:21
Jo genau, ich find ehrlich gesagt auch, das man das gerede über die micker beschleuniger (r630) auslagern sollte. Wer hier im forum interessiert sich für beschnittene hardware?

greetz
Es geht da auch um wirtschaftliche Interessen. Es ist wichtig, dass die "Mickerbeschleuniger" von AMD was taugen, denn sonst könnte es wirklich schlecht für Amd aussehen. Und die andere Frage, wen hier im Forum interessiert brennend der R600, der sehr wahrscheinlich nur in sehr mickrigen Mengen verkauft werden wird? Wohl doch nur Amd Anhänger und sehr wenige, die der hohe Idle Verbrauch des G80 stört, denn alle anderen, die leistungsgeil sind, haben schon längst einen G80. Ob der R600 ein besseres Preis-Leistungs-Verhältnis besitzen wird, wage ich zu bezweifeln. nV kann schließlich auch an der Preisschraube drehen, falls nötig und hat zusätzlich den Vram-Vorteil.

=Floi=
2007-04-22, 14:14:14
wann fällt denn das NDA und um welche uhrzeit wird die karte vorgestellt?
morgen?

Gast
2007-04-22, 14:18:17
Da halte ich es für wesentlich unsinniger, zu behaupten, dass man eine Stromanschluss verbaut, der nicht nötig ist.[...]
Zum einen ist bekannt, dass ATi-Karten auch über die 3.3V-Leitung des PCIe-Slots Leistung ziehen, während nV hier AFAIK nichts beansprucht. Schon das könnte des Rätsels Lösung sein, und erklären, weshalb die 7900GT auf ext. Stromversorgung angewiesen ist: Da sie eben im Gegensatz zu X1650XT nur die 12V Leitung belastet.

Das wäre ein Grund, warum die Karte über einen zusätzlichen Stromanschluss verfügt. Auch nimmst du dir den Wind aus den Segeln bezüglich der Gersamtaufnahme, da der Stromanschluss eben zwangsläulich kein Indikator für die Gesamtaufnahme darstellt.
Bei Xbitlabs sieht man schön, dass bei der 7900GT die Last geteilt, bei der X1650XT die einzige 12V Leitung dagegen stark belastet wird.

Tja, und da sie nachweislich keinen zweiten 6-Pin Anschluss zur stabilen Versorgung benötigt, ist dein Schluss offensichtlich falsch.

Du beachtest schon wieder nicht die anderen Faktoren: Unterschiedliche Firmen, unterschiedliche Ermittlung der TDP Angaben. nVidia gibt offiziell 120Watt für die 7900GTX an. Unabhängige Seiten ermitteln in ihren Test einen durchschnittlichen Unterschied von 30 Watt bei den Karten.

Wie schon gesagt, du kannst nicht beurteilen, wie sich die Chips bei 100%iger Auslastung unter Laborbedingungen tatsächlich verhalten. Vielleicht erreicht die X1950XTX eine bessere Auslastung der Einheiten und benötigt deshalb selbst in Extremsituationen nicht viel mehr Strom als im 3dmerk06.

Wie sieht den ein Test aus, der den G71 voll auslastet?


Here's what I've heard:

HD 2600 XT -> 65W
HD 2600 PRO -> 55W
HD 2400 XT -> 20W
HD 2400 PRO -> 18W
http://forum.beyond3d.com/showpost.php?p=973867&postcount=265

cj ist meisten sehr gut informiert. Und sollten die Werte stimmen, werde beide Karten gleichviel verbrauchen.

w0mbat
2007-04-22, 14:32:05
wann fällt denn das NDA und um welche uhrzeit wird die karte vorgestellt?
morgen?

Vom 23. - 24. werden die Karten mit einigen anderen Schmankerln vorgestellt, aber immer noch unter NDA. Mal sehen ob ich doch irgendwas sagen darf.

AnarchX
2007-04-22, 15:32:29
Der R600 ist nur dann zu spät, wenn er kein gutes P/L-Verhältnis mehr bringen kann, also wenn nVidia z.B. schon einen viel schnelleren G90 hätte.

Naja, nVidia konnte im letzten halben Jahr gut 500k G80 zu einem guten Preis ohne Konkurrenz absetzen. Von diesem Kuchen hätte wenn der R600 eher erschienen wäre, AMD sicherlich auch großes Stück abbekommen können.

Aber da er nun zu spät ist wird er nun zu einem Kampfpreis angeboten und wohl auch keine lange Lebenszeit haben. Das ist nunmal nicht unbedingt optimal.

@NDA: Ein HWLuxx-Post soll ein Beweis sein?
Poste doch mal deinen Screenshot zur Livepoint Erklärung aus dem NDA-Portal, da glaubt man dir sicherlich eher. ;)

deekey777
2007-04-22, 16:21:40
Leute, es reicht.
Wenn ihr Probleme miteinander habt, regelt dies per PM/ICQ/Rauchzeichen, aber nicht in diesem Thread. Danke.

Nakai
2007-04-22, 16:25:19
Poste doch mal deinen Screenshot zur Livepoint Erklärung aus dem NDA-Portal, da glaubt man dir sicherlich eher.

Lol...eher nicht^^:biggrin:


HD 2600 XT -> 65W
HD 2600 PRO -> 55W
HD 2400 XT -> 20W
HD 2400 PRO -> 18W

Und was verbraucht nun der R600?;)

mfg Nakai

deekey777
2007-04-22, 16:25:43
wann fällt denn das NDA und um welche uhrzeit wird die karte vorgestellt?
morgen?
Gibt es überhaupt schon ein NDA?
Nur weil nächste Woche die Techdays stattfinden, heißt es nicht, dass die neue Generation der Öffentlichkeit vorgestellt wird. Die offizielle Vorstellung ist gewöhnlich midestens 3 Wochen später. Das war beim G80 genauso.
Hoffentlich bekommt die PCGH ein Sonder-NDA und schreibt wenigstens einen Techartikel.
PS:
Nur weil es ein NDA gibt, bedeutet es nicht per se, dass man über sein Vorhandensein nicht sprechen darf. Es steht in der Vereinbarung selbst.

Gast
2007-04-22, 16:33:56
Und was verbraucht nun der R600?;)
mfg Nakai

Was soll diese Frage?
Da wir nicht wissen, wieviele Funktionseinheiten der rv630 haben und wie stark sich der 65nm Fertigungsprozeß auswirken wird, ist es unsinnig darüber zu spekulieren. Die 8600GTS benötigt 1/3 des Stromverbrauchs der 8800GTX.
Da der Sprung von 80nm auf 65nm umfassender ist, kann sich der Stromverbrauch wohl um die 200 Watt bewegen - wenn nicht sogar mehr.

Nakai
2007-04-22, 17:00:04
kann sich der Stromverbrauch wohl um die 200 Watt bewegen - wenn nicht sogar mehr.
Glaubst du diese diese 200 Watt oder höher Geschichten, die im Umlauf waren?

Wenn AMD eine TDP von 200Watt angibt, wird der reelle Verbrauch weit drunter liegen. Die TDP-Angaben sind für die Hersteller der Komponenten nur Richtwerte.
Der reelle Verbrauch liegt weit drunter.

mfg Nakai