PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 4 (leider nicht der letzte?)


Seiten : [1] 2 3 4

K4mPFwUr$t
2007-02-10, 17:57:35
wäre aber eine erleichterung in sachen entwicklung bzw. deren kosten.
aber wie gesagt bräuchte man nicht gerade wenig bandbreite.

aber ich meine da gabs vor ein paar monaten eine news bzw. nur ein gerücht dazu. das sowas in der planung sei.

der r600 wird ja der letzte von nur ATI entwickelte chip sein. ab dem r700 wird wohl auch amd ihre finger im spiel haben, was sich hoffentlich in einer niedrigeren verlustleistung wiederspiegelt. aber selbst das wird schwer werden, das schnell um zusetzen. man bedenke ja wielange die engs. für die optimierung von CPUs haben, da diese ja recht langlebig sind jedenfalls von der architektur. da ist der lebenszyklus bei GPUs sehr gering und damit wenig zeit für optimierungen. zZ sieht man es ja deutlich bei ATI das eine optimierung der GPU, zeit und kundenverlust mit sich bringt.

die IT branche ist ja bekanntlich sehr schnelllebig
-----------------------------------------------------------------------------------------------------------------------------------------
Teil 3.
Letztes Posting: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5240909#post5240909

Gast
2007-02-10, 17:58:58
Was ist billiger herzustellen - zwei 400 Mio. Transistoren GPUs oder eine GPU mit 800 Mio.?Das trifft aber nur zu, wenn es auch einzelne Dice sind. Bei deiner Zeichnung (zwei Kerne auf einem Die) hat man eigentlich keine Produktionsvorteile. Das ist auch der Grund warum Intel seit dem Presler für ihre Multicore-CPUs zwei getrennte Dies einsetzt. Smithfield bestand ja noch aus zwei Cores auf einem Die.
Da kommt also nur eine Verbindung im 3 stelligen GB/s Bereich zwischen den DICE in FrageIn diesem Fall ist "Dice" keine Abkürzung und wird somit nicht komplett groß geschrieben. Außer du hast die Softwareschmiede "Digital Illusions CE" gemeint. ;)

dargo
2007-02-10, 18:13:28
Das trifft aber nur zu, wenn es auch einzelne Dice sind. Bei deiner Zeichnung (zwei Kerne auf einem Die) hat man eigentlich keine Produktionsvorteile. Das ist auch der Grund warum Intel seit dem Presler für ihre Multicore-CPUs zwei getrennte Dies einsetzt. Smithfield bestand ja noch aus zwei Cores auf einem Die.

Das verstehe ich jetzt nicht. Beim Kentsfield wird doch auch nichts anderes als zwei Conroes draufgeklatscht.

HOT
2007-02-10, 18:27:17
Genau so eine Lösung habe ich mir auch ausgemalt. Also z.B. 4 Cores auf einem Träger. Der Träger wird dann zwar gross und aufwändig, aber das ist machbarer als das PCB soweit aufzubohren. Und nochwas: Es macht nur Sinn die Shadercores in mehrere Dice zu unterteilen. Es müsste dann aber noch ein 2D Die mit verschiedenen Funktionen geben.

K4mPFwUr$t
2007-02-10, 18:34:06
ich bin mir sicher das ich dargos zeichnung richtig verstanden haben.
auf dem bild ist zu erkennen das sich zwei diecs auf einem package befinden.
und nicht wie vom gast gedacht monoltisch.

wie es scheint gibts da ein paar missverständnisse hier.
monoltisch heißt das eine DIE aus mehreren cores bzw. einheiten bestehen kann. als beispiel dient der k8L von AMD, dieser wird monoltisch hergestellt.
vorteil der sache ist eine höhere bandbreite wenn es um interne kommunikation geht zwischen den einheiten. allerdings der nachteil, je mehr transistoren, je niedriger die yield. bei einer nicht monoltischer herstellung wie z.b beim kenntsfield. werden nur zwei DIEs zusammen auf ein package gelötet und mit einem bus verbunnden. nachteil ist halt weniger kommunikationsleistung, dafür höhere yield.

aber die frage bleibt offen, ob nun wirklich ab r700 wie laut gerüchten halt mehrere cores kommen oder gar DIEs.

aber da weichen wir ja wohl vom thema ab

Nakai
2007-02-10, 18:35:28
Vll wirds wieder, wie in den alten Zeiten. Man baut CPUs die noch mit Cacher erweitert werden können. Oder Grafikkarten mit einem Ramslot.
Aber es wird wohl sehr viel flexibler werden, also das die Retailer mehr Freiheiten bekommen.

Vll so:
http://img47.imageshack.us/img47/5392/grafikkarteut2.jpg

Im CHIP in der Mitte sind die ROPs, das Speicherinterface und ein genug EDRam vorhanden.
Die GPUs können verschieden sein, müssen aber der gleichen Architektur angehören. Dadurch die Hersteller die Grafikchips beliebig mischen.
Also im Desktopbetrieb, also 2D, läuft der schwächere Grafikchip, der somit weniger Strom frisst. Das einzige Problem wäre die Anbindung zu den Speicherchips. Der Weg zu den einzelnen muss gleichlang sein.

Ist nur eine Speku...

mfg Nakai

Gast
2007-02-10, 18:39:03
Oder Grafikkarten mit einem Ramslot.Das ist eher unwahrscheinlich. Derart hoch taktenden GDDR3/GDDR4 kann man nicht so einfach in einem Sockel betreiben. Das würde wohl allerhöchstens für das unterste Low-End in Frage kommen und selbst da wird man das wohl nicht machen.

Nakai
2007-02-10, 18:40:57
Das ist eher unwahrscheinlich. Derart hoch taktenden GDDR3/GDDR4 kann man nicht so einfach in einem Sockel betreiben. Das würde wohl allerhöchstens für das unterste Low-End in Frage kommen und selbst da wird man das wohl nicht machen.

NV hat mal behauptet, dass der User selber die Grafikkarte zusammenstellen kann. Also mit GPU-Sockel und Ramslot.
Ich weiß das die Verbindung über einen Slot mit hohen Latenzen verbunden ist.

mfg Nakai

dargo
2007-02-10, 18:44:26
ich bin mir sicher das ich dargos zeichnung richtig verstanden haben.
auf dem bild ist zu erkennen das sich zwei diecs auf einem package befinden.
und nicht wie vom gast gedacht monoltisch.

Ich habe die Zeichnung jetzt geändert. Vielleicht erkennt man jetzt besser wie ich es meinte.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5240835&postcount=973

K4mPFwUr$t
2007-02-10, 18:45:54
@nakai
msi hatte doch mal dazu eine graka studie.
allerdings war die lösung nicht wirklich marktreif und nur die GPU konnte getauscht werden. zu einem musste ja auch die stromversorgung für zukünftige produkte mit einberechnet werden.

aber das man in den nächsten jahren seine graka mit GPU und VRAM beflastern kann, wage ich mal zu bezweifeln.

wegen dem zugriff von GPU auf VRAM, wäre es doch möglich DMA einzusetzen. so das der weg nicht GPU --> SI --> VRAM ist sondern nur GPU --> VRAM.

Slipknot79
2007-02-10, 18:48:19
Abwarten. Schon die Angaben der 270W des R600 sind unrealistisch, da man das mit zwei 6-Pin-Stecker nicht mal annähernd liefern kann. Auch ist das 64-bit SI für den Lowend-Chip wohl bestenfalls ein Witz, schon zu R7XXX-Zeiten hatte man hier AFAIK auf 128-bit gesetzt. Noch dazu sollen die Chips in 65nm kommen. Auch ATi kann Fehlinformationen streuen - VR-Zone hatte noch nie einen guten Draht zu ATi in der Vergangenheit.



Theoretisch stehen eigentlich 3x75W zur Verfügung (Port nicht vergessen), macht in Summe 225W. 270W sind also gefaket...

K4mPFwUr$t
2007-02-10, 19:12:52
und das die 3x75W wollends ausgelastet werden glaube ich auch kaum.
da würde man eher dazu übergehen einen 3 port mit weiteren 75W anzubringen um allgemein die last niedriger zu halten.

Nakai
2007-02-10, 19:17:31
@nakai
msi hatte doch mal dazu eine graka studie.
allerdings war die lösung nicht wirklich marktreif und nur die GPU konnte getauscht werden. zu einem musste ja auch die stromversorgung für zukünftige produkte mit einberechnet werden.

aber das man in den nächsten jahren seine graka mit GPU und VRAM beflastern kann, wage ich mal zu bezweifeln.

wegen dem zugriff von GPU auf VRAM, wäre es doch möglich DMA einzusetzen. so das der weg nicht GPU --> SI --> VRAM ist sondern nur GPU --> VRAM.

Ja natürlich. Ich gehe aber eher davon aus, dass die Retailer ihre eigenen Grafikkarten besser skalieren können. Der Chipproduzent gibt dann einfach einige Angaben zur Leistung an.
Beispiel:
Ein Shader-Quad ist dann eine Radeon X3000.
2 Quads eine Radeon X3100.
3 Quads eine Radeon X3200.
usw.

Dann gibts halt noch Endungen die durch das SI und durch den Takt gegeben werden. Umso höher der Grundtakt ist, umso stärkere Bezeichnung. Natürlich ist das SI auch wichtig, aber dazu wird wohl keine Angabe gemacht.

Naja nur Speku, mal BtT:

AiL hat das mal schön gesagt. Wenn man vom Verhältnis der Shader und der TMUs ausgeht, kann es 2:1 oder 4:1 sein.
Das lässt folgende Schlüße zu:
Bei 2:1:
24TMUs und 48 Shader
32 TMUs und 64 Shader

Bei 4:1:
24 TMUs und 96 Shader
32 TMUs und 128 Shader

mfg Nakai

Gast
2007-02-10, 19:18:58
Typisch Gerüchteküche, mit vielen Fehlinformationen...

Wenn die Karte so aussehen sollte:
http://pics.computerbase.de/1/7/1/4/2/2.jpg

... dann wären >200 W utopisch. Dieser kleine aktive Lüfter wäre grenzenlos überfordert.

Gast
2007-02-10, 19:20:29
msi hatte doch mal dazu eine graka studie.Das war aber was völlig anderes. Das war eine Karte, auf die man einfach MX-Module gesteckt hat, wie sie z.T. in Notebooks verwendet werden. Auf diesen Modulen war der Speicher schon drauf. Das kannst du nicht mit dem Sockeln von hochtaktendem GDDR3 vergleichen.

Nakai
2007-02-10, 19:41:43
Typisch Gerüchteküche, mit vielen Fehlinformationen...

Wenn die Karte so aussehen sollte:
http://pics.computerbase.de/1/7/1/4/2/2.jpg

... dann wären >200 W utopisch. Dieser kleine aktive Lüfter wäre grenzenlos überfordert.

Naja so klein ist er nicht.
Ich schätze den Verbrauch bei etwa 180W. In Idle weniger als der G80.

mfg Nakai

seahawk
2007-02-10, 19:48:40
Typisch Gerüchteküche, mit vielen Fehlinformationen...

Wenn die Karte so aussehen sollte:
http://pics.computerbase.de/1/7/1/4/2/2.jpg

... dann wären >200 W utopisch. Dieser kleine aktive Lüfter wäre grenzenlos überfordert.

Der hat 24V - das Ding kann drehen wie irre.

Gast
2007-02-10, 19:51:36
Der hat 24V - das Ding kann drehen wie irre.

Selbst das ist unrealistisch, es wird sich kaum jemand die Karte kaufen, wenn sie einer Turbine gleich kommt. ;)

... das würde sich AMD niemals antun.

Coda
2007-02-10, 19:53:44
Ich weiß das die Verbindung über einen Slot mit hohen Latenzen verbunden ist.
Latenzen sind nicht das Problem, sondern die Dämpfung an der Kontaktstelle und damit niedrigere mögliche Frequenzen.

dargo
2007-02-10, 19:56:11
Der hat 24V - das Ding kann drehen wie irre.
Nö, es sind 12V und 24W. :wink:

K4mPFwUr$t
2007-02-10, 20:25:20
@seahawk
denkste die hersteller werden bzw. die treiber werden nur 100% ermöglichen?
im treiber ist doch eine liste festgelegt, die man zb mit ATT ändern kann.
die karte muss halt in jeder und damit meine ich nicht in einem raum mit offenen fenster im tiefsten winter stabil laufen. es kann also davon ausgegangen werden das 100% oder allgemeine hohe rpm nur selten zu sehen werden.

up¦²
2007-02-10, 21:04:14
VR-Zone has gotten some concrete information on the process technology and memory interface of RV610 and RV630. Both will be based on 65nm process technology from TSMC. RV610, the low end version will only have 64-bit memory interface and we have told you earlier that there will be 2 variants at launch; RV610LE which is DDR2 based and RV610PRO which is DDR3 based. The RV610LE card has 4 layers and consumes 25W of power while RV610PRO has 6 layers and consumes 35W of power. RV630, the mainstream version will have 128-bit memory interface and comes in 3 variants; DDR4, DDR3 and DDR2. The power consumption stood at 128W, 93W and 75W respectively. There will be samples in March and expected launch in April.

http://www.vr-zone.com/?i=4630

Merkwürdig ... :confused: 25W und 35W! In der selben Generation 10x Unterschied?

seahawk
2007-02-10, 21:08:35
Die Sprechen von der KArte, und da kann anderer RAM und ne andere RAM Menge + Taktung schon mal 10W ausmachen.

@seahawk
denkste die hersteller werden bzw. die treiber werden nur 100% ermöglichen?
im treiber ist doch eine liste festgelegt, die man zb mit ATT ändern kann.
die karte muss halt in jeder und damit meine ich nicht in einem raum mit offenen fenster im tiefsten winter stabil laufen. es kann also davon ausgegangen werden das 100% oder allgemeine hohe rpm nur selten zu sehen werden.

Nun selbst bei 50% hätte der noch ca. soviel W wie der X1900XT auf 100%. Ich sage euch die OEM Version ist relativ laut. Die Retail hingegen wird eine nette Überraschung. :D

dargo
2007-02-10, 21:25:45
Nun selbst bei 50% hätte der noch ca. soviel W wie der X1900XT auf 100%. Ich sage euch die OEM Version ist relativ laut. Die Retail hingegen wird eine nette Überraschung. :D
Die Retailversion wird offensichtlich zwei Lüfter besitzen. Eine andere Erklärung habe ich nicht für die 2 Anschlüsse. Sollte AMD etwa eine 3Slot Kühlung rausbringen. Das kann ich mir irgendwie nicht vorstellen.

Edit:
Wobei sowas hier mit zwei Lüftern auch denkbar wäre:

http://img256.imageshack.us/img256/4449/11jd8.jpg

Durch das größere PCB beim R600 könnte man mit dem Kühler mehr in die Länge gehen und würde bei einer 2Slot-Kühlung bleiben.

Fetza
2007-02-10, 21:39:10
Das halt ich mal für glatt gelogen, zumindest @12V...

Oder andersrum: der ist leise weil der geregelt ist, manche sogar doppelt :ugly: (und nein, das ist kein Scherz!)
Auf vollen Touren rattert das Ding, so dass man meinen könnt, das hätt 'nen Lagerschaden...

Ist aber normal bei Intel Box Lüftern, haben sie alle, Nidec Lüfter sind halt nicht so prickelnd, Delta ist besser...
Und ja, ich hatte schon einige Intel Box Kühler und das betrifft sie alle...


dann haben wir uns falsch verstanden, ich dachte du meintest einfach die lautstärke im betrieb. Natürlich ist der lüfter runtergeregelt und dadurch leise, wie laut er bei maximum drehzahl ist weiss ich nicht, und will ich auch garnicht;) Aber für mich ist auch nur wichtig ob der lüfter gut kühlt und dabei leise ist, bisher hat er noch nie hochgedreht im betrieb, und ich habe den cd2 63er auf 3 ghz.

reunion
2007-02-10, 21:49:06
@seahawk
denkste die hersteller werden bzw. die treiber werden nur 100% ermöglichen?
im treiber ist doch eine liste festgelegt, die man zb mit ATT ändern kann.
die karte muss halt in jeder und damit meine ich nicht in einem raum mit offenen fenster im tiefsten winter stabil laufen. es kann also davon ausgegangen werden das 100% oder allgemeine hohe rpm nur selten zu sehen werden.

Natürlich wird die Lüfter nicht mit 12V laufen. Vermutlich wird der Regelbereich irgendwo zwischen vier und acht Volt liegen, was allerdings bei 2A auch nicht gerade ohne ist.

Ich sage euch die OEM Version ist relativ laut.


Dafür braucht man wahrlich keine Glaskugel.


Die Retail hingegen wird eine nette Überraschung. :D

Ich liebe solche nichtsaussagenden Behauptungen, womit man suggerieren will, dass man etwas weiß, was andere nicht wissen, um so eine imaginäre Überlegenheit vortäuschen zu können. Nur meistens kommt das genau von den Leuten, die am allerwenigsten Wissen.

Die Retailversion wird offensichtlich zwei Lüfter besitzen. Eine andere Erklärung habe ich nicht für die 2 Anschlüsse. Sollte AMD etwa eine 3Slot Kühlung rausbringen. Das kann ich mir irgendwie nicht vorstellen.

Edit:
Wobei sowas hier mit zwei Lüftern auch denkbar wäre:

http://img256.imageshack.us/img256/4449/11jd8.jpg

Durch das größere PCB beim R600 könnte man mit dem Kühler mehr in die Länge gehen und würde bei einer 2Slot-Kühlung bleiben.

Ich halte es für wahrscheinlich, dass zumindest der Kühlkörper mit den ganzen Befestigungen und der "Back"-Platte mit der OEM-Version identisch ist, um zumindest nicht zwei total verschiedene Konstruktionen produzieren zu müssen. Einzig die Position der/des Lüfter(s) wird sich natürlich definitiv unterscheiden. Das würde auch erklären, warum man bei der OEM-Version so viel freie Fläche hinter dem Kühlkörper bzw. vor dem Lüfter ungenutzt läßt.

Merkwürdig ... :confused: 25W und 35W! In der selben Generation 10x Unterschied?

Ja, halte ich auch für unrealistisch. Ein RV610 soll mit 25W auskommen, aber ein R600 soll 270W brauchen. Das wäre doch eine etwas große "Spannweite".

The_Invisible
2007-02-10, 21:54:45
das gibts doch nicht, so "kurz" vor release und noch immer keine besseren informationen. beim g80 gabs 1 monat vor release ja schon handfeste infos oder?

mfg

LovesuckZ
2007-02-10, 21:57:33
das gibts doch nicht, so "kurz" vor release und noch immer keine besseren informationen. beim g80 gabs 1 monat vor release ja schon handfeste infos oder?
mfg

Ca. 1 Monat vor'm Release hat die eine Seite (dailytech) gespoilert.
Warum es bei AMD noch nichts an die Öffenlichtkeit kam? Sie haben eben noch keine Informationsveranstaltungen getätigt.

VooDoo7mx
2007-02-10, 22:00:51
der r600 wird ja der letzte von nur ATI entwickelte chip sein. ab dem r700 wird wohl auch amd ihre finger im spiel haben, was sich hoffentlich in einer niedrigeren verlustleistung wiederspiegelt. aber selbst das wird schwer werden, das schnell um zusetzen.

Sorry aber das ist Quark.
Wenn AMD Grafikchips entwickeln könnte, hätten sie sicher nicht ATi gekauft. Bei AMD hats ja nicht einmal für ne einfache IGP gereicht.
Ingeneure für Grafikchips und welche für CPUs können nicht einfach mal das andere Feld mitentwickeln, dafür sind heutzutage die Designs viel zu komplex und zu verschieden.
Und wie stellst du dir das mit den Stromverbrauch vor? AMD kann nicht mal einfach so mit dem Zauberstab wedeln und schon verbraucht die GPU nur noch halb so viel. 1 GB Ram mit einer realen Taktfrequenz von deutlich über 1 GHz Taktfrequenz kann man auch nicht mehr viel sparsamer bekommen.
Man muss sich einfach mal vor Augen führen, wie komplex der R600 eigentlich ist, da geht nichts mehr großartig viel mit optimieren. Das Teil hat mindestens 10mal so viel Logiktransistoren wie ein Dual Core Athlon 64.
Auch wird AMD in absehbarer Zeit keine eigenen Fertigungstechniken bei ATi einfließen lassen können, da AMD einfach mal die Kapazität fehlt.
Heute kann AMD nicht einmal selber alle Prozessoren produzieren und muss die Fertigung bei einen Dritten (Chatered) auslagern.
Da bleibt gar kein Platz mehr neue fertigungsstraßen für ATi Chips zu legen.

K4mPFwUr$t
2007-02-10, 22:01:17
@reuniotion n
den gedanken habe ich auch ...

wobei der retail lüfter an dieser rundung beginnen könnte, so würde dieser nur minimalst über das PCB schauen.
http://pics.computerbase.de/1/7/1/4/2/2.jpg

@VooDoo7mx
war klar das von dir eines tages mal wieder kritik kommt. habe ja nie gesagt das AMD mit dem zauberstab ankommt, aber auf gewisse erfahrungen können sie ja zurück greifen wenns um verlustleistung geht.

aber meinst du nicht das AMD die verkaufszahlen von ATI etwas ankurpeln will?
und da kommt eine niedrigere verlustleistung doch gut bei gewissen kunden als.

aber ganz unrecht hast du mit deiner aussage nicht, muss ich zugeben.

dargo
2007-02-10, 22:02:42
Ich halte es für wahrscheinlich, dass zumindest der Kühlkörper mit den ganzen Befestigungen und der "Back"-Platte mit der OEM-Version identisch ist, um zumindest nicht zwei total verschiedene Konstruktionen produzieren zu müssen. Einzig die Position der/des Lüfter(s) wird sich natürlich definitiv unterscheiden.

Also, wenn man zwei Lüfter mit dem selben OEM Kühler verwenden will bleibt eigendlich nur noch die 3Slot-Kühlung. Oder AMD verwendet flache Lüfter. Die haben aber deutlich weniger Luftdurchsatz.

StefanV
2007-02-10, 22:05:53
Oder man nutzt einfach einen (etwas) anderen KÜhler...

Coda
2007-02-10, 23:01:47
war klar das von dir eines tages mal wieder kritik kommt. habe ja nie gesagt das AMD mit dem zauberstab ankommt, aber auf gewisse erfahrungen können sie ja zurück greifen wenns um verlustleistung geht.

aber meinst du nicht das AMD die verkaufszahlen von ATI etwas ankurpeln will?
und da kommt eine niedrigere verlustleistung doch gut bei gewissen kunden als.

aber ganz unrecht hast du mit deiner aussage nicht, muss ich zugeben.
Er hat aber recht. Bei einer CPU schalten pro Takt prozentual gesehen viel weniger Transistoren als bei einer GPU und damit ist dort Leckstrom-Reduktion z.B. viel wichtiger.

Zudem geht vieles was AMD an Strom spart auf SOI und ihre anderen Fertigungstechniken zurück - das können sie auch bei R700 nicht anwenden. Das muss noch ein TSMC-Design sein.

Cubitus
2007-02-10, 23:46:52
Diese Thema nervt ganz schön, dann kauft euch ne Geforce 2 oder was auch immer, Strom und Lautstärke Interessiert bei Highend nicht (find ich).:rolleyes:

Mir ist letzte Woche eine Stromnachzahlung von 150 Euro ins Haus geflattert.
Zudem wurde der fix Betrag von 40 auf 60 Euro erhöht, tja das war der Crossfire -betrieb 06 und dieses Jahr wird´s nochmal um ne ecke teurer;)

K4mPFwUr$t
2007-02-10, 23:52:19
Er hat aber recht. Bei einer CPU schalten pro Takt prozentual gesehen viel weniger Transistoren als bei einer GPU und damit ist dort Leckstrom-Reduktion z.B. viel wichtiger.

Zudem geht vieles was AMD an Strom spart auf SOI und ihre anderen Fertigungstechniken zurück - das können sie auch bei R700 nicht anwenden. Das muss noch ein TSMC-Design sein.
wenns so ist, man lernt nie aus ;)

LairD@Gast
2007-02-11, 01:56:59
Man bemüht sich denn keiner mehr seines gesunden Verstandes in diesem Forum?

Wenn die geleakten Infos stimmen würden, wüde sich doch AMD/ATI lächerlich machen.
Von wegen 270W für ne BlaBlaXtX usw!
Sind denn alle hier so von sich eingenommen, dass Sie denken Sie sind schlauer als die Ingenieure die bei ATI/AMD arbeiten?

Die Leute bei AMD/ATI leben doch nicht hinter dem Mond und wissen ganz genau, dass eine Grafikkarte mit 100% mehr Verlustleitung und 10% mehr Speed, als ne 88xx nVidia, sich kaum bis gar nicht verkaufen lässt.
Also teilweise denke ich in dem Forum sind die absoluten Experten unterwegs und bei den Grakaentwicklern arbeiten nur Handlampen, wenn man sich so manchen Post durchliesst.

Bleibt doch mal alle auf dem Teppich und tut nicht so als ob Ihr der VV von AMD/ATI bzw. nVidida sein würdet.

Echt erbärmlich diese Spekulationhansel!

=Floi=
2007-02-11, 02:38:03
http://www.planet3dnow.de/news_images/pcie20_gpu.jpg
zumindest erfüllt die karte die pcie 2.0 300 watt spezifikation
http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=556680&entity_id=-1&image_id=582582&page=1&show=original

warum sollte sich die karte nicht verkaufen?
bis jetzt war der verbrauch auch egal und irgendwann müssen wir mal über 100watt gehen
die leistung wird warscheinlich stimmen und das ist die hauptsache

darüberhinaus zieht alleine der lüfter @ max 24 watt!!!
2ampere bei 12 volt =24watt
http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=556680&entity_id=-1&image_id=582581&page=1

horn 12
2007-02-11, 10:13:52
ATI-amd wird sicherlich keine 3SLOT Kühlung bringen, denn dies wäre ein weiterer Minuspunkt, so wie ich schon sagte, ähnlich gelöst wie bei der Gecube FZ Cool aber eben nur Dualslot.

dargo
2007-02-11, 10:19:28
ATI-amd wird sicherlich keine 3SLOT Kühlung bringen, denn dies wäre ein weiterer Minuspunkt, so wie ich schon sagte, ähnlich gelöst wie bei der Gecube FZ Cool aber eben nur Dualslot.
Diese verwendet eben verdammt flache Lüfter, ob das für den R600 reicht bezweifle ich. Ein weiterer Nachteil ist, dass ein großer Teil der Abwärme im Gehäuse bleibt.

Ailuros
2007-02-11, 10:41:26
Gut dass ich die letzten paar Seiten ausgesessen habe :P

Es gibt keinen Zweifel dass R600 etwas mehr Strom als G80 verbrauchen wird, aber glaubt doch nicht sofort jeden verrueckten Wert (ohne zu wissen fuer was er steht) der nur so herumgeschmissen wird.

Ihr koennt den Schmarren ueber das OEM Exemplar auch gerne links liegen lassen; es passierte bei allen IHVs bei fast allen GPUs der Vergangenheit, nur diesmal wird merkwuergigerweise zu viel an dem Zeug herumgewurstelt.

Blutmaul
2007-02-11, 10:42:11
Mehr Bilder der Karte von Overclokcers:
http://overclockers.com/articles1411/

dargo
2007-02-11, 10:43:19
Blättere bitte paar Seiten zurück. ;(

Blutmaul
2007-02-11, 10:48:05
Jaja gutgut ich streue haupt auf meine Asche...

reunion
2007-02-11, 10:58:14
Hat Nvidia beim G72 für die 7300GS auch so gemacht, während mit dem Vorgänger NV44 noch ein 128-bit-SI möglich war. Kann schon sein, dass ATI hier den Weg von NV einschlägt um die Margen zu erhöhen.

Die Relationen passen einfach nicht. Beim High-End-Core braucht man angeblich einen 512-bit Bus, und im Midrage soll auf einmal ein 128-bit bzw. im Low-End gar ein 64-bit Bus reichen? Was sein könnte, ist höchstens, dass man hier ähnlich wie bei RV515/RV530 beide Chips im Lowendbreich ansiedelt, und erst mit RV660/RV670 im Q3 die "echten" Midragecores mit 256-bit SI vorstellt.

Wobei das angesichts des jetzt schon eingesetzten 65nm Prozesses auch keine Sinn ergibt. An den Margen kanns auch kaum liegen, einen X1950GT auf RV570 Basis bekommt man aktuell mit 512MB VRAM und 256-bit Bus um knapp über 120€: http://geizhals.at/eu/a237118.html

Ailuros
2007-02-11, 11:10:47
Die Relationen passen einfach nicht. Beim High-End-Core braucht man angeblich einen 512-bit Bus, und im Midrage soll auf einmal ein 128-bit bzw. im Low-End gar ein 64-bit Bus reichen? Was sein könnte, ist höchstens, dass man hier ähnlich wie bei RV515/RV530 beide Chips im Lowendbreich ansiedelt, und erst mit RV660/RV670 im Q3 die "echten" Midragecores mit 256-bit SI vorstellt.

Wobei das angesichts des jetzt schon eingesetzten 65nm Prozesses auch keine Sinn ergibt. An den Margen kanns auch kaum liegen, einen X1950GT auf RV570 Basis bekommt man aktuell mit 512MB VRAM und 256-bit Bus um knapp über 120€: http://geizhals.at/eu/a237118.html


Natuerlich passen die Relationen nicht; wie ich gerade bei B3D schrieb braucht man um selbst 50GB/s auf 128bit zu erreichen fast 1.6GHz GDDR4. Unmoeglich ja, aber nichtmal die Haelfte der Bandbreite eines R600.

Also welche hat jetzt zu wenig und welche zu viel Bandbreite? *rennt um sein Leben*

Jetzt mal ernsthaft 256bit/midrange kommt auch fuer NV nicht vor 65nm. Ihr muesst jetzt nur noch definieren was genau "zu viel" und was genau "zu wenig" fuer dieses Jahr sein wird, was wohl genauso fuer die jeweils gelieferte Bandbreite als auch fuer die Speichermenge gilt.

reunion
2007-02-11, 11:36:40
Also welche hat jetzt zu wenig und welche zu viel Bandbreite? *rennt um sein Leben*


Wer sagt dass das stimmt?
Ich sehe zwei Möglichkeiten:
Entweder es läuft ähnlich ab wie bei RV515/RV530, wo mit RV570 ein vernünftiger Midragechip aufgrund der Kosten auch erst später kam. Dagegen spricht, dass man damals auf 80nm warten musste, während diesmal 65nm schon ausreichend weit sein dürfte.

Oder die Meldung von VR-Zone stimmt nicht, und RV630 wird ein halber R600 mit 256-bit SI und RV610 ein geviertelter mit 128-bit SI. RV670 dürfte dann wie RV570 ein dreiviertel R600 fürs Performancesegment werden. Das erscheint mir zurzeit noch wesentlich logischer.


Jetzt mal ernsthaft 256bit/midrange kommt auch fuer NV nicht vor 65nm.

ATi ist aber schon mit RV610/RV630 auf 65nm. Von daher gibt es keinen Grund hier zu zuzuwarten.

Nakai
2007-02-11, 11:57:21
Vll ist der RV630 zu klein für 256Bit.? :|

mfg Nakai

Botcruscher
2007-02-11, 12:00:52
Ich seh hier nur ein großes Informationsdefizit und jede menge Spekulatzius.
Bis jemand nachgemessen hat könnte das Teil genau so gut 300W verbrauchen.:rolleyes:

Ailuros
2007-02-11, 12:02:55
Wer sagt dass das stimmt?
Ich sehe zwei Möglichkeiten:
Entweder es läuft ähnlich ab wie bei RV515/RV530, wo mit RV570 ein vernünftiger Midragechip aufgrund der Kosten auch erst später kam. Dagegen spricht, dass man damals auf 80nm warten musste, während diesmal 65nm schon ausreichend weit sein dürfte.

Oder die Meldung von VR-Zone stimmt nicht, und RV630 wird ein halber R600 mit 256-bit SI und RV610 ein geviertelter mit 128-bit SI. RV670 dürfte dann wie RV570 ein dreiviertel R600 fürs Performancesegment werden. Das erscheint mir zurzeit noch wesentlich logischer.

Tja ich halt mit Absicht noch etwas dicht; zerbeiss Dir aber bloss nicht die Zaehne dass wir momentan wirklich sooo viel Bandbreite im high end brauchen werden *hust*

ATi ist aber schon mit RV610/RV630 auf 65nm. Von daher gibt es keinen Grund hier zu zuzuwarten.

Genauso eben wie R600 auf 80nm ist und trotzdem mehr Strom als G80 verbraucht....:rolleyes:

reunion
2007-02-11, 12:22:42
Tja ich halt mit Absicht noch etwas dicht; zerbeiss Dir aber bloss nicht die Zaehne dass wir momentan wirklich sooo viel Bandbreite im high end brauchen werden *hust*


Warum dann nicht einfach billigen GDDR3 mit bsw. 700Mhz bei R600?
Oder warum dann nicht einfach ein 256-bit SI?
Dass R600 mehr als genug Bandbreite haben wird, sollte klar sein. In Relation zu R580+ wird es allerdings nicht besonders viel sein.


Genauso eben wie R600 auf 80nm ist und trotzdem mehr Strom als G80 verbraucht....:rolleyes:

Der Vergleich ist ja wohl mehr als unpassend. Wenn du sagst nV kommt erst bei 65nm mit einem 256-bit SI im Midragesegment, dann ist das nachvollziehbar, da man mit 80nm natürlich die Kosten nicht zu weit in die Höhe treiben will. Da ATi allerdings mit RV610/RV630 schon auf 65nm ist, sehe ich keinen Grund, hier zu warten.

VooDoo7mx
2007-02-11, 12:27:21
Die Relationen passen einfach nicht. Beim High-End-Core braucht man angeblich einen 512-bit Bus, und im Midrage soll auf einmal ein 128-bit bzw. im Low-End gar ein 64-bit Bus reichen? Was sein könnte, ist höchstens, dass man hier ähnlich wie bei RV515/RV530 beide Chips im Lowendbreich ansiedelt, und erst mit RV660/RV670 im Q3 die "echten" Midragecores mit 256-bit SI vorstellt.

Wobei das angesichts des jetzt schon eingesetzten 65nm Prozesses auch keine Sinn ergibt. An den Margen kanns auch kaum liegen, einen X1950GT auf RV570 Basis bekommt man aktuell mit 512MB VRAM und 256-bit Bus um knapp über 120€: http://geizhals.at/eu/a237118.html

Gleiche hab ich mir auch gedacht. Ich kann mir beim besten Willen nicht vorstellen, dass ein etwaiger X1950 Pro Nachfolger deutlich weniger Speicherbandbreite hat als das aktuelle Modell. Oder sie pappen 1,4GHz DDR4 aufs Mid Range Modell. :ugly:
Und ich hoffe mal nicht das ATi den fehler wie bei den X1300 udn X1600 macht und nur schrottige Mainstreamchips auf den Markt wirft und man wieder ewig warten muss bis vernünftige erscheinen.

Ailuros
2007-02-11, 12:39:48
Der Vergleich ist ja wohl mehr als unpassend. Wenn du sagst nV kommt erst bei 65nm mit einem 256-bit SI im Midragesegment, dann ist das nachvollziehbar, da man mit 80nm natürlich die Kosten nicht zu weit in die Höhe treiben will. Da ATi allerdings mit RV610/RV630 schon auf 65nm ist, sehe ich keinen Grund, hier zu warten.

Ueberhaupt nicht unpassend wenn man an den Stromverbrauch denkt. G8x mainstream@80nm wird es bald geben, G80@90nm eben nicht.

reunion
2007-02-11, 12:42:15
Ueberhaupt nicht unpassend wenn man an den Stromverbrauch denkt. G8x mainstream@80nm wird es bald geben, G80@90nm eben nicht.

Ja, wenn man an den Stromverbauch denkt. Mir geht es aber jetzt um das SI. Warum nicht ein 256-bit SI bei RV630 verbauen, wenn man ohnehin schon auf 65nm ist?

Ailuros
2007-02-11, 12:45:06
Gleiche hab ich mir auch gedacht. Ich kann mir beim besten Willen nicht vorstellen, dass ein etwaiger X1950 Pro Nachfolger deutlich weniger Speicherbandbreite hat als das aktuelle Modell. Oder sie pappen 1,4GHz DDR4 aufs Mid Range Modell. :ugly:
Und ich hoffe mal nicht das ATi den fehler wie bei den X1300 udn X1600 macht und nur schrottige Mainstreamchips auf den Markt wirft und man wieder ewig warten muss bis vernünftige erscheinen.

RV570 ist nicht midrange sonder "Performance". Was fuer eine Busbreite hat denn RV530?

Zusaetzlich wuerde ich erstmal raten die finale Leistung einer RV630 oder G86 zu sehen bevor man irrsinnig mit sterilen Busbreiten/Bandbreiten die Leistung zu definieren versucht. Dass der Unterschied zum high end zu gross ist, ist klar aber die Loesung dieses Raetsels wird ja bald kommen.

Ailuros
2007-02-11, 12:53:38
Ja, wenn man an den Stromverbauch denkt. Mir geht es aber jetzt um das SI. Warum nicht ein 256-bit SI bei RV630 verbauen, wenn man ohnehin schon auf 65nm ist?

Vielleicht weil man die Chipkomplexitaet so stark reduzieren will dass man entweder gleich so viel oder sogar weniger als der direkte Konkurrent verbraucht? Im PC Markt waere es ja schnurz, aber in notebooks dann eben nicht und hier ist ja logischerweise eine intensivere Konzentration von Seiten ATI angesagt.

Ich versuche selber eine Erklaerung zu finden, aber nochmals:

G80@90nm vs. R600@80nm
G86/4@80nm vs. RV630/10@65nm

Wie waere es mit der Idee dass ATI versucht G86/4M mit einer Handumdrehung abzukacken?

Gast
2007-02-11, 13:09:50
Passt aber nicht zu den Buchsen -> 2x 6 Pin + PCIe = 225W, no more...


die 2. buchse ist allerdings eine 8-pin-buchse.

wenn man sieht, dass mit 2x12V (2-molex auf PCIe-6pin) 75W möglich sind, dann sind mit 4x12V 150W, inklusive 2x75W über 6-pin und den PCIe-stecker wären also durchaus 300W möglich.

K4mPFwUr$t
2007-02-11, 13:11:40
aber sehr unrealisitisch, das wäre ja glatt der zweite tejas :|

die 88GTX zieht ja auch nicht 100% von dem was bei ihr möglich wäre.

Gast
2007-02-11, 13:12:54
ATi kann, wenn man das 512-bit SI erhalten will, nur zwischen 512 und 1024 MB VRAM auswählen, da es eben aufgrund des verfügbaren Speichers keine andere Möglichkeit gibt.

zumindest theoretisch gäbe es durchaus auch andere möglichkeiten ;)

AnarchX
2007-02-11, 13:57:23
Vielleicht weil man die Chipkomplexitaet so stark reduzieren will dass man entweder gleich so viel oder sogar weniger als der direkte Konkurrent verbraucht? Im PC Markt waere es ja schnurz, aber in notebooks dann eben nicht und hier ist ja logischerweise eine intensivere Konzentration von Seiten ATI angesagt.


ack.
In die Richtung denke ich auch beim RV630.
ATi will nun endlich wieder einen richtigen Mainstream-Kracher bringen, wie es in der Vergangenheit der RV350/360 war, der sowohl im Desktop als auch in der Mobilenvariante sich sehr oft verkaufte.
Und hier versucht man mit einem guten Preis und einem niedrigen Verbrauch zu punkten.

Nakai
2007-02-11, 14:30:58
Dann müsste er aber etwas schneller als die X1950PRO werden, wenigstens ohne Qualitätfeatures.

mfg Nakai

AnarchX
2007-02-11, 14:36:56
Dann müsste er aber etwas schneller als die X1950PRO werden, wenigstens ohne Qualitätfeatures.


Wenn es ein halber R600 mit 128Bit ist, sollte das eigentlich kein Problem sein.
Mit GDDR4 würde er auch nicht unbeding so sehr weit bei der Bandbreite zurückliegen.

Und wie Ailuros schon sagte brauch ATi langsam mal wieder einen guten Mobilechip, mehr als einen zu langsamen RV530 oder einen zu viel verbrauchenden RV570 hat man ja momentan nicht.

reunion
2007-02-11, 15:16:24
Wenn es ein halber R600 mit 128Bit ist, sollte das eigentlich kein Problem sein.


Ich glaube nicht, dass es ein halber R600 ist. Dazu wäre das 128-bit SI schlicht unterdimensioniert. Es macht keinen Sinn, den Chip zu halbieren, und das SI zu vierteln. Die Lücke zu R600 wäre riesig. Gerade in punkto Stromverbrauch wäre ein breiteres SI mit niedriger getaktetem Speicher sicherlich sinnvoller. IMHO wird RV630 ein 1/4 R600 und RV610 ein 1/8 R600 mit Preisen von <200$ bzw. <100$. Ähnlich wie damals mit RV515/RV530 wird man zuerst das Lowend-Segment ausreichend abdecken wollen, wo das meiste Geld zu holen ist. Und RV660 bzw. RV670 werden dann eben 1/2 bzw. 3/4 R600.

Ailuros
2007-02-11, 17:10:51
Ich glaube nicht, dass es ein halber R600 ist. Dazu wäre das 128-bit SI schlicht unterdimensioniert. Es macht keinen Sinn, den Chip zu halbieren, und das SI zu vierteln. Die Lücke zu R600 wäre riesig. Gerade in punkto Stromverbrauch wäre ein breiteres SI mit niedriger getaktetem Speicher sicherlich sinnvoller. IMHO wird RV630 ein 1/4 R600 und RV610 ein 1/8 R600 mit Preisen von <200$ bzw. <100$. Ähnlich wie damals mit RV515/RV530 wird man zuerst das Lowend-Segment ausreichend abdecken wollen, wo das meiste Geld zu holen ist. Und RV660 bzw. RV670 werden dann eben 1/2 bzw. 3/4 R600.

Ist zwar schoen und gut, aber ueberzeuge mich mit dem obrigen im Hinterkopf dass sich die RV530 vs. G73 Geschichte unter solchen Vorraussetzungen nicht wiederholen wird.

RV530 hatte ja auch nur einen quad/4 TMUs mit aber 12 ALUs und bis zur Erscheinung von RV560 (was eine ziemlich grosse Zeitspanne war) hat den ersten G73 ziemlich angenehm zersaegt.

Was sollen mir zukuenftige "Performance" Teile genau erzaehlen wenn sie genauso spaet ankommen wie RV570 bzw. RV560 und die Konkurrenz in der Zwischenzeit fett abkassiert hat?

Es ist eine total andere Geschichte aus welchem Grund man jegliche GPU so oder so ausstattet und ob die gesamte Produktpallette fuer optimalere Skalierung ausgelegt ist. RV530 durfte nur einen Quad haben weil sonst die Chipkomplexitaet zum Fenster hinaus geschossen waere.

G73 = 177M
RV530 = 157M
RV560/570 = 330M (und ja das Zeug gehoert in eine andere Kategorie)

Wird ein RV630 so wie Du ihn beschreibst wirklich die Schlacht gegen einen G86 gewinnen koennen? Um das geht es dann eher....

reunion
2007-02-11, 17:38:49
Ist zwar schoen und gut, aber ueberzeuge mich mit dem obrigen im Hinterkopf dass sich die RV530 vs. G73 Geschichte unter solchen Vorraussetzungen nicht wiederholen wird.

RV530 hatte ja auch nur einen quad/4 TMUs mit aber 12 ALUs und bis zur Erscheinung von RV560 (was eine ziemlich grosse Zeitspanne war) hat den ersten G73 ziemlich angenehm zersaegt.

Was sollen mir zukuenftige "Performance" Teile genau erzaehlen wenn sie genauso spaet ankommen wie RV570 bzw. RV560 und die Konkurrenz in der Zwischenzeit fett abkassiert hat?


Der Unterschied ist, dass man diesmal nicht auf einen kleineren Fertigungsprozess warten muss wie bei RV570 mit 80nm.
Deshalb wird die Zeitspanne wesentlich kürzer sein. Ich erwarte RV670 spätestens im Q3.


Es ist eine total andere Geschichte aus welchem Grund man jegliche GPU so oder so ausstattet und ob die gesamte Produktpallette fuer optimalere Skalierung ausgelegt ist. RV530 durfte nur einen Quad haben weil sonst die Chipkomplexitaet zum Fenster hinaus geschossen waere.

G73 = 177M
RV530 = 157M
RV560/570 = 330M (und ja das Zeug gehoert in eine andere Kategorie)


Ja, die Situation bei RV530 war natürlich eine sehr spezielle durch die Anhebung der ALU-Anzahl. Deshalb senke ATi auch sehr schnell den Preis der X1600 und kam mit der X1800GTO, die natürlich wesentlich teurer herzustellen war, wie G73.


Wird ein RV630 so wie Du ihn beschreibst wirklich die Schlacht gegen einen G86 gewinnen koennen? Um das geht es dann eher....

Das kommt darauf an, was G86 wird. nV wird ja durch den 80nm Prozess auch sehr sparsam mit der Chipkomplexitaet umgehen müssen, wenn man sich die Größe von G80 vor Augen hält. Mehr als ein 128-bit SI wird es hier auch nicht werden, und ob man sonst nicht auch noch was beschneidet? - Wer weiß.

Ailuros
2007-02-11, 18:04:05
Der Unterschied ist, dass man diesmal nicht auf einen kleineren Fertigungsprozess warten muss wie bei RV570 mit 80nm.
Deshalb wird die Zeitspanne wesentlich kürzer sein. Ich erwarte RV670 spätestens im Q3.

Beide IHVs projezieren und erhoffen stets auch vieles, aber es laeuft fast nie nach Plan heutzutage. Wie dem auch sei RV670 muss zumindest in Q3 kommen, sonst lassen sie G92 wieder ein freies Spielfeld.

Ja, die Situation bei RV530 war natürlich eine sehr spezielle durch die Anhebung der ALU-Anzahl. Deshalb senke ATi auch sehr schnell den Preis der X1600 und kam mit der X1800GTO, die natürlich wesentlich teurer herzustellen war, wie G73.

Was aber wiederrum heissen koennte dass RV630 zu stark kastriert sein koennte im Vergleich zur Konkurrenz.

Das kommt darauf an, was G86 wird. nV wird ja durch den 80nm Prozess auch sehr sparsam mit der Chipkomplexitaet umgehen müssen, wenn man sich die Größe von G80 vor Augen hält. Mehr als ein 128-bit SI wird es hier auch nicht werden, und ob man sonst nicht auch noch was beschneidet? - Wer weiß.

G73 hatte nichtmal die Transistoren-Sparmassnahmen des G71, deshalb auch der merkwuerdige Unterschied von 278M auf 177M; mit der Anzahl der Einheiten des G73, haetten sie auch auf ca. 140M rutschen koennen und da wurden tatsaechlich Entwicklungs-Unkosten gespart.

G86 ist ein klein bisschen weniger als ein "halber G80" deshalb haetten Dir die spekulierten ~300M Transistoren keinen besonderen Eindruck machen sollen.

AnarchX
2007-02-11, 18:08:55
sonst lassen sie G92 wieder ein freies Spielfeld.

Interessant... ;)

Wenn ATi schon in 65nm fertigen kann, kann ich es mir nicht vorstellen, dass der RV630 nur ein 1/4er R600 sein soll.
Ich denke einfach es muss ein halber R600 der wahrscheinlich mit 128Bit SI ausgestattet ist, der die für ihn sinnvolle Bandbreite durch GDDR4 erreicht.
Die ~150GB des R600XTX sind imo eher ein Papierfeature um einen Kaufanreiz gegenüber dem G80/G90 zu schaffen und sind zudem auch wohl in Richtung Profibereich abgezielt.

Nakai
2007-02-11, 18:12:39
Die neue Geforceserie soll ja schon in diesem Jahr kommen. Manche Insider sprechen vom Knickbruchs ATIs. Halte ich für übetrieben, da der G90 über eine PPU verfügen soll.

mfg Nakai

AnarchX
2007-02-11, 18:14:19
Physic Processing kann man doch auch schon so mit den ALUs realisieren, für was brauch man da noch eine PPU?
Der G80 hat schon die "Quantum Physic Engine".;)

Nakai
2007-02-11, 18:29:51
Aber ein extra Sektor für Physikprocessing nicht oder?;)

mfg Nakai

Coda
2007-02-11, 18:33:02
Es wird garantiert keine separate PPU geben. G80 ist als Streamprozessor so flexibel genug dafür per CUDA.

Nakai
2007-02-11, 18:39:40
Sind die G80-Einheiten wirklich so perfekt für Physik ausgelegt?

mfg Nakai

LeChuck
2007-02-11, 18:40:28
Argh wie lang wird das Teil denn nun?
30 oder 34cm?
Von jedem hört man was anderes :)

reunion
2007-02-11, 18:41:21
Beide IHVs projezieren und erhoffen stets auch vieles, aber es laeuft fast nie nach Plan heutzutage. Wie dem auch sei RV670 muss zumindest in Q3 kommen, sonst lassen sie G92 wieder ein freies Spielfeld.


Natürlich weiß man nicht, ob alles nach Plan läuft, aber das gilt für nV ebenso. Interessant find ich deinen Codename; will nV wirklich die gesamten 65nm Chips als neue Generation vermarkten, oder ist da doch mehr im Busch?


Was aber wiederrum heissen koennte dass RV630 zu stark kastriert sein koennte im Vergleich zur Konkurrenz.


Könnte es, ja. Allerdings dürfte das Teil dank 65nm verdammt billig herzustellen sein, und RV670 sollte auch nicht mehr lange brauchen.


G86 ist ein klein bisschen weniger als ein "halber G80" deshalb haetten Dir die spekulierten ~300M Transistoren keinen besonderen Eindruck machen sollen.

Ja, ich ging damals davon aus, dass der Chip wirklich ein vollwertiger 1/2 G80 ist.

Argh wie lang wird das Teil denn nun?
30 oder 34cm?
Von jedem hört man was anderes :)

24.13cm.

Sind die G80-Einheiten wirklich so perfekt für Physik ausgelegt?

mfg Nakai

Schon ein R580 wäre sehr gut für Physik geeigent.

AnarchX
2007-02-11, 18:41:57
Argh wie lang wird das Teil denn nun?
30 oder 34cm?
Von jedem hört man was anderes :)

9.5" bzw. 24cm ist die Retail-Karte lang.

LeChuck
2007-02-11, 18:44:24
9.5" bzw. 24cm ist die Retail-Karte lang.

Retail bedeutet, was anderes wird man nie zu kaufen bekommen?

robbitop
2007-02-11, 18:46:57
Ja, ich ging damals davon aus, dass der Chip wirklich ein vollwertiger 1/2 G80 ist.
Was fehlt ihm denn?

AnarchX
2007-02-11, 18:47:59
Retail bedeutet, was anderes wird man nie zu kaufen bekommen?

Naja, es kann auch sein dass wie bei der 7900GX2 auch ein paar der 34cm-Monster in den Retail-Channel kommen, aber die "X2900XT(X)" die der Öffentlichkeit vorgestellt und für den normalen Handel bestimmt ist, wird nur 24.13cm lang sein.

reunion
2007-02-11, 18:48:00
Ich denke einfach es muss ein halber R600 der wahrscheinlich mit 128Bit SI ausgestattet ist, der die für ihn sinnvolle Bandbreite durch GDDR4 erreicht.
Die ~150GB des R600XTX sind imo eher ein Papierfeature um einen Kaufanreiz gegenüber dem G80/G90 zu schaffen und sind zudem auch wohl in Richtung Profibereich abgezielt.

Beide deiner Argumente ergeben IMHO keine Sinn. Wenn man auf den Profibereich abziehlt, dann kann man ja bei den FireGL-Karten gerne die Bandbreite erhöhen, deshalb braucht man aber nicht im Desktopsegment sinnlos Geld verschwenden. Und rein aus marketingtechnischen Gründen halte ich das auch nicht für realistisch. Die wenigsten Käufer machen sich die Mühe, soetwas zu vergleichen, und daraus dann die Kaufentscheidung zu treffen.

Was fehlt ihm denn?

Ich weiß es nicht. Das SI scheint ja schonmal auf 128-bit begrenzt zu sein.

Gast
2007-02-11, 18:52:00
Sind die G80-Einheiten wirklich so perfekt für Physik ausgelegt?Das nicht. Aber sie sind so flexibel, dass man damit auch Physik berechnen könnte.

AnarchX
2007-02-11, 18:53:31
Beide deine Argumente ergeben IMHO keine Sinn. Wenn man auf den Profibereich abziehlt, dann kann man ja bei den FireGL-Karten gerne die Bandbreite erhöhen, deshalb braucht man aber nicht im Desktopsegment sinnlos Geld verschwenden. Und rein aus marketingtechnischen Gründen halte ich das auch nicht für realistisch. Die wenigsten Läufer machen sich die Mühe, soetwas zu vergleichen.

Wer sagt denn das hier Geld verschwendet wird?
GDDR4 ist nun in großen Mengen erhältlich und wird wohl preislich nicht soweit über dem GDDR3 liegen, warum sollte man also nicht auf diesen zurückgreifen?

Und ganz sinnlos ist die Bandbreite natürlich nicht, wie schon oft erwähnt wird sich dadurch der R600XTX eben in sehr hohen Auflösungen + hohem AA nochmal ordentlich von der 8800GTX abheben können.

Aber dies ist für eine Mainstream-GPU wie dem RV630 doch nicht relevant, da man hier eben für eine Mainstream-Auflösung wie es 1280x1024 ist eben konzipiert.

reunion
2007-02-11, 19:00:05
Aber dies ist für eine Mainstream-GPU wie dem RV630 doch nicht relevant, da man hier eben für eine Mainstream-Auflösung wie es 1280x1024 ist eben konzipiert.

Das ist zwar nicht ganz unrichtig, und deshalb haben Midragechips in der Regel auch ein etwas höheres Füllraten-/Bandbreitenverhältnis. Hier wäre der Bandbreitenunterschied allerdings schon eklatant, und würde den Rahmen im Vergleich zu früheren Produkten bei weitem sprengen. Ich glaube bei einem 128-bit SI nicht an einen halben R600.

robbitop
2007-02-11, 19:09:08
Was ist denn "perfekt für Physik ausgelegt"? Dazu muss hauptsächlich ein drei Komponenten Vektor berechnet werden können und es sollten dyn Sprünge im Code möglich sein. Das alles bietet R5xx und G8x auf jeden Fall.

Hvoralek
2007-02-11, 21:09:12
Was fehlt ihm denn?Bei einem 128- bit- SI wären es nur zwei ROP- Blöcke ggü sechs beim "ganzen" G80.

Gast
2007-02-11, 21:12:50
hmmm

st es nicht an der zeit den thread zu schließen und einen neuen thread zu eröffnen? die 50 seiten grenze ist erreicht....

deekey777
2007-02-11, 21:17:49
hmmm

st es nicht an der zeit den thread zu schließen und einen neuen thread zu eröffnen? die 50 seiten grenze ist erreicht....
Ist ja gut.:biggrin:
Und jetzt ernst:
Ich bitte Euch die Diskussion auf Wesentliches einzuschränken. Keine Ausflüge in die Vergangenheit, keine unnötige Diskussion über den Stromverbrauch.

Coda
2007-02-11, 21:44:56
Was ist denn "perfekt für Physik ausgelegt"? Dazu muss hauptsächlich ein drei Komponenten Vektor berechnet werden können und es sollten dyn Sprünge im Code möglich sein. Das alles bietet R5xx und G8x auf jeden Fall.
PhysX ist 5D. Ist bei scalaren ALUs aber eh bums.

Ailuros
2007-02-11, 21:56:27
Natürlich weiß man nicht, ob alles nach Plan läuft, aber das gilt für nV ebenso. Interessant find ich deinen Codename; will nV wirklich die gesamten 65nm Chips als neue Generation vermarkten, oder ist da doch mehr im Busch?

Du weisst genau dass ich nur dass herausrutschen lasse was ich gerade will. NV4x und G7x gehoerten auch zur gleichen Generation.

Könnte es, ja. Allerdings dürfte das Teil dank 65nm verdammt billig herzustellen sein, und RV670 sollte auch nicht mehr lange brauchen.

Wann wurde RV530 und wann RV570/560 vorgestellt? Damit man so ein Teil mit einem MSRP rund um die $300 erstmal verkaufen kann, muessen sich die Margen und Herstellungsprozesse doch etwas ausreifen oder? Der angebliche "RV670" ist ja momentan lediglich eine Erfindung von ein paar hardcore fans die sich sonst nicht anders RV6x0 erklaeren koennen.

Q3 ist verdammt optimistisch wenn Du die Zeitspanne zwischen RV530 und RV560/70 ausrechnest.

Ja, ich ging damals davon aus, dass der Chip wirklich ein vollwertiger 1/2 G80 ist.

Wieviel ROP partitions eines G80 braeutest Du theoretisch fuer 128bit? (aber Vorsicht mit dem ALU count)

VooDoo7mx
2007-02-11, 22:34:31
Ne Geforce 8600GT mit 4 G80 Clustern hätten doch ein 192Bit Speicherinterface oder?
(Jetzt einmal ohne zu wissen ob der verbaute Chip wirklich 4 Cluster hat, ich gehe aber mal ganz stark davon aus)

Nvidia könnte auf so einen Board im vergelich zur Radeon X2600XT deutlich günstigeren Speicher verbauen und gleiche die Bandbreite erreichen. DAs kommt auch den Stromverbrauch einer solchen Karte zu gute.

Irgendwie glaub ich, dass sich die Situation vom X1800/X1600/X1300 Launch in etwa wiederholen wird.
R600XTX wird sicher die 8800GTX deutlich überflügeln. Vom RV610 und RV630 erwarte ich eher mittlemäßige Produkte mit einen schlechten Performance/watt Ratio.
Das Performance Segment wird wohl ATi erst einmal mit teildefekten R600 abdecken.

LovesuckZ
2007-02-11, 22:43:41
Ne Geforce 8600GT mit 4 G80 Clustern hätten doch ein 192Bit Speicherinterface oder?
(Jetzt einmal ohne zu wissen ob der verbaute Chip wirklich 4 Cluster hat, ich gehe aber mal ganz stark davon aus)


Nein, das muss nicht sein. Der Memory-Controller ist mit den ROP-Partionen verbunden. Es kann auch einen G80 mit 8 Cluster und einen 64bit Speicherinterface geben.

reunion
2007-02-11, 23:13:21
Du weisst genau dass ich nur dass herausrutschen lasse was ich gerade will. NV4x und G7x gehoerten auch zur gleichen Generation.


Man kann es ja versuchen. :)
Aber im grunde hast du die Antwort mit dem NV4x und G7x Vergleich ja schon fast gegeben.


Wann wurde RV530 und wann RV570/560 vorgestellt? Damit man so ein Teil mit einem MSRP rund um die $300 erstmal verkaufen kann, muessen sich die Margen und Herstellungsprozesse doch etwas ausreifen oder?


Die Zeitspanne zwischen RV530 und RV570 kam deshalb zustande, weil man auf den 80nm Prozess warten musste, da RV570 sonst zu teuer geworden wäre. Jetzt dürfte allerdings der 65nm Prozess schon weit genug sein für Q3, sonst wären RV610/630 gar nicht möglich.


Der angebliche "RV670" ist ja momentan lediglich eine Erfindung von ein paar hardcore fans die sich sonst nicht anders RV6x0 erklaeren koennen.


Wenn RV630 wirklich eher ein Lowend-Produkt ist, dann kommt bestimmt auch etwas fürs Mainstream- und Performancesegment.


Wieviel ROP partitions eines G80 braeutest Du theoretisch fuer 128bit? (aber Vorsicht mit dem ALU count)

Warum fragst du? Pro ROP-Cluster hat man AFAIK einen 64-bit breiten Bus, also zwei.

deekey777
2007-02-11, 23:24:39
Irgendwie finde ich es seltsam, dass seit einigen Tagen Infos bezüglich des Stromverbrauchs der Neuen auftauchen, die Speicheraustattung, dazu das Bild der Monster-OEM-R600... Irgendwie entsteht falscher Eindruck. Nicht falsch, sondern ein halbwahrer Eindruck. Wenn man so viele Infos über den Verbrauch der kommenden Generation, aber kein Wort über die Fähigkeiten des R600 selbst.

Irgendwie seltsam...

VooDoo7mx
2007-02-11, 23:29:08
Nein, das muss nicht sein. Der Memory-Controller ist mit den ROP-Partionen verbunden. Es kann auch einen G80 mit 8 CLuster und einen 64bit Speicherinterfaqce geben.

Ich wusste das ich da falsch liege.
Ich hole gerade den G80 Artikel von aths nach. :ugly:

Also wenn ich das richtig verstehe, sind die ROP Partitionen von den Shader (und TMU) Clustern losgelöst und jeweils mit einen 64 Bit Interace verbunden.
Ich dachte immer, die hängen mit den Clustern zusammen. :ugly:
Wieviele ROPs sind beim G80 eigentlich in einer "ROP Partition"?

Sind 2 Rop Partitionen für die GF8600 realistisch? Wenn man vom halben G80 ausgeht wären das immer noch 3 also nen 192Bit Speicherinterface. ;)
In welchen größen gibt es eigentlich GDDR3 + GDDR 4 Chips?
:ugly:

Irgendwie finde ich es seltsam, dass seit einigen Tagen Infos bezüglich des Stromverbrauchs der Neuen auftauchen, die Speicheraustattung, dazu das Bild der Monster-OEM-R600... Irgendwie entsteht falscher Eindruck. Nicht falsch, sondern ein halbwahrer Eindruck. Wenn man so viele Infos über den Verbrauch der kommenden Generation, aber kein Wort über die Fähigkeiten des R600 selbst.


Vielleicht streut jemand gezielt Negativ- und Falschinformationen über den R600.
Denkbar wäre es. Selbst die Bidler vom Board könnten irgendwelche Uralt Samples oder sogar was "ganz anderes" sein.

Ailuros hat es ja schon etwas angedeutet. Man soll nicht jeden dummen Mist fressen. Besonders nicht die Angaben zur Verlustleistung.

Wenn ich mir die Kühlerkonstruktion da anschaue kann ich mir beim besten willen nicht vorstellen, wie dieses Teil über 270 Watt abführen kann.
270 Watt überhaupt bei einer Luftkühlung sind eigentlich unmöglich. Wenn wir uns mal die alten stromfressenden Smithfield Pentium D anschauen... die waren bei 130 Watt und waren mit ähnlich vulominösen Kühlern kaum noch unter Kontrolle zu bringen.
Selbst ne Dicke Wakü dürfte mit 270Watt in ärgste Bedrängnis kommen.

EIn R600XTX Board wird sicherlich mehr verbrauchen als GF8800GTX. Aber nicht 130Watt mehr.
Wenn man die angeblichen Daten zum OEM Board nimmt, verbuacht eine R600XTX so viel wie 2 GF8800GTX. Das kann ich beim besten willen nicht glauben. Es sei denn, ein R600 Chip hat über ne Milliarde Transistoren. :ugly:

Coda
2007-02-12, 00:26:14
ROP und Speicherinterface sind aber eigentlich miteinander verflochten und ich denke dass man da auch immer 64-Bit pro ROP anpeilt (die ROPs sind ja schließlich auch auf eine bestimmte Speicherbandbreite angepasst).

Also für 128-Bit bräuchte man 2 ROPs.

Die gelbe Eule
2007-02-12, 00:47:33
http://www.gecube.com/cms_file.php?id=2115

Sowas geht auch für einen R600 klar, der G80 hat es auch bei Sparkle.
http://www.alternate.de/pix/prodpic/450x450/j/jbxkg2.jpg
TEC ftw!
Dabei sind die Fans unter 20db "laut".
Aber leider plant man bei ATi mit Wasserkühlungen in Zukunft.

Coda
2007-02-12, 01:08:17
Ja genau Eule. Is klar. Wir führen 200W per Pelztier ab (nochmal 100W oben drauf). FTW! Omg...

StefanV
2007-02-12, 01:28:54
Ja genau Eule. Is klar. Wir führen 200W per Pelztier ab (nochmal 100W oben drauf). FTW! Omg...
Das wären eher 150-200W :ugly:

Die Teile sind furchtbar ineffizient für Leistungsbauteile, da kann man pi mal Daumen sagen, das man die doppelte Leistung von dem braucht was abgeführt werden soll, damit die einigermaßen effizient arbeiten.
Dazu kommt noch, das sie nur gut sind, wenn die eigene Temperatur möglichst gering ist...

Unterm strich: Die Teile taugen ev. für KFZ Kühlschränke, wo sie Speisen etwas kühlen sollen (da werden sie auch oft eingesetzt), im PC haben die nun wirklich garnichts zu suchen, da arbeitet man besser mit Heatpipes...

Allerdings hat man dann wieder das Problem: wohin damit?!
Rückseite geht nicht, vorderseite ist schon, seite ist auch bekloppt...
Und flexibel sind die Teile auch nicht...


Das ist momentan das Problem bei ATX, BTX und sonstigen Formen, man kann zwar auf die CPU 'nen ziemlich fetten Kühler mit 120mm Lüfter pappen, bei GraKas aber nicht, da einfach keine Kühlung vorgesehen war, ursprünglich...

Nur was will man da machen?!
Richtig, externe Lösungen, was anderes bleibt nicht, wenn man alles entsorgen muss...

Wobei man hier sich um Specs kloppen kann oder drauf scheißen, nur müsst man dann auch noch was mit dem NT einfallen lassen denn das braucht man auch noch, genau wie ein Gehäuse...

Die gelbe Eule
2007-02-12, 03:08:49
http://www.techpowerup.com/printreview.php?id=/GeCube/X1950Pro_Champion

236W mit dem Testsystem. Man kann also sagen 50-100W extra, eine XTX genehmigt sich nur 20W weniger mit Stockkühler.

Atma
2007-02-12, 03:12:35
Irgendwie finde ich es seltsam, dass seit einigen Tagen Infos bezüglich des Stromverbrauchs der Neuen auftauchen, die Speicheraustattung, dazu das Bild der Monster-OEM-R600... Irgendwie entsteht falscher Eindruck. Nicht falsch, sondern ein halbwahrer Eindruck. Wenn man so viele Infos über den Verbrauch der kommenden Generation, aber kein Wort über die Fähigkeiten des R600 selbst.

Irgendwie seltsam...
Vielleicht will ATi die Leistungsfähigkeit bis zum Schluss Geheim halten um dann die Bombe Platzen zu lassen. Es kann aber auch sein das man bereits jetzt schon bei ATi sicher ist das der R600 es nicht mit dem G80 aufnehmen kann ;) Wer weis, wer weis...

seahawk
2007-02-12, 06:59:27
Es kann auch sein, dass

a) es noch keinen Press-Day gab
b) ATI die Leute, die alles wissern, mit schönen und wasserdichten NDAs versorgt hat
c) beides

PS. Der Kühler ohne Peltier und mit mehr Heatpipies hingegen wäre imho durchaus denkbar. Man darf nicht vergessen, dass die 200+W nicht nur vom GPU abgeführt werden mpssen, sondenr der Gesamtverbracuh des Boards ist.

Die gelbe Eule
2007-02-12, 07:34:29
Es ist halt so wie bei der X19XX, NV kann abwarten und mal wieder nachlegen, nur diesmal mit gleicher BQ. Weil jede jetzt verkaufte NV DX10 Karte, ist eine weniger für ATi und das bleibt ja noch ein paar Wochen so. Ich glaube dieser eine Refresh voraus, entscheidet über das Kaufverhalten in Zukunft. Aber der Pressday kommt bestimmt erst zur Cebit, sonst würde man sich nicht so sehr darauf fokussieren.

Ailuros
2007-02-12, 08:25:17
Man kann es ja versuchen. :)
Aber im grunde hast du die Antwort mit dem NV4x und G7x Vergleich ja schon fast gegeben.

NV40/NV42 (jetzt ist es noch klarer ;) )

Die Zeitspanne zwischen RV530 und RV570 kam deshalb zustande, weil man auf den 80nm Prozess warten musste, da RV570 sonst zu teuer geworden wäre. Jetzt dürfte allerdings der 65nm Prozess schon weit genug sein für Q3, sonst wären RV610/630 gar nicht möglich.

RV570 hat die R580 boards mit abgeschalteten Einheiten ersetzt. Soll das angebliche R670 Teil jetzt ein R600 Ableger in diesem Sinn sein oder ein chip der von Grund auf mit einem 256bit Bus und 2 R600 Clusters ausgestattet ist sein?

Wenn RV630 wirklich eher ein Lowend-Produkt ist, dann kommt bestimmt auch etwas fürs Mainstream- und Performancesegment.

Mainstream und Performance gehoeren nicht in den gleichen Topf, deshalb auch meine Fragen. Wie soll denn der Strassenpreis von RV630 aussehen? Denn Vorsicht wenn die Antwort $150-200 lauten sollte, dann ist es ein reines Mainstream Teil und direkte Konkurrenz zu G86.

Warum fragst du? Pro ROP-Cluster hat man AFAIK einen 64-bit breiten Bus, also zwei.

Theoretisch sind aber 8 ROPs nur noch 1/3 von 24 oder? ;)

Ailuros
2007-02-12, 08:34:02
Also wenn ich das richtig verstehe, sind die ROP Partitionen von den Shader (und TMU) Clustern losgelöst und jeweils mit einen 64 Bit Interace verbunden.
Ich dachte immer, die hängen mit den Clustern zusammen. :ugly:
Wieviele ROPs sind beim G80 eigentlich in einer "ROP Partition"?

Sind 2 Rop Partitionen für die GF8600 realistisch? Wenn man vom halben G80 ausgeht wären das immer noch 3 also nen 192Bit Speicherinterface. ;)
In welchen größen gibt es eigentlich GDDR3 + GDDR 4 Chips?
:ugly:

6 ROP Partitions auf G80, 64bit pro Partition und jeweils 4 ROPs. Und ja da G86 mit 128bit Busbreite ankommen wird, machen nur zwei ROP Partitions eigentlich Sinn.

Vielleicht streut jemand gezielt Negativ- und Falschinformationen über den R600.
Denkbar wäre es. Selbst die Bidler vom Board könnten irgendwelche Uralt Samples oder sogar was "ganz anderes" sein.

Dass es diesmal mit Absicht passiert bezweifle ich. Die asiatischen Seiten reichen ja in letzter Zeit jeglichen Mist vorzeitig weiter, ein Trend den wohl beide IHVs nicht gerne sehen.

Ailuros hat es ja schon etwas angedeutet. Man soll nicht jeden dummen Mist fressen. Besonders nicht die Angaben zur Verlustleistung.

Etwa 40-50W mehr als G80 afaik.

Die gelbe Eule
2007-02-12, 09:04:38
Also fast 200W? Sind das ATi Angaben oder reale Werte? Für XT oder XTX?
Weil zwischen GTS und GTX liegen ja auch 30W.

robbitop
2007-02-12, 09:22:00
PhysX ist 5D. Ist bei scalaren ALUs aber eh bums.
Wieso 5D? Ich brauche für Bernoulli nur 3 Komponenten und selbst für Eulerwinkel nur 3.

dargo
2007-02-12, 10:08:45
Wenn ich mir die Kühlerkonstruktion da anschaue kann ich mir beim besten willen nicht vorstellen, wie dieses Teil über 270 Watt abführen kann.
270 Watt überhaupt bei einer Luftkühlung sind eigentlich unmöglich. Wenn wir uns mal die alten stromfressenden Smithfield Pentium D anschauen... die waren bei 130 Watt und waren mit ähnlich vulominösen Kühlern kaum noch unter Kontrolle zu bringen.
Selbst ne Dicke Wakü dürfte mit 270Watt in ärgste Bedrängnis kommen.

Du kannst eine Grafikkarte nicht mit einer CPU vergleichen wenns um den Stromverbrauch geht. Eine Grafikkarte besteht nicht nur aus der GPU, da kommt noch der Vram und die Stromversorgung hinzu. Je nachdem wie effizient die Stromversorgung arbeitet kann das schon einige Watt ausmachen. Natürlich sind die 270W Blödsinn. :)

Super Grobi
2007-02-12, 10:12:47
Ich tippe mal darauf, das über 100°C GPU bei der Karte normal sind und man damit einen Toaster im dauerbetrieb in seinen PC hat.

So kann das nicht weitergehend! Die Karten werden immer wärmer und länger....

SG

LovesuckZ
2007-02-12, 10:14:27
So kann das nicht weitergehend! Die Karten werden immer wärmer und länger....


Das ist ganz normal, wenn man mehr Leistung haben will. :rolleyes:

dargo
2007-02-12, 10:17:08
Etwa 40-50W mehr als G80 afaik.
A13 oder A15? :devil:

Super Grobi
2007-02-12, 10:17:34
Das ist ganz normal, wenn man mehr Leistung haben will. :rolleyes:

Seh ich anders. Grakas gibts nicht erst seit 2 Jahren und "damals" gabs auch mehr Leistung bei gleicher Größe. Klar ist eine Riva128 kleiner als eine 9800 Pro ... etc. aber man mss auch irgentwann mal umdenken und dann die Karten auf "zwei Etagen" bauen.

Solch lange Viecher sind ja kaum jemanden zu zumuten.

SG

seahawk
2007-02-12, 10:23:04
A13 oder A15? :devil:

OEM :biggrin: - wobei ich mir von A15 auch keine Wunder erwarten würde.

Die gelbe Eule
2007-02-12, 10:24:31
Da schlimmste was passieren kann, daß die Klientel einfach dafür kleiner wird und somit verkaufen sich diese Monster einfach weniger. Irgendwann hat jeder schon seinen 1.5k€ PC zusammengestellt, das kann man dann nicht alle 4 Monate verlagen, also Umrüstung nur damit die neue Karte rennen bzw. passen darf.

Paul Brain
2007-02-12, 10:42:13
Letztens erst eine alte Millennium in den Händen gehabt: Das waren noch Zeiten, nichtmal ein Passivkühler auf der Karte, einfach nur das Kunststoff-Chip-Package. Und das Ding wird grad mal handwarm...
Und so ein Pentium-133-Kühler von damals taugt heutzutag grad mal als Spannungswandlerkühler :hammer:

Wenn wir alle mit geringerer Leistung leben könnten wär auch ein Kühlkonzept von vor 10 Jahren wieder drin. Aber das ist halt der Nachteil des Wettbewerbs: es wird alles auf Kante gebaut nur um ja schneller und besser zu sein als der Mitbewerb...

Ailuros
2007-02-12, 10:43:29
OEM :biggrin: - wobei ich mir von A15 auch keine Wunder erwarten würde.

*kopfschuettel*

Ailuros
2007-02-12, 10:47:32
Letztens erst eine alte Millennium in den Händen gehabt: Das waren noch Zeiten, nichtmal ein Passivkühler auf der Karte, einfach nur das Kunststoff-Chip-Package. Und das Ding wird grad mal handwarm...
Und so ein Pentium-133-Kühler von damals taugt heutzutag grad mal als Spannungswandlerkühler :hammer:

Wenn wir alle mit geringerer Leistung leben könnten wär auch ein Kühlkonzept von vor 10 Jahren wieder drin. Aber das ist halt der Nachteil des Wettbewerbs: es wird alles auf Kante gebaut nur um ja schneller und besser zu sein als der Mitbewerb...

Passive gekuehlte GPUs mit relativ kleinem Stromverbrauch wie die alte Millenium gibt es auch heute. Es ist ja nicht so dass die Matrox fuer viel mehr als 2D taugte und fuer den Fall gibt es ~50 Euro X1300 oder dergleichen GPUs mit denen man genauso viel (wenn nicht um einiges mehr) anrichten kann.

seahawk
2007-02-12, 10:57:37
*kopfschuettel*

:confused: :confused:

Ailuros
2007-02-12, 11:03:02
Offensichtlicher kann ich es gar nicht machen; wen schert denn ueberhaupt die OEM Version?

Paul Brain
2007-02-12, 11:10:04
Passive gekuehlte GPUs mit relativ kleinem Stromverbrauch wie die alte Millenium gibt es auch heute. Es ist ja nicht so dass die Matrox fuer viel mehr als 2D taugte und fuer den Fall gibt es ~50 Euro X1300 oder dergleichen GPUs mit denen man genauso viel (wenn nicht um einiges mehr) anrichten kann.
Stimmt. ABER: Die Millennium war zu ihrer Zeit High-End, mit einer X1300 läuft grad mal Aeroglass mehr schlecht als recht (je nach Speicherausstattung der Karte)...
An Spielen mit einer X1300 mag ich gar nicht mal denken...

themk
2007-02-12, 11:10:25
Passive gekuehlte GPUs mit relativ kleinem Stromverbrauch wie die alte Millenium gibt es auch heute. Es ist ja nicht so dass die Matrox fuer viel mehr als 2D taugte und fuer den Fall gibt es ~50 Euro X1300 oder dergleichen GPUs mit denen man genauso viel (wenn nicht um einiges mehr) anrichten kann.

Oder anders ausgedrückt: Die oftmals vermissten passiven strom"sparenden" Grafikkarten gibt es heute noch genauso in aktueller Fertigungstechnik zu kaufen. Man muss dann eben ein paar Einstriche machen.
Stimmt zwar, dass es mehr aktuelle Spiele für diesen Leistungsbereich gäbe, wenn passive Karten das Maß der Dinge wären und vielleicht wären diese dann auch etwas schneller, da sie mehr im Fokus stehen würden, aber dass es heute keine passiven relativ kalten Grafikkarten mehr gibt wie von vielen behauptet stimmt einfach nicht.


Oder wäre eine X1300 für 250€ deutlich schneller? (also wäre es möglich für 250€ eine Grafikkarte mit einer aktuellen Low-End Kühllösung zu bauen, die aber dennoch erheblich schneller wäre und nicht viel mehr Strom verbrauchen würde?)



An Spielen mit einer X1300 mag ich gar nicht mal denken...

Was aber nicht an der Leistung der X1300 liegt, sondern daran, dass sie nicht im Fokus der Entwickler aktueller Spiele bzw. Windows Vista Aero Glass Entwickler.

Ailuros
2007-02-12, 11:13:08
Stimmt. ABER: Die Millennium war zu ihrer Zeit High-End, mit einer X1300 läuft grad mal Aeroglass mehr schlecht als recht (je nach Speicherausstattung der Karte)...
An Spielen mit einer X1300 mag ich gar nicht mal denken...

Zu welcher Zeit und in welchem Universum genau war die Millenium damals "high end"?

Paul Brain
2007-02-12, 11:32:05
Zu welcher Zeit und in welchem Universum genau war die Millenium damals "high end"?
Vor ziemlich genau 10 Jahren, und zwar für alles was 2D betraf. Darunter fiel z.B. Duke Nukem 3D...
Die Millennium war genau zu dem Zeitpunkt aktuell, bevor die Voodoo Graphics erschien, und auch noch danach bis zur Voodoo2, da man ja noch eine zusätzliche 2D-Karte benötigte und der Voodoo Rush ein recht ein Käse war.

Ailuros
2007-02-12, 11:43:54
Vor ziemlich genau 10 Jahren, und zwar für alles was 2D betraf. Darunter fiel z.B. Duke Nukem 3D...
Die Millennium war genau zu dem Zeitpunkt aktuell, bevor die Voodoo Graphics erschien, und auch noch danach bis zur Voodoo2, da man ja noch eine zusätzliche 2D-Karte benötigte und der Voodoo Rush ein recht ein Käse war.

Ergo wohl doch keine 3D high end GPU am Ende oder? Der klitzekleine Unterschied ist, dass damals die Mehrzahl der GPUs (auch V3 3000 inkl.) meistens nur passive Kuehlung hatten und fuer 2D bekommst Du auch heute noch stromsparende passiv gekuehlte GPUs.

Jeglicher Versuch von Seiten Matrox die Millenium Serie etwas konkurrenzfaehiger zu machen viel ins Leere, nicht nur weil sie anscheinend zu bloed waren einen anstaendigen OGL ICD rechtzeitig auf den Markt zu bringen sondern auch mit verkorksten Versuchen wie der hier:

http://www.firingsquad.com/hardware/g400max/images/g400front.jpg

...der aber komischerweise doch einen Luefter traegt und trotzdem nicht sehr viel mehr anrichten konnte.

http://www.firingsquad.com/media/article_image.asp/212/a

Von der unseligen Parhelia sollten wir dann lieber nicht reden; denn das Ding war erstmal auf keinen Fall passiv gekuehlt, verbrauchte nicht gerade wenig Strom und brachte ziemlich wenig fuer das Geld dass sie eigentlich kostete.

Es gibt sogar bis zu Performance GPUs heutzutage die passiv gekuehlt sind und sie kosten auch keine besonders radikale Unmenge. Da die selige Millenium sowieso nie das schnellste Tier auf dem Markt war hat sich bei der Analogie auch nicht besonders viel geaendert.

Paul Brain
2007-02-12, 12:09:41
Da OT: Verschieben in einen anderen Thread?

Mir gings hier nicht um die Geschichte Matrox' bei 3D-Karten; daß die Mystique nicht der Überflieger war und eigentlich nur mit der G400 etwas konkurrenzfähiges zur Verfügung stand ist wohlbekannt und eigentlich schade.

Fakt ist aber, daß die Millennium zu ihrer High-End-Zeit genauso wie alle anderen Karten nichtmal einen Kühlkörper benötigten, und sogar ein Voodoo2-SLi-Gespann ohne Aluminium auskam. Erst beim Overclocken konnte man durch ein passives Kühlkörperchen (bzw. deren 2 bzw. 4) das ein oder andere MHz mehr herausholen.
Das ganze aber bei Chip-Temperaturen, die es keinesfalls nötig machten, außer dem NT noch einen Lüfter im Gehäuse zu haben.

Und die Millennium war definitiv das schnellste Vieh auf dem Markt, und zwar bis etwa zur Einführung der Voodoo 3 (welche in 2D auch nicht schneller war). Die Ultra-Highend-Lösung war damals eine (oder zwei) Voodoos kombiniert mit einer Millennium. Und das ganze ging komplett ohne Kühlkörper...

Die heute erhältlichen, passiv gekühlten Karten sind eigentlich Scherzangebote: Ohne eine entsprechend bessere Gehäusedurchlüftung kann man diese nicht stabil betreiben.
Ich würd gerne auf etwas grafischen Schnickschnack verzichten bzw. halt ein Jahr "hinterherhängen", wenn selbst High-End-Karten mit passiven Kühlern oder besonders leisen Aktivkühlern auskommen würden. Angesichts der angebotenen Spiele und der erforderlichen Leistung bin aber auch ich Highend-Besitzer, allerdings mit umfassender Wasserkühlung. Wenn ich mir allerdings den Aufwand dafür ansehe wird mir schwindlig, und ich hab noch immer das ein oder andere Teil im Rechner das eine Gehäusebelüftung notwendig macht. Das ist einfach krank.

PCGH_Carsten
2007-02-12, 12:23:51
Wenn ich mir die Kühlerkonstruktion da anschaue kann ich mir beim besten willen nicht vorstellen, wie dieses Teil über 270 Watt abführen kann.
270 Watt überhaupt bei einer Luftkühlung sind eigentlich unmöglich.
Mit einem 24-Watt-Lüfter ist einiges möglich.

Aber ich hoffe auch, dass die Verlustleistung sich in erträglichen Grenzen halten wird - das Topmodell mal ausgenommen.


Etwa 40-50W mehr als G80 afaik.

Im Vergleich zu Nvidias Angabe zur G80-

-TDP (185W)
-max. Applikationsverbrauch (145W)
-durchschnittlichem Lastverbrauch (115W)?

Wieso 5D? Ich brauche für Bernoulli nur 3 Komponenten und selbst für Eulerwinkel nur 3.
Coda sprach von PhysX - nicht von Physikberechnungen. Denkbar, dass man die API mit Absicht so gestaltete, um die Konkurrenz aus damaligen 4D-GPUs zusätzlich etwas zu bremsen.

robbitop
2007-02-12, 12:37:04
Coda sprach von PhysX - nicht von Physikberechnungen. Denkbar, dass man die API mit Absicht so gestaltete, um die Konkurrenz aus damaligen 4D-GPUs zusätzlich etwas zu bremsen.
Auch PhysX rechnet IIRC mit 3 Komponenten pro Operation laut meinem Telefoninterview. (ist ja schließlich auch "nur" normale Physik, genauer gesagt Dynamik). Außerdem hat sich PhysX nicht durchgesetzt.

Ailuros
2007-02-12, 12:47:45
Mir gings hier nicht um die Geschichte Matrox' bei 3D-Karten; daß die Mystique nicht der Überflieger war und eigentlich nur mit der G400 etwas konkurrenzfähiges zur Verfügung stand ist wohlbekannt und eigentlich schade.

Die G400 ging eben den Bach runter weil es eben wohl doch nicht so konkurrenzfaehig war am Ende.

Fakt ist aber, daß die Millennium zu ihrer High-End-Zeit genauso wie alle anderen Karten nichtmal einen Kühlkörper benötigten, und sogar ein Voodoo2-SLi-Gespann ohne Aluminium auskam. Erst beim Overclocken konnte man durch ein passives Kühlkörperchen (bzw. deren 2 bzw. 4) das ein oder andere MHz mehr herausholen.
Das ganze aber bei Chip-Temperaturen, die es keinesfalls nötig machten, außer dem NT noch einen Lüfter im Gehäuse zu haben.

Wobei es nach der V3 dann sowieso damit aus war; haette 3dfx die V5 6000 veroeffentlicht haette man noch das zusaetzliche Netzteil gebraucht, um das 4 chip/4 Luefter Monstrum anno 2000 fuettern zu koennen. Nur knapp 2 Jahre nach der Geburt von 3D.



Die heute erhältlichen, passiv gekühlten Karten sind eigentlich Scherzangebote: Ohne eine entsprechend bessere Gehäusedurchlüftung kann man diese nicht stabil betreiben.

Selbst wenn jemand heutzutage einen IGP hat waere es angebracht eine anstaendige Gehaeuselueftung zu haben. Ich hab schon bessere Ausreden als diese lesen koennen. Meine damaligen Systeme hatten trotz passiv gekuehlten GPUs (V3 z.B.) stets ein paar Gehaeuseluefter, wobei das gesamte System um etliche Mal mehr Laerm machte, weil es damals eben keine silent Luefter gab. Das heutige System mit 7 case fans einem silent Netzteil mit 2 fans und einer 8800GTX ist um einiges leiser als dieses.

Wenn man heute eine passiv gekuehlte GPU (z.B. X1600PRO) mit einem anstaendigen Luefterlosen CPU heatsink, einem silent PSU und ein paar silent case fans einbaut, hoert man fast gar nichts mehr, ausser man klebt das Ohr an den Kasten. Und Stabilitaetsprobleme gibt es in solchen Faellen auch nicht, ausser man hat die merkwuerdige Idee jegliche Komponente zu uebertakten.

Ich würd gerne auf etwas grafischen Schnickschnack verzichten bzw. halt ein Jahr "hinterherhängen", wenn selbst High-End-Karten mit passiven Kühlern oder besonders leisen Aktivkühlern auskommen würden. Angesichts der angebotenen Spiele und der erforderlichen Leistung bin aber auch ich Highend-Besitzer, allerdings mit umfassender Wasserkühlung. Wenn ich mir allerdings den Aufwand dafür ansehe wird mir schwindlig, und ich hab noch immer das ein oder andere Teil im Rechner das eine Gehäusebelüftung notwendig macht. Das ist einfach krank.

Sinnlose Uebertreibungen.

StefanV
2007-02-12, 12:51:24
Die G400 ging eben den Bach runter weil es eben wohl doch nicht so konkurrenzfaehig war am Ende.
DOch, wars -> höhere Bandbreite, leichte Optimierungen am Memory COntroller (der sog. Dual Bus, den man bei der PH leider entsorgte), was am ende dazu führte, das die G400 die schnellste 32bit Karte war, noch vor der Rage 128 PRO.
Dazu sollt man auch mal die Takte sehen, die 'normale' G400 war mit 125/166MHz getaktet, die MAX mit 150/200MHz, Async gibts nicht, nur Teiler.

Das Problem war eher der Name (und der Preis)...

robbitop
2007-02-12, 12:58:45
War dieser DualBus eigentlich "nur" eine Trennung von Texturbus und Rasterbus oder konnten beide aufeinander zugreifen? (erstes wurde ja von der Voodoo1 schon eingeführt, war zwar etwas starr aber immernoch besser als ein "normales " SI, mit der Einschränkung, dass der Texturram nur für Texturen nutzbar war und der Framebuffer RAM nur für den FB)

Anarchy-HWLUXX
2007-02-12, 13:02:57
Wär mal an der zeit zu splitten :ucatch:

Paul Brain
2007-02-12, 13:20:14
Die G400 ging eben den Bach runter weil es eben wohl doch nicht so konkurrenzfaehig war am Ende.Die G400 und ihre Refreshes waren sehr wohl längere Zeit konkurrenzfähig; daß sie dies irgendwann nicht mehr sein würden ist so klar wie daß jede Hardware irgendwann veraltet ist.

Wobei es nach der V3 dann sowieso damit aus war; haette 3dfx die V5 6000 veroeffentlicht haette man noch das zusaetzliche Netzteil gebraucht, um das 4 chip/4 Luefter Monstrum anno 2000 fuettern zu koennen. Nur knapp 2 Jahre nach der Geburt von 3D.Du wiederholst Dich. Daß diese Entwicklung stattgefunden hat ist Geschichte. Es ist aber schade, daß es so gekommen ist, und genau darauf will ich hinaus.

Selbst wenn jemand heutzutage einen IGP hat waere es angebracht eine anstaendige Gehaeuselueftung zu haben. Ich hab schon bessere Ausreden als diese lesen koennen. Meine damaligen Systeme hatten trotz passiv gekuehlten GPUs (V3 z.B.) stets ein paar Gehaeuseluefter, wobei das gesamte System um etliche Mal mehr Laerm machte, weil es damals eben keine silent Luefter gab. Das heutige System mit 7 case fans einem silent Netzteil mit 2 fans und einer 8800GTX ist um einiges leiser als dieses.Ich hab schon zu Zeiten meines P1 Lüfter auf 7 oder 5V runtergeregelt; und glaub mir, ein System mit geregeltem Netzteil und einem 5V-Prozzilüfter ist einfach leiser als eins mit 7 Case Fans, einem auf der CPU, einem weiteren auf der GPU und viell. einem auf dem Chipsatz... Ganz zu schweigen von der Ausfallsicherheit.
Du kommst mir momentan etwas betriebsblind vor; nur weil ein IGP schon eine ordentliche Gehäusebelüftung und viell. zusätzlich einen aktiven Quirl braucht heißt das noch lange nicht, daß das gut ist.
Und selbst wenn Du die Abwärme halbwegs leise abführen kannst: allein wie sich der Raum, in dem der PC steht vor allem im Sommer aufheizt ist ein gewichtiges Argument.

Wenn man heute eine passiv gekuehlte GPU (z.B. X1600PRO) mit einem anstaendigen Luefterlosen CPU heatsink, einem silent PSU und ein paar silent case fans einbaut, hoert man fast gar nichts mehr, ausser man klebt das Ohr an den Kasten. Und Stabilitaetsprobleme gibt es in solchen Faellen auch nicht, ausser man hat die merkwuerdige Idee jegliche Komponente zu uebertakten.Ohne eine anständige und gut durchdachte Luftführung wirds da nur leider nix mit den Silent-Fans, sofern diese auch auf 5 oder max. 7V laufen. Es gibt bei ATX leider zu viele schlecht belüftete Bereiche, an denen der Luftstrom nicht vorbeigeht. Der Bereich bei den Erweiterungskarten etwa ist so ein Fall. Damit dort Luft hingelangt benötigt es schon einen starken Front-Intake-Fan, der die Luft noch bis nach hinten befördert bevor sie wieder abgesaugt wird; alternativ kann man mit einem Slotkühler für etwas Luft sorgen, was aber wieder das Problem aufwirft, daß es einen weiteren Abluft-Lüfter gibt -> man benötigt mehr Intake, damits keinen Unterdruck im Gehäuse gibt und die Falschluft durch jede kleine Ritze kommt. Dann könnte man noch einen Quirl quer zu den Steckkarten platzieren, was erstens nicht grad schön aussieht und die Luft nur herumwirbelt, was an anderen Stellen wieder zu Problemen führen kann.

Und das alles könnte man sich ersparen, wenn das Zeug einfach weniger Strom ziehen würde.

Sinnlose Uebertreibungen.Ansichtssache. Ich bins z.B. gewohnt, daß Unterhaltungselektronik (TV, Receiver, etc.) ohne Lüfter auskommt. Mich stört die Belüftung bei Plasmas und auch bei DVD-Recordern etc. teilweise enorm; vom Surren mancher HDD-Recorder bekomm ich Kopfschmerzen, und das ist keine Einbildung. Manche Menschen sind eben empfindlicher als andere.

Gast
2007-02-12, 13:22:33
DOch, wars -> höhere Bandbreite, leichte Optimierungen am Memory COntroller (der sog. Dual Bus, den man bei der PH leider entsorgte), was am ende dazu führte, das die G400 die schnellste 32bit Karte war, noch vor der Rage 128 PRO.
Dazu sollt man auch mal die Takte sehen, die 'normale' G400 war mit 125/166MHz getaktet, die MAX mit 150/200MHz, Async gibts nicht, nur Teiler.
Richtig, die G400 Max war wirklich kurzzeitig die schnellste 32-Bit Karte, zumindest unter Direct3D. OpenGL war mässig aber auch nicht abgrundtief schlechter als die ersten OpenGL Treiber von ATI für die X800.
Ausserdem punktete die G400 halt durch Features wie EMBM und Dual-Head was die Konkurrenz nicht geboten hat.
Nur zum zocken war eine Voodoo3 oder TNT2 Ultra vom Preis-Leistungs Verhältnis vieleicht besser geeignet. Aber sobald man ein gutes 2D Bild, hohe Auflösungen, zwei Monitore und noch 3D mit 32-Bit Farbtiefe haben wollte kam man an der Millennium G400 nicht vorbei.
Zugegebenermassen war sie aber auch wirklich der einzige ernst zu nehmende 3D Chip der Kanadier.

Coda
2007-02-12, 13:40:23
Man kann also sagen 50-100W extra,
Nein kann man nicht, weil man für 200W auch ein viel stärkeres Peltier brauchen würde.

Coda
2007-02-12, 13:49:02
Auch PhysX rechnet IIRC mit 3 Komponenten pro Operation laut meinem Telefoninterview. (ist ja schließlich auch "nur" normale Physik, genauer gesagt Dynamik). Außerdem hat sich PhysX nicht durchgesetzt.
Stand halt öfter mal in den Artikeln darüber. Such halt mit Google nach PhysX 5D. Is wohl aber splitbar.

Ailuros
2007-02-12, 13:50:09
Du wiederholst Dich. Daß diese Entwicklung stattgefunden hat ist Geschichte. Es ist aber schade, daß es so gekommen ist, und genau darauf will ich hinaus.

Ich wiederhole mich oder Du willst etwas haben ueberhaupt nicht moeglich ist?

Ich hab schon zu Zeiten meines P1 Lüfter auf 7 oder 5V runtergeregelt; und glaub mir, ein System mit geregeltem Netzteil und einem 5V-Prozzilüfter ist einfach leiser als eins mit 7 Case Fans, einem auf der CPU, einem weiteren auf der GPU und viell. einem auf dem Chipsatz... Ganz zu schweigen von der Ausfallsicherheit.

Meine CPU hat keinen Luefter sondern nur einen grossen Heatsink; die case fans kann man auch nicht hoeren weil der Kasten so schwer ist dass man ihn aufschrauben muss um ueberhaupt etwas zu hoeren.

Du kommst mir momentan etwas betriebsblind vor; nur weil ein IGP schon eine ordentliche Gehäusebelüftung und viell. zusätzlich einen aktiven Quirl braucht heißt das noch lange nicht, daß das gut ist.
Und selbst wenn Du die Abwärme halbwegs leise abführen kannst: allein wie sich der Raum, in dem der PC steht vor allem im Sommer aufheizt ist ein gewichtiges Argument.

Welchen Sommer denn ueberhaupt? Ich lebe in einem subtropischen Klima wo das Thermometer selten von Mai bis Oktober unter 25C faellt und bei einer Hitzewelle locker die 40C im Schatten ueberschreitet.

Ohne eine anständige und gut durchdachte Luftführung wirds da nur leider nix mit den Silent-Fans, sofern diese auch auf 5 oder max. 7V laufen. Es gibt bei ATX leider zu viele schlecht belüftete Bereiche, an denen der Luftstrom nicht vorbeigeht. Der Bereich bei den Erweiterungskarten etwa ist so ein Fall. Damit dort Luft hingelangt benötigt es schon einen starken Front-Intake-Fan, der die Luft noch bis nach hinten befördert bevor sie wieder abgesaugt wird; alternativ kann man mit einem Slotkühler für etwas Luft sorgen, was aber wieder das Problem aufwirft, daß es einen weiteren Abluft-Lüfter gibt -> man benötigt mehr Intake, damits keinen Unterdruck im Gehäuse gibt und die Falschluft durch jede kleine Ritze kommt. Dann könnte man noch einen Quirl quer zu den Steckkarten platzieren, was erstens nicht grad schön aussieht und die Luft nur herumwirbelt, was an anderen Stellen wieder zu Problemen führen kann.

Da Du nur konstant aus dem Nichts zu raten versuchst, hilft diese Haarspalterei sowieso nichts.


Ansichtssache. Ich bins z.B. gewohnt, daß Unterhaltungselektronik (TV, Receiver, etc.) ohne Lüfter auskommt. Mich stört die Belüftung bei Plasmas und auch bei DVD-Recordern etc. teilweise enorm; vom Surren mancher HDD-Recorder bekomm ich Kopfschmerzen, und das ist keine Einbildung. Manche Menschen sind eben empfindlicher als andere.

Dann machen wir es ganz kurz sonst nimmt der Quark kein Ende: so gemein wie es klingen mag, es gibt nichts im High end Bereich fuer Dich und es wird es auch nie geben.

Anarchy-HWLUXX
2007-02-12, 14:07:20
Der Inq. hat nen Bild von der XTX - und es ist kein bisher bekanntes


-> http://uk.theinquirer.net/?article=37581

Der Lüfter ist jetzt auch schön rot statt schwarz ;D

Ailuros
2007-02-12, 14:09:52
Immer noch das OEM Dingsbums.

Black-Scorpion
2007-02-12, 14:13:32
Bis auf die farbe ist es das Bild das schon die letzte Zeit durch Netz geistert.
Es ist also bekannt.

Wechselbalg
2007-02-12, 14:17:31
Wobei bei dem Bild ja im Gegensatz zum anderen wenn ich es richtig sehe nur 2 6 Pin Anschlüsse existieren (und natürlich noch die Pins, um später auf den 8 Pin Anschluss umzusteigen). Damit dürften die spekulierten 270 Watt dieser Version zumindest nur schwierig zu versorgen sein.

Ronin2k
2007-02-12, 14:29:28
lol die wattangaben sind ja der horror....was soll denn sowas also von mir aus kann die 400fps in crysis44 haben sowas kommt mir net in rechner :D crazy sowas.

MartinRiggs
2007-02-12, 14:39:07
bleibt doch mal locker, momentan ist doch alles noch viel geschwätz...
Wenn es dann wirklich so ist dann können wir als Verbraucher endlich mal unsere Marktmacht benutzen, wenn der R600 wirklich soviel verbraucht und dann noch laut ist dann kauft man ihn nicht.
Dann wird sich ATI/AMD schon was einfallen lassen müssen.
Ich war mit ATI bisher zufrieden aber ein 270Watt-Monster würde keinen Platz in meinen PC finden.

Nakai
2007-02-12, 14:40:21
Max. 200 Watt! Ich gehe von etwa 160 Watt aus.

mfg Nakai

Wechselbalg
2007-02-12, 14:46:57
Hier geht es ja auch erst mal nur darum, ob diese Gerüchte einen wahren Kern haben oder nicht. Das der Verbrauch leider nicht niedrig sein wird, ist offensichtlich, allerdings dürfte die Platine auf dem Inquirerbild eben maximal 225 Watt saugen können und da wird man vermutlich noch ein bisschen Sicherheitsabstand halten.

Sicherlich nicht begrüßenswert die Entwicklung, aber ich denke auch, dass heißer gekocht wird, als nachher gegessen. ^^

robbitop
2007-02-12, 14:47:39
Stand halt öfter mal in den Artikeln darüber. Such halt mit Google nach PhysX 5D. Is wohl aber splitbar.
Da stand nur dass das Ding vermutlich Vec5 MIMD Units hat. (ob das stimmt, ist noch unklar, Demirug hat hier desöfteren auch schon daran gezweifelt)

Gast
2007-02-12, 14:49:57
BTW,
Haben die neueren Cases denn überhaupt noch die Rails für full-size-cards?

Anarchy-HWLUXX
2007-02-12, 15:08:11
BTW,
Haben die neueren Cases denn überhaupt noch die Rails für full-size-cards?

nur wenige ... oftmals sind da HDD plätze im weg

K4mPFwUr$t
2007-02-12, 15:15:46
wozu braucht man die den bitte, wenn eine 24cm retail geplant ist?
jedenfalls als privatkunde. der hersteller von fertig PCs wird sicherlich auch gehäuse mit reails für die OEM version des r600 auf lager haben.

Anarchy-HWLUXX
2007-02-12, 15:25:38
BENCHES !!!!!!!

http://www.fx57.net/?p=398 :ujump2:

K4mPFwUr$t
2007-02-12, 15:33:47
hmm, ob man die seite glaubhaft nennen kann :|

alllerdings nur 625Mhz bei der XT und 700Mhz bei der XTX, hmm

dreas
2007-02-12, 15:39:22
hmm, ob man die seite glaubhaft nennen kann :|

alllerdings nur 625Mhz bei der XT und 700Mhz bei der XTX, hmm

Nicht wirklich glaubhaft.

mfg dreas

Gast
2007-02-12, 15:43:53
BENCHES !!!!!!!

Intel(R) Core(TM)2 Extreme QX6700 @ 5300MHz (353.3×15)

5,3 GHz Quad Core Benchstable? Naja... :rolleyes:

Anarchy-HWLUXX
2007-02-12, 15:49:25
Hey, ich hab nicht gesagt das die Lupenrein sind ;) Mit KompKü oder Stickstoff ist des aba möglich ...

dreas
2007-02-12, 15:49:48
Mal sinds 700Mhz und mal 800Mhz und 1,1Ghz Speicher glaube ich beim Top-Modell auch nicht so recht.

mfg dreas

Nakai
2007-02-12, 15:50:11
Oh weh...was fürn Fake.

mfg Nakai

Coda
2007-02-12, 16:00:52
Ist das unglaubhaft, weil R600 natürlich mindestens doppelt so schnell als G80 sein muss, oder was?

10% mehr Performance liegt ziemlich in meiner Erwartungshaltung.

Paul Brain
2007-02-12, 16:03:29
@Ailuros:

Warum heute so angriffslustig? Wenn ich Dein Posting deuten würde müßte ich sagen, daß Du offensichtlich nicht nur akzeptiert hast, daß heutige Hardware ein vielfaches der Verlustleistung damaliger Hardware hat sondern daß Du sogar noch froh darüber bist!
Ja, auch ich verfolge die Entwicklung im IT-Bereich recht genau und bin hochinteressiert daran; und auch mir kann manches nicht schnell genug gehen. Andererseits habe ich schon seit einiger Zeit das Gefühl, daß wir - in Analogie - keine Autos und auch keine Sportwagen mehr kaufen, sondern hochgezüchtete F1-Boliden die nicht gerade durch Zuverlässigkeit und Standfestigkeit überzeugen. Das dumme dran ist: Selbst mit einem Smart kann man auf unseren Straßen noch ganz gut unterwegs sein, einen Sportwagen dagegen kaum wirklich ausnutzen; im PC-Bereich ist ein F1-Renner aber geradezu Pflicht, wenn man Wert auf Bildqualität und hohe Auflösungen legt; mit einem "PC-smart" kann man - im Vergleich - nur mehr auf Nebenstraßen fahren und kommt gar nicht mehr überall hin.

Und schön langsam zipft mich High-End eh an: Die X800XT dreimal getauscht, und trotzdem noch eine defekte Karte gehabt; die 7800GTX-512 muß ich untertakten, damit sie halbwegs (!) stabil läuft; ein Cross-Shipment ist bei POV selbst bei dieser Karte nicht drin, da müßt ich wochenlang auf meinen Rechner verzichten.

Sowas kenn ich von früher halt nicht; ich hab viel verbaut, aber so empfindlich wie das Klump von heute war das alles nicht.

Um auf Deinen "hart klingenden" Schlußsatz einzugehen: Ich werde faktisch zu High-End gezwungen, nachdem ich gerne aufwendige Spiele spiele; gottseidank kann ich mir den Aufwand der Wasserkühlung und den Strom für das Equipment leisten; wenn ich diesen Aufwand aber nicht treiben müßte, wärs aber wohl nicht nur mir deutlich lieber...

Hvoralek
2007-02-12, 16:04:39
Die Autoren sollten sich vlt. mal entscheiden, ob das Spitzenmodell nun mit 700 MHz takten soll oder mit 800 (Berechnung der Arithmetikleistung). Oder laufen die Shader doch in einer eigenen Clockdomain und genau 100 MHz schneller als der übrige Chip? :rolleyes:

Nakai
2007-02-12, 16:08:29
Selbst wenn die Benchmarks richtig sind, die Specs sind es nicht.

Shader Operations: 87200 Operations/sec
Pixel Fill Rate: 19600 MPixels/sec
Texture Fill Rate: 19600 MTexels/sec
Vertex Operations: 15600 MVertices/sec

Er müsste über 28 TMUs und ROPs verfügen. Weiterhin ist die Angabe der Dreieckfüllrate hirnrissig bei USCs.
Die Shader Operations sind auch falsch...^^

4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops

Da hat sich wohl jemand zu sehr vom G80 inspirieren lassen, aber wieso 800 Mhz Coretakt?

mfg Nakai

reunion
2007-02-12, 16:14:15
10% mehr Performance liegt ziemlich in meiner Erwartungshaltung.

Bei nur 10% mehr Leistung kann ATi mit der Heizschleuder einpacken. Ich erwarte >20% gegenüber heutigen G80-Tests. Immerhin dürfte von nV mit dem R600-Launch auch noch etwas kommen.

w0mbat
2007-02-12, 16:21:46
Die Quelle arbeitet bei Sapphire und hatte die ersten echten R580-Benches. Das sollte man in Betracht ziehen.

reunion
2007-02-12, 16:26:07
NV40/NV42 (jetzt ist es noch klarer ;) )


Jap. :)


RV570 hat die R580 boards mit abgeschalteten Einheiten ersetzt. Soll das angebliche R670 Teil jetzt ein R600 Ableger in diesem Sinn sein oder ein chip der von Grund auf mit einem 256bit Bus und 2 R600 Clusters ausgestattet ist sein?


Natürlich letzteres. Ein R600-Ableger bekommt keinen neuen Codenamen.


Mainstream und Performance gehoeren nicht in den gleichen Topf, deshalb auch meine Fragen. Wie soll denn der Strassenpreis von RV630 aussehen? Denn Vorsicht wenn die Antwort $150-200 lauten sollte, dann ist es ein reines Mainstream Teil und direkte Konkurrenz zu G86.


Ich denke schon, dass er sich zu Beginn in diesem Bereich einsiedeln wird. Allerdings könnte das gegen G86 duchaus reichen. Für G92 muss dann natürlich ein RV660 her.


Theoretisch sind aber 8 ROPs nur noch 1/3 von 24 oder? ;)

Eben. Deshalb könnte man jetzt spekulieren, dass der restliche Chip auch nur 1/3 und nicht 1/2 von G80 ist.

Coda
2007-02-12, 16:28:30
Bei nur 10% mehr Leistung kann ATi mit der Heizschleuder einpacken.
Naja. Es ist halt so dass die Karte ziemlich nach Brute-Force aussieht, und das heißt für mich schonmal nichts Gutes - tut mir leid.

Das Spielchen hatten wir doch schonmal irgendwo...

Gast
2007-02-12, 16:30:51
@Ailuros:

Warum heute so angriffslustig? Wenn ich Dein Posting deuten würde müßte ich sagen, daß Du offensichtlich nicht nur akzeptiert hast, daß heutige Hardware ein vielfaches der Verlustleistung damaliger Hardware hat sondern daß Du sogar noch froh darüber bist!
Ja, auch ich verfolge die Entwicklung im IT-Bereich recht genau und bin hochinteressiert daran; und auch mir kann manches nicht schnell genug gehen. Andererseits habe ich schon seit einiger Zeit das Gefühl, daß wir - in Analogie - keine Autos und auch keine Sportwagen mehr kaufen, sondern hochgezüchtete F1-Boliden die nicht gerade durch Zuverlässigkeit und Standfestigkeit überzeugen. Das dumme dran ist: Selbst mit einem Smart kann man auf unseren Straßen noch ganz gut unterwegs sein, einen Sportwagen dagegen kaum wirklich ausnutzen; im PC-Bereich ist ein F1-Renner aber geradezu Pflicht, wenn man Wert auf Bildqualität und hohe Auflösungen legt; mit einem "PC-smart" kann man - im Vergleich - nur mehr auf Nebenstraßen fahren und kommt gar nicht mehr überall hin.

Und schön langsam zipft mich High-End eh an: Die X800XT dreimal getauscht, und trotzdem noch eine defekte Karte gehabt; die 7800GTX-512 muß ich untertakten, damit sie halbwegs (!) stabil läuft; ein Cross-Shipment ist bei POV selbst bei dieser Karte nicht drin, da müßt ich wochenlang auf meinen Rechner verzichten.

Sowas kenn ich von früher halt nicht; ich hab viel verbaut, aber so empfindlich wie das Klump von heute war das alles nicht.

Um auf Deinen "hart klingenden" Schlußsatz einzugehen: Ich werde faktisch zu High-End gezwungen, nachdem ich gerne aufwendige Spiele spiele; gottseidank kann ich mir den Aufwand der Wasserkühlung und den Strom für das Equipment leisten; wenn ich diesen Aufwand aber nicht treiben müßte, wärs aber wohl nicht nur mir deutlich lieber...
Die Bäume wachsen halt nicht in den Himmel. Dass neue Technik mehr, Strom, mehr Platz und bessere Kühlung benötigen ist einfach Gesetz, das kein Hersteller umgehen kann. Vor allem bei Grakas wirds immer schwieriger. Die Entwicklung dauert immer länger und wird kostspieliger. Sieht man ja daran, wie lange schon ATi an dem R600 rumwerkelt. Und die setzen garantiert ihre maximal mögliche Manpower ein um ihn fertigzustellen. High End wird in Zukunft unweigerlich eine noch kleineren Nische einnehmen als es jetzt schon inne hat.

reunion
2007-02-12, 16:34:30
Also fast 200W? Sind das ATi Angaben oder reale Werte? Für XT oder XTX?
Weil zwischen GTS und GTX liegen ja auch 30W.

Abwarten. Wenn nV als Reaktion auf R600 den Takt und die Spannung des G80 anheben muss, dann ist das mit der höheren Leistungsaufnamhe ganz schnell egalisiert. nV kann momentan mangels Konkurrenz hier natürlich sehr gemäßigte Werte fahren.

Coda
2007-02-12, 16:35:40
15% mehr Takt + Treiber-Mul (das laut Ail noch kommen wird) können sie auch ohne mehr VCore fahren. Und ich denke das müsste reichen.

reunion
2007-02-12, 16:44:40
Naja. Es ist halt so dass die Karte ziemlich nach Brute-Force aussieht, und das heißt für mich schonmal nichts Gutes - tut mir leid.

Das Spielchen hatten wir doch schonmal irgendwo...

Das braucht dir nicht leid zu tun. Ati geht in die vollen, das ist klar. Deshalb muss es allerdings noch lange nicht zu einem NV30-Schicksal kommen. Die hohen Taktraten und die hohe Leistungsaufnahme geisterten schon durchs Netz, da war die Leistung von G80 noch gar nicht absehbar.

15% mehr Takt + Treiber-Mul (das laut Ail noch kommen wird) können sie auch ohne mehr VCore fahren. Und ich denke das müsste reichen.

Ich habe noch kaum einen G80 gesehen, der defaultmäßig auf 660Mhz geht. Und selbst wenn, sind das bei linear ansteigender Leistungsaufname auch schonmal 15% mehr Watt.

INQ hat auch noch was zu melden: http://www.the-inquirer.net/default.aspx?article=37582

Coda
2007-02-12, 16:50:52
Ein G80-Chip wird bei gleicher Leistung wesentlich weniger verbrauchen als R600. Wollen wir wetten? Zudem ist ziemlich sicher das AA und AF besser.

robbitop
2007-02-12, 17:01:37
Neben dem Treiber MUL sollten endlich auch die Treiberblasen reduziert werden, was auch nochmal Auftrieb geben sollte (wobei das ATI auch tun wird).

reunion
2007-02-12, 17:07:30
Ein G80-Chip wird bei gleicher Leistung wesentlich weniger verbrauchen als R600. Wollen wir wetten?


Was hast du davon? Ich weiß es nicht, und du weißt es wahrscheinlich auch nicht. Abwarten und weiter sehen.


Zudem ist ziemlich sicher das AA und AF besser.

Selbst wenn ATi im Vergleich zu R580 gar nichts getan haben sollte, wäre der Unterschied nur relativ gering. Zumindest 8xMSAA dürfte außerdem gesichert sein, von da her sehe ich hier kein großes Problem. Und ob sich sonst noch was getan hat, wer weiß? Bis jetzt ist ja sogut wie gar nichts bekannt.

[](-__-)[]
2007-02-12, 17:12:59
240 Watt, wers glaubt. Das Problem ist nicht der Stromverbrauch, sondern die Kühlung. Die Dualslotkühlung ist so gut wie ausgereizt.

Coda
2007-02-12, 17:14:20
Was hast du davon?
Das ich richtig lag. Ich kann mir einfach nicht vorstellen, dass ATi mal so eben gegen die ziemlich abgefahrene G80-Tech davonzieht und das mit einer weitaus traditionelleren Architektur. Da ist so viel R&D eingeflossen, wo nVIDIA in den letzten Jahren einfach viel mehr Geld reingesteckt hat (Clock-Domains, Double-Pumped-ALUs, Scalar-ALUs, Transistoren sparen, etc.)

Selbst wenn ATi im Vergleich zu R580 gar nichts getan haben sollte, wäre der Unterschied nur relativ gering.
A.I. off - ja. Nur wird das natürlich mal wieder keiner so benchen. Aber das wird natürlich wieder kleingeredet werden von manchen Leuten, genauso wie A.I. Standard von manchen als besser als NV40-HQ angesehen wird, was es einfach nicht ist.

seahawk
2007-02-12, 17:18:54
Abwarten. Wenn nV als Reaktion auf R600 den Takt und die Spannung des G80 anheben muss, dann ist das mit der höheren Leistungsaufnamhe ganz schnell egalisiert. nV kann momentan mangels Konkurrenz hier natürlich sehr gemäßigte Werte fahren.

NV wird reagieren müssen, allerdings erwarte ich keine Verzwiefelungsaktion ala 7800 GTX512. Dafür läuft der G80 schon zu lange.

Black-Scorpion
2007-02-12, 17:24:23
Hast du dich beschwert das die ganze Zeit die nVidia Karten nach deren Benchvorgaben mit Quality gebencht wurden?
Es ist immer wieder lustig wie die Fahne in den passenden Wind gehalten wird.
Und du hast das AA und AF natürlich auch schon gesehen?

LovesuckZ
2007-02-12, 17:27:56
NV wird reagieren müssen, allerdings erwarte ich keine Verzwiefelungsaktion ala 7800 GTX512.

Sie konnten es eben mit der GTX machen. Die Taktraten waren schon abgehoben. Das die Karte dann trotzdem nur soviel verbrauchte wie eine X1800XT war da schon erstaunlich.
Ob nVidia reagieren muss? Beim R420 haben sie es auch nicht getan und der war am Anfang meisten immer 20-30% schneller.

reunion
2007-02-12, 17:31:20
Das ich richtig lag. Ich kann mir einfach nicht vorstellen, dass ATi mal so eben gegen die ziemlich abgefahrene G80-Tech davonzieht und das mit einer weitaus traditionelleren Architektur. Da ist so viel R&D eingeflossen, wo nVIDIA in den letzten Jahren einfach viel mehr Geld reingesteckt hat (Clock-Domains, Double-Pumped-ALUs, Scalar-ALUs, Transistoren sparen, etc.)


Auch ATi hat nicht geschlafen. Zudem wird dafür die nächste Generation wiedermal nur ein plumper Aufguss. Aber solange man über R600 so gut wie nichts weiß, fürht das ohnehin zu nichts.


A.I. off - ja. Nur wird das natürlich mal wieder keiner so benchen. Aber das wird natürlich wieder kleingeredet werden von manchen Leuten, genauso wie A.I. Standard von manchen als besser als NV40-HQ angesehen wird, was es einfach nicht ist.

Natürlich mit AI_off, sofern man HQ auf G80 als Vergleich heranzieht. Absolute Fairness wird man ohnehin nie erreichen. Auch ATi hatte mit dem Quality-Modus der Nv4X/G7x-Reihe lange das nachsehen.

seahawk
2007-02-12, 17:31:51
Naja, die Reaktion dürfte eher das Einhalten des eigenen Zeitplans sein.

LovesuckZ
2007-02-12, 17:36:33
Natürlich mit AI_off, sofern man HQ auf G80 als Vergleich heranzieht. Absolute Fairness wird man ohnehin nie erreichen. Auch ATi hatte mit dem Quality-Modus der Nv4X/G7x-Reihe lange das nachsehen.

Nein, das stimmt nicht.
Wir wissen doch, wie ATi ihre r420 Karte angepriesen hat? Wenn nicht, dann nochmal das angucken: http://www.techreport.com/etc/2004q2/filtering/index.x?pg=1

reunion
2007-02-12, 17:41:06
Sie konnten es eben mit der GTX machen. Die Taktraten waren schon abgehoben. Das die Karte dann trotzdem nur soviel verbrauchte wie eine X1800XT war da schon erstaunlich.


Nicht unbedingt. Die Transistorenanzahl und die Taktraten waren noch immer niedriger als auf R520. Dafür hatte man nur 110nm.

Nein, das stimmt nicht.
Wir wissen doch, wie ATi ihre r420 Karte angepriesen hat? Wenn nicht, dann nochmal das angucken: http://www.techreport.com/etc/2004q2/filtering/index.x?pg=1

Und? Unterm Strich flimmerte der Nv4x-Quality-Modus sehr stark, der bri-Filter des R420 wurde erst durch Füllratentests bemerkt, und das, obwohl dieser schon seit RV350 vorhanden war. Nicht ohne Grund wechselten viele nahmhafte Tester nach genauerer Analyse später auf HQ vs. AI_low.

deekey777
2007-02-12, 17:51:42
http://www.beyond3d.com/forum/showpost.php?p=926598&postcount=1461
Interessant, oder?

4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops
64 Streamprozessoren also...

Er müsste über 28 TMUs und ROPs verfügen. Weiterhin ist die Angabe der Dreieckfüllrate hirnrissig bei USCs.
Die Shader Operations sind auch falsch...^^




mfg Nakai
Das ist der Wert, wieviele Vertizen ausgespuckt werden, das wäre das Triangle-Setup.
Viel Sinn ergibt der Wert aber nicht. Der G80 kann theoretisch 16 Vertizen pro Vec16-ALU ausspucken, bei 1350 wären das über 43200. Schrottreife Rechnerei...

Gmax
2007-02-12, 18:05:09
http://www.beyond3d.com/forum/showpost.php?p=926598&postcount=1461
Interessant, oder?


64 Streamprozessoren also...

In der Tat!

Gast
2007-02-12, 18:06:53
NV wird reagieren müssen, allerdings erwarte ich keine Verzwiefelungsaktion ala 7800 GTX512. Dafür läuft der G80 schon zu lange.

Müssen muss man das nicht, aber da ATI relativ ausgearbeitete Treiber bringen wird (der Chip liegt ja schon länger als fertiges Silicon vor), muss NV nur bei den Treibern nachziehen. Man kann mithalten muss aber nicht übertrumpfen, es sei denn man hat wie damals bei der GTX512 die Quadro Version des G80 schon fertig. Dann wird man einfach ein paar höhergetaktete und mit vieleicht geänderter Kühlung als "Ultra" verkaufen können.

Außerden wars keine Verzweiflungsaktion sondern mit Sicherheit eine billige Marketing Schiene, dem Konkurrenten etwas die Show zu stehlen mit ein paar Karten die nur in geringen Mengen auf den Mark kommen müssen. 512MB sahen halt gut aus auf dem Verkaufskarton ,)

Gast
2007-02-12, 18:11:47
http://www.beyond3d.com/forum/showpost.php?p=926598&postcount=1461
Interessant, oder?

4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops

64 Streamprozessoren also...

Das ist der Wert, wieviele Vertizen ausgespuckt werden, das wäre das Triangle-Setup.
Viel Sinn ergibt der Wert aber nicht. Der G80 kann theoretisch 16 Vertizen pro Vec16-ALU ausspucken, bei 1350 wären das über 43200. Schrottreife Rechnerei...

CoreClock ist aber 700MHz der XTX, ob die Streams wirklich 100MHz mehr haben? Ist vieleicht wieder ein Spec Lese Fehler, und die Pixel/Texel Fill Rate weißt nicht auf ein ähnliches Texture Unit System wie beim G80 hin. Großes Fragezeichen in Bezug auf AA und ob überhaupt etwas wie CVAA kommt.

Coda
2007-02-12, 18:11:48
Auch ATi hat nicht geschlafen. Zudem wird dafür die nächste Generation wiedermal nur ein plumper Aufguss. Aber solange man über R600 so gut wie nichts weiß, fürht das ohnehin zu nichts.
ATI halt lange nicht so viel investiert. Wie geht das gute alte Sprichwort nochmal? Von Nichts kommt Nichts.

Natürlich mit AI_off, sofern man HQ auf G80 als Vergleich heranzieht.
Dann is ja gut. Ich hoffe das machen auch alle. Ich denke es machen nicht mal 10%.

LovesuckZ
2007-02-12, 18:12:29
64 Streamprozessoren also...


"4 Wege Streamprozessoren" ergeben für mich Vec4 Einheiten?!

Anarchy-HWLUXX
2007-02-12, 18:12:33
VR-Zone hat mal wieder nen Pic ... diesmal die Retail Karte - na ja, nen Stück davon :

http://forums.vr-zone.com/showthread.php?t=129067

reunion
2007-02-12, 18:15:06
VR-Zone hat mal wieder nen Pic ... diesmal die Retail Karte - na ja, nen Stück davon :

http://forums.vr-zone.com/showthread.php?t=129067

Ich hasse dieses Katz und Maus Spiel. Der Kühler ist jedenfalls schonmal nicht länger als die Karte, und das Platinenlayout ist völlig anders als bei der OEM-Version. Keine Ahnung, für was dann die OEM-Platine zwei Lüfteranschlüsse braucht.

Anarchy-HWLUXX
2007-02-12, 18:15:54
Ich hasse dieses Katz und Maus Spiel. Der Kühler ist jedenfalls schonmal nicht länger als die Karte, und das Platinenlayout ist völlig anders als bei der OEM-Version.


Das wichtigste : 6+8 ...

deekey777
2007-02-12, 18:16:54
"4 Wege Streamprozessoren" ergeben für mich Vec4 Einheiten?!
Das Wörtchen "ways" hat eigentlich eine andere Bedeutung, aber Recht hast du. nVidia macht Werbung mit 128 SPs, ATi wird aber einen drauf setzen und zB 64 Vec4-ALUs als 256 SPs oder gleich 320 SPs ("5D"-ALUs wie des Xenos) vermarkten. Wird schon eine tolle Zeit. :biggrin:
VR-Zone hat mal wieder nen Pic ... diesmal die Retail Karte - na ja, nen Stück davon :

http://forums.vr-zone.com/showthread.php?t=129067

Solche Bilder passen in diese Show auf ProSieben, wo Pocher und Oli P. alte Rateshows aufleben lassen.

reunion
2007-02-12, 18:17:51
Das wichtigste : 6+8 ...

War zu erwarten. Auch die 8800GTX hat 6+8, nur wurde hier auf die Anschlüsse der letzten zwei Pins verzichtet. Ich glaube kaum, dass man den 6-Pin noch braucht, wenn der 8-Pin angeschlossen ist.

ATI halt lange nicht so viel investiert. Wie geht das gute alte Sprichwort nochmal? Von Nichts kommt Nichts.


Wie willst du das als außenstehender beurteilen, wieviel ATi in R600 investiert hat, noch dazu ohne die Specs oder Benchmarks zu kennen? Man fuhr mit der USA seit R400 ständig eine zweite Schiene, und jetzt wird sich zeigen, was das gebracht hat.

Coda
2007-02-12, 18:26:34
Wie willst du das als außenstehender beurteilen, wieviel ATi in R600 investiert hat
Weil die Zahlen veröffentlicht werden.

reunion
2007-02-12, 18:28:14
Weil die Zahlen veröffentlicht werden.

Und du hast die Fähigkeit in die Zukunft zu schauen? :|

/Edit: Wohl falsch verstanden. Wo kann man die Zahlen einsehen? Auf jeden Fall begann die Arbeit an einem US-Design bei ATi schon sehr viel früher, wer weiß, was da alles dazugezählt wird.

Black-Scorpion
2007-02-12, 18:34:07
Weil die Zahlen veröffentlicht werden.
Link oder sonst was brauchbares?
Oder hast du deine Glaskugel auf Hochglanz poliert?

Coda
2007-02-12, 18:38:13
Einfach auf gängigen Finanz-Seiten schauen unter "Research&Development"

Hier das ganze für nVIDIA http://finance.google.com/finance?fstype=ii&cid=662925

Bei ATi isses momentan schwierig, weil sie jetzt zu AMD gehören, findet man aber auch was dazu.

Black-Scorpion
2007-02-12, 18:44:44
Solche Seiten kenne ich.
Das Problem an deiner Aussage ist nur das nirgends Zahlen auftauchen wie viel NV in den G80 und ATI in den R600 investiert haben.
Beide investieren in auch in andere Bereiche (Chipsätze u.a.).
Woher also deine Sicherheit das NV mehr in den G80 wie ATI in den R600 gepumpt hat.

Coda
2007-02-12, 18:47:20
Ich hab einfach meine Quellen, ihr braucht's mir ja nicht glauben.

Slipknot79
2007-02-12, 19:28:23
http://resources.vr-zone.com/newspics/Feb07/12/R600XTX-Retail.jpg


Mein räuml. Vorstellungsvermögen meint, dass die Anschlüsse sehr nah beim Mobo sein werden? ... Weiß ned ob das so ne gute Lösung sein wird...

LovesuckZ
2007-02-12, 19:29:24
Mein räuml. Vorstellungsvermögen meint, dass die Anschlüsse sehr nah beim Mobo sein werden? ... Weiß ned ob das so ne gute Lösung sein wird...

Sie scheinen wie bei der 8800GTX nach oben hin zu gehen.

w0mbat
2007-02-12, 19:31:44
http://resources.vr-zone.com/newspics/Feb07/12/R600XTX-Retail.jpg


Mein räuml. Vorstellungsvermögen meint, dass die Anschlüsse sehr nah beim Mobo sein werden? ... Weiß ned ob das so ne gute Lösung sein wird...

Dann hast du eine komische räuml. Vorstellung :wink:
Sind doch ganz normal wie beim G80.

K4mPFwUr$t
2007-02-12, 19:33:23
die anschlüsse gehen nicht nach oben, sondern wie bisher zur seite.
als ob das nicht auf dem warscheinlichen retail r600 bild zu erkennen sei.

würde gerne mal den r600 nackt sehen um so mehr über die DPWM zu erfahren, wie sie nun diesmal gelöst ist. hoffe für den kunden und ATI das es eine ausgereiftere methode als bei der x1950pro sein wird. wo es doch viele klagen inkl. mir gab deswegen :|

Gast
2007-02-12, 19:53:59
die anschlüsse gehen nicht nach oben, sondern wie bisher zur seite.
als ob das nicht auf dem warscheinlichen retail r600 bild zu erkennen sei.

würde gerne mal den r600 nackt sehen um so mehr über die DPWM zu erfahren, wie sie nun diesmal gelöst ist. hoffe für den kunden und ATI das es eine ausgereiftere methode als bei der x1950pro sein wird. wo es doch viele klagen inkl. mir gab deswegen :|
Nö, die gehen nach oben - daneben sieht man ja noch die Blechleiste, die von der rückseitigen Metallplatte über den Rand ragt.

reunion
2007-02-12, 20:02:10
Hä? Wo ist denn bei euch bitte oben? Wenn sie nach oben gehen würde, dann müssten sie um 180° geneigt sein, da man hier ja im Einbauzustand die Platinenunterseite sieht. Da sie nur 90° geneigt sind, gehen sie zur Seite, allerdings nicht wie üblich Richtung Festplattenkäfige, sondern Richtung Seitenteil.

Gast
2007-02-12, 20:04:31
Hä? Wo ist denn bei euch bitte oben? Wenn sie nach oben gehen würde, dann müssten sie um 180° geneigt sein, da man hier ja im Einbauzustand die Platinenunterseite sieht. Also gehe sie zur Seite, allerdings nicht wie üblich Richtung Festplattenkäfige, sondern Richtung Seitenteil.

Ja, oben halt. Karte liegt vor dir auf dem Tisch, PCIe-Anschluss zeigt in deine Richtung, die Seite, auf der der Grafikchip üblicherweise verbaut ist, ebenfalls.

reunion
2007-02-12, 20:07:38
Ich ging vom Einbauzustand aus. Wenn die Karte bei jedem irgendwie anders auf dem Tisch liegt, dann kennt sich natürlich keiner mehr aus.

LovesuckZ
2007-02-12, 20:20:37
Nvidia Geforce 8800GTX 768MB 384bit 1.0ns GDDR3 @ 575MHz/1800MHz

(MADD(2flops) + MUL(1flop)) × 1,350 MHz × 128 SPs = 518.4G Flops

Memory Bandwidth: 86.4 GB/sec
Shader Operations: 73600 Operations/sec
Pixel Fill Rate: 13800 MPixels/sec
Texture Fill Rate: 18400 MTexels/sec
Vertex Operations: 18400 MVertices/sec

k|ngp|n QX6700 @ 5.3GHz (353.3 x 15 )
Nvidia 8800GTX 768MB 384bit 1.0ns GDDR3 @ 575MHz/1800MHz

3DMark Score 13024 3DMarks
SM 2.0 Score 4913 Marks
SM 3.0 Score 4956 Marks
CPU Score 7615 Marks


ATI Radeon X2800XT 1GB 512bit 0.85ns GDDR4 @ 700/2200

4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops

Memory Bandwidth: 140.8 GB/sec
Shader Operations: 87200 Operations/sec
Pixel Fill Rate: 19600 MPixels/sec
Texture Fill Rate: 19600 MTexels/sec
Vertex Operations: 15600 MVertices/sec

k|ngp|n QX6700 @ 5.3GHz (353.3 x 15 )
ATI Radeon X2800XT 1GB 512bit 0.85ns GDDR4 @ 700/2200

3DMark Score 15032 3DMarks
SM 2.0 Score 5754 Marks
SM 3.0 Score 5841 Marks
CPU Score 7615 Marks

Scheint von dem gleichen Menschen zu sein, welcher die Werte auf dieser komischen Seite gestellt hat...

reunion
2007-02-12, 20:23:36
Hat er nur eine XT, und keine XTX? Vielleicht stimmen die Werte tatsächlich, dann wäre das für die XT IMHO nicht von schlechten Eltern. Allerdings würde mich mal interessiern, wie der rechnet, es stimmen ja tw. nichtmal die technischen Daten des G80.

Gast
2007-02-12, 20:26:32
Ich ging vom Einbauzustand aus. Wenn die Karte bei jedem irgendwie anders auf dem Tisch liegt, dann kennt sich natürlich keiner mehr aus.
Daher habe ich die Tischlage ja auch eindeutig beschrieben.

btw Einbaulage: ATX, BTW, Tower, Desktop usw.

Nakai
2007-02-12, 20:26:54
Also was 4-Way SIMD-Shader-Units zu bedeuten haben ist schwierig zu definieren. Vec4-ALUs werdens schonmal nicht. Das wären etwa 410 Gflops bei 800 Mhz.

4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops

Mhh vll ist es gar nicht so falsch, vll sind nur die Anzahl der Einheiten falsch, aber die Gflops könnten stimmen.

96 x 8 x 0,8 = 614.4 Gflops

Also bei 96 Vec4 Einheiten.^^:weg:

Schön auf dem Bild für die Retailversion zu erkennen ist die Kühlung für die Spawas.

mfg Nakai

LovesuckZ
2007-02-12, 20:28:56
Hat er nur eine XT, und keine XTX? Vielleicht stimmen die Werte tatsächlich, dann wäre das für die XT IMHO nicht von schlechten Eltern. Allerdings würde mich mal interessiern, wie der rechnet, es stimmen ja tw. nichtmal die technischen Daten des G80.

Nun, die XT wird wohl die Karte sein, welche gegen die 8800GTX antreten darf.
Hoffentlich wird aus der XTX keine Phantom Edition, weil AMD wieder zuviel erreichen will.

/edit: Dann hoffentlich jedoch mit 1Gib Speicher auf dem Board, weil es sonst als Konkurrenzkarte keine Chance hat.

reunion
2007-02-12, 20:31:03
Also was 4-Way SIMD-Shader-Units zu bedeuten haben ist schwierig zu definieren. Vec4-ALUs werdens schonmal nicht. Das wären etwa 410 Gflops bei 800 Mhz.



Mhh vll ist es gar nicht so falsch, vll sind nur die Anzahl der Einheiten falsch, aber die Gflops könnten stimmen.

96 x 8 x 0,8 = 614.4 Gflops

Also bei 96 Vec4 Einheiten.^^:weg:

Schön auf dem Bild für die Retailversion zu erkennen ist die Kühlung für die Spawas.

mfg Nakai

vec 4 MADD+MUL= 12FLOPs (wobei mir das auch spanisch vorkommt, da ATi in der Vergangenheit immer auf ein ADD in der Mini-ALU gesetzt hat). Also 64 x 12 x 0.8.

Nun, die XT wird wohl die Karte sein, welche gegen die 8800GTX antreten darf.


Die scheint ja zu reichen, die zwei entscheidenden Scores sind um ~20% höher. Und das dürfte sich mit höheren Auflösungen und mehr AA durch die höhere Bandbreite vermutlich noch steigern.

/edit: Dann hoffentlich jedoch mit 1Gib Speicher auf dem Board, weil es sonst als Konkurrenzkarte keine Chance hat.

Er schreibt ja 1GB. Also wird es die Karte auf jeden Fall geben, wenn das nicht alles ein Schwindel ist.

Nakai
2007-02-12, 20:39:43
vec 4 MADD+MUL= 12FLOPs (wobei mir das auch spanisch vorkommt, da ATi in der Vergangenheit immer auf ein ADD in der Mini-ALU gesetzt hat). Also 64 x 12 x 0.8.

Das ist aber auch die gleiche Konstellation wie beim G80. Naja...

mfg nakai

reunion
2007-02-12, 20:42:50
Das ist aber auch die gleiche Konstellation wie beim G80. Naja...

mfg nakai

Inwiefern?
3 x 1.35 x 128 = 518.4

Nakai
2007-02-12, 20:45:33
Von den ALUs!

MAD+MUL.

mfg Nakai

Gast
2007-02-12, 20:48:23
Die scheint ja zu reichen, die zwei entscheidenden Scores sind um ~20% höher. Und das dürfte sich mit höheren Auflösungen und mehr AA durch die höhere Bandbreite vermutlich noch steigern.



wenn es "nur" 512MB VRAM sind nicht unbedingt, mit 1GB sicherlich.

was mir allerdings an den werten seltsam vorkommt sind die 2 absolut identischen werte bei der CPU-score. es ist schon recht unwahrscheinlich dass der wert bei 2 durchläufen am gleichen system identisch ist, wenn dann noch teile der hardware getauscht werden (auch wenn es "nur" die graka ist) wird es noch unwahrscheinlicher.

reunion
2007-02-12, 20:52:44
was mir allerdings an den werten seltsam vorkommt sind die 2 absolut identischen werte bei der CPU-score. es ist schon recht unwahrscheinlich dass der wert bei 2 durchläufen am gleichen system identisch ist, wenn dann noch teile der hardware getauscht werden (auch wenn es "nur" die graka ist) wird es noch unwahrscheinlicher.

Stimmt, das kommt nur äußerst selten vor. Auch kommt mir die Taktrate der CPU etwas gar hoch vor. Die wenigsten erreichen diesen Wert wirklich Benchstabil.

robbitop
2007-02-12, 21:05:24
Also was 4-Way SIMD-Shader-Units zu bedeuten haben ist schwierig zu definieren. Vec4-ALUs werdens schonmal nicht. Das wären etwa 410 Gflops bei 800 Mhz.
Nicht wenn jede ALU 12 FLOPS beherrscht (also Dual Issue mit MAD+MUL). Dann kommt deren Rechnung schon hin.

Gast
2007-02-12, 21:11:26
Stimmt, das kommt nur äußerst selten vor. Auch kommt mir die Taktrate der CPU etwas gar hoch vor. Die wenigsten erreichen diesen Wert wirklich Benchstabil.

du weißt schon wer k|ngp|n ist oder?

deekey777
2007-02-12, 21:11:46
Also was 4-Way SIMD-Shader-Units zu bedeuten haben ist schwierig zu definieren.
Schaue auf den G80, dann weißt du, was 4-Way bedeutet. :)

4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops
Diese Rechnung ergibt einfach keinen Sinn, "way" hat da einfach nichts zu suchen. Bei einer Vec4-ALU sagt auch nicht 4-Wege-ALU, sondern 4-Channels (zB RGBA).
Trotzdem:
Vertex Operations: 15600 MVertices/sec
Was hat das hier zu suchen? Externer GS? Oder was ganz anderes?
Oder ein 2D-Kern?

reunion
2007-02-12, 21:12:22
du weißt schon wer k|ngp|n ist oder?

Nein. :)

Gast
2007-02-12, 21:13:01
Dann sollte man sich vorher informieren bevor man so einen quatsch erzählt.

reunion
2007-02-12, 21:15:23
Dann sollte man sich vorher informieren bevor man so einen quatsch erzählt.

Man könnte es auch einfach sagen, anstatt hier einen auf dicke Hose zu machen.

Schaue auf den G80, dann weißt du, was 4-Way bedeutet. :)


Diese Rechnung ergibt einfach keinen Sinn, "way" hat da einfach nichts zu suchen. Bei einer Vec4-ALU sagt auch nicht 4-Wege-ALU, sondern 4-Channels (zB RGBA).
Trotzdem:

Was hat das hier zu suchen? Externer GS? Oder was ganz anderes?


IMHO sind die technischen Daten größtenteil zusammengereimt, das ergibt aus mehrerlei Hinsicht keine Sinn. Allerdings muss das nicht bedeuten, dass er die Karte nicht in die Finger bekommen hat. Wie von jemanden weiter hinter schon erwähnt, kamen die ersten R580-Benchs auch von dieser Seite, und er postet ja auch in einem Forum, wo es wenig Sinn macht, sich zu Affen zu machen.

Gast
2007-02-12, 21:31:03
Ich hab einfach meine Quellen, ihr braucht's mir ja nicht glauben.

Oho, Du bist ja ein Guter!

Gast
2007-02-12, 21:31:42
Bitte:

http://www.youtube.com/watch?v=Ue1CYNtUYec

Der aktuelle 3Dmark06 Weltrekord halter

Relic
2007-02-12, 21:45:23
QX@5300Mhz = Fake

3DMark2006 Rekord von K|ngp|n: http://service.futuremark.com/compare?3dm06=1159937

Und der packt nicht mal so ohne Probleme 300Mhz drauf. Und wenn würde es schon längst im xtremesystems Forum stehen. Außerdem ist der Rekord beim QX im Moment bei genau 5304Mhz und das mit nem Suizid-Screen, nur einem aktiven Core und Meilenweit von benchstable entfernt: http://www.xtremesystems.org/forums/showthread.php?t=133426

Gast
2007-02-13, 00:00:42
Wie willst du das als außenstehender beurteilen, wieviel ATi in R600 investiert hat, noch dazu ohne die Specs oder Benchmarks zu kennen? Man fuhr mit der USA seit R400 ständig eine zweite Schiene, und jetzt wird sich zeigen, was das gebracht hat.

Naja man hat schon eine USA Architektur auf dem Markt, d.h. müsste ATI mehr "Erfahrung" und Know How in Sache Unified mitbringe als NV oder?
Aber wiedereinmal sind beide Unternehmen gleich auf, so wird es am Ende aussehen. Soll die XTX eben 15% schneller sein, dann wird eine GTX einfach etwas OCed und dann ist sie genauso schnell. Die Karten sind sowieso momentan von der Speed her ihrer Zeit voraus, da macht der Preis und die Features den Unterschied.

Nicht zu vergessen Treiber und XFire/SLI Funtkion für die Highend User. Das sind schließlich die einzigen die so ne Karte kaufen.
Welcher Highend User trimmt seine Graka bitte auf Silent... es muss ertragbar sein, der Rest der hier reinposaunt wird sich eine G80 oder R600 niemals kaufen. Stromverbrauch ist allerdings etwas das doch schon schmerzhafte Grenzen erreicht, 200Watt verbeulert ja nichtmal ein CRT alleine.

Ailuros
2007-02-13, 06:02:08
@Ailuros:

Warum heute so angriffslustig? Wenn ich Dein Posting deuten würde müßte ich sagen, daß Du offensichtlich nicht nur akzeptiert hast, daß heutige Hardware ein vielfaches der Verlustleistung damaliger Hardware hat sondern daß Du sogar noch froh darüber bist!

Weil ich von Grund auf allergisch bin was jegliche Andeutung betrifft die eine Technologiebremse darstellen koennte.

Ich bin weder frustriert noch froh mit der heutigen Verlustleistung; ich kann aber damit leben.

Intel's neues 80-core Experiment ist eine Andeutung fuer die Zukunft


Und schön langsam zipft mich High-End eh an: Die X800XT dreimal getauscht, und trotzdem noch eine defekte Karte gehabt; die 7800GTX-512 muß ich untertakten, damit sie halbwegs (!) stabil läuft; ein Cross-Shipment ist bei POV selbst bei dieser Karte nicht drin, da müßt ich wochenlang auf meinen Rechner verzichten.

Sowas kenn ich von früher halt nicht; ich hab viel verbaut, aber so empfindlich wie das Klump von heute war das alles nicht.

Es ist nicht so dass uns allen mal eine GPU den Geist aufgibt, aber entweder hast Du eine zu grosse Pechstraene mit den Dingern, oder irgend etwas anderes stimmt hier nicht (was aber auch nichts mit der Debatte zu tun hat).


Um auf Deinen "hart klingenden" Schlußsatz einzugehen: Ich werde faktisch zu High-End gezwungen, nachdem ich gerne aufwendige Spiele spiele; gottseidank kann ich mir den Aufwand der Wasserkühlung und den Strom für das Equipment leisten; wenn ich diesen Aufwand aber nicht treiben müßte, wärs aber wohl nicht nur mir deutlich lieber...

Anstatt aber vorzuschlagen dass sich die gesamte Industrie bremst, waere eine Alternative dass Du eben darauf wartest bis sich jegliche Technologie etwas ausreift und der Stromverbrauch etwas besser kontrolliert werden kann. Dass D3D10 anfangs den Pegel steigern wird war schon etwa ein Jahr vor der G80 Erscheinung bekannt; man kann einfach nicht die hohen D3D10 Vorraussetzungen einhalten, die Leistung bis zu 2x Mal erhoehen und erwarten dass das Resultat nur 50W verbratet. Die erste Rettungsplanke heisst dann 65nm.

Mir kommt der gesamte Spass auch nicht umsonst und obwohl ich nicht zur Wasserkuehlung gegriffen habe, hat mich allein der Kasten + eigenen Modifikationen fast 250 euro gekostet.

Ailuros
2007-02-13, 06:16:22
Zu den Quark-specs: albernste Kake ueberhaupt.

Erstens hat reunion den Nagel auf den Kopf getroffen mit dem ADD anstatt MUL, zweitens hat das Ding nicht 24 ROPs und drittens wenn Euch jemand sagt dass etwas 5 verdammte Dimensionen hat, erwartet Ihr eine gerade oder ungerade Zahl? *seufz*

Lawmachine79
2007-02-13, 09:46:41
http://www.ocworkbench.com/news/news.php
Scrollt da mal ein Stück runter. Da sind (vermeintliche) Specs zum R600, recht detailiert.
Man beachte die oberste Karte, die 2800XTX2.
SOLL ja die schnellste sein. In der Tabelle fällt auf, daß überall "*2" davor steht.
Also hätte man die ja 2800 GX2 nennen können ;).
Das lustige ist, daß die XTX2 nicht 2*128 sondern 2*96 Streamprozessoren (sieht ja von der Anzahl her aus wie das Konzept vom G80) hat und nur ein 256Bit SI. Also hat man wohl einfach zwei 2800GT/GTO genommen, GDDR4 draufgepackt und sie auf eine Karte gepackt. Das lässt Spielraum für Spekulationen zu, zumal es vom Preis her das Topmodell ist.
Und da wir im Spekulationsforum sind, spekuliere ich mal:
KEINE der Singlechiplösungen kann der 8800GTX das Wasser reichen. Deshalb greift man zu der Notlösung und packt zwei kleinere Chips auf eine Karte.
Warum kleinere Chips und nicht gleich die großen? Hier kommen die Spekulationen zur PCB-Größe und der Stromverbrauch ins Spiel, denn
1) Passen Karten in 286er-Mainboardgröße nicht in jedes Gehäuse
2) Ist der Flüssigstickstoffkühler zu schwer für den Versand
3) Das "Powerplant-In-A-Box" zu teuer. (Vermute französischer Tokamakreaktor, Prototyp)
Vielleicht ist die größte Singlechip Lösung ja minimal schneller als die 8800GTX. Aber am Tag der Vorstellung des R600 wird eh folgendes passieren
1) NV feuert neuen Treiber raus (mit aktiviertem MUL, wieviel auch immer es bringen mag
2) NV feuert G81 raus.
Das dürfte dem Singlechip R600 wieder das Wasser abgraben

Jemand eine Idee was die "80" sein soll? Temperatur im ausgeschalteten Zustand?
Lobenswert ist, daß es auch im Low-Cost Bereich keine Karten mit 64Bit-SI gibt.
Liege ich was die Spalten angeht irgendwo falsch:
1) Bezeichnung
2) Takt (GPU/RAM)
3) Speicherart
4) Breite Speicherinterface
5) Speichergröße
6) Anzahl Streamprozessoren
7) ?
8) MSRP (oder wie das heisst)

seahawk
2007-02-13, 09:51:41
Das liest sich eher wie ein G81 als wie ein R600.

128SP / 5 = 25.6 Vec4+1 ALUs. Ich denke nicht, Tim.

Lawmachine79
2007-02-13, 09:57:07
Das liest sich eher wie ein G81 als wie ein R600.

128SP / 5 = 25.6 Vec4+1 ALUs. Ich denke nicht, Tim.

Ich denke doch. Die Anzahl der SP ist die einzige Ähnlichkeit. Alle anderen Specs passen nicht zu G8x.

Superheld
2007-02-13, 09:57:11
wenn die Daten stimmen:wink: musste der R600 ab gehen wie eine Rakete:smile:

LovesuckZ
2007-02-13, 09:57:28
Die Werte sind alt und sind nicht real.
Vergleicht sie doch mal mit dem jeweiligen Konkurrenzprodukt...

Lawmachine79
2007-02-13, 09:59:41
wenn die Daten stimmen:wink: musste der R600 ab gehen wie eine Rakete:smile:

Falsch. Sonst gäbe es keine Zweichiplösung die aus kleineren GPUs zusammengeflanscht ist.

canada
2007-02-13, 10:12:56
Falsch. Sonst gäbe es keine Zweichiplösung die aus kleineren GPUs zusammengeflanscht ist. Da muss man sich aber echt mal die Frage stellen was die bei ATi die ganze Zeit gemacht haben! Denn wenn die zwei Chips brauchen um die 8800 GTX zuschlagen, hätten die auch einfach zwei R580 Chips auf eine Platine hauen sollen wie die GX2 von nVidia und hätten sich die Entwicklungskosten sparen können. Das wirkt wie der R420 der nach dem genialen R3x0 kam :(

Lawmachine79
2007-02-13, 10:31:31
Da muss man sich aber echt mal die Frage stellen was die bei ATi die ganze Zeit gemacht haben! Denn wenn die zwei Chips brauchen um die 8800 GTX zuschlagen, hätten die auch einfach zwei R580 Chips auf eine Platine hauen sollen wie die GX2 von nVidia und hätten sich die Entwicklungskosten sparen können. Das wirkt wie der R420 der nach dem genialen R3x0 kam :(

Naja...was ATI die ganze Zeit gemacht hat? Wahrscheinlich das gleiche, was NV gemacht hat, nachdem der R300 kam und man mit dem 1) verspäteten und 2) deutlich langsameren NV30 "konterte".
Zwei R580 auf einer Platine sind auch nicht immer schneller als ein 88GTX. Man siehe Crossfire vs. 88GTX Benches. Außerdem muss man ja schnellstmöglich ein DX10-Produkt auf den Markt werfen.

dargo
2007-02-13, 11:08:03
Also hätte man die ja 2800 GX2 nennen können ;).
Das lustige ist, daß die XTX2 nicht 2*128 sondern 2*96 Streamprozessoren (sieht ja von der Anzahl her aus wie das Konzept vom G80) hat und nur ein 256Bit SI. Also hat man wohl einfach zwei 2800GT/GTO genommen, GDDR4 draufgepackt und sie auf eine Karte gepackt. Das lässt Spielraum für Spekulationen zu, zumal es vom Preis her das Topmodell ist.

Jetzt mal ernsthaft. Was soll eine X2800GX2 mit einem 256Bit SI und 1Ghz Speichertakt denn überhaupt anrichten? :|

K4mPFwUr$t
2007-02-13, 11:08:05
@warmachine79
glaubst du wirklich an eine dual GPU lösung? :rolleyes:
eine lösung dieser art würde sehr virel PCB fressen, siehe bisherige dual GPU lösungen. dabei ist meist die höhe und auch die länge recht hoch.
und da die retail version nur 24cm messen wird, wohl zu knapp bemessen dafür.

zumal woher willst DU bitte wissen, das die XTX gerade mal minimalst schneller ist als die leicht betagte 8800GTX? bedenke ATI hätte den r600 schon früher bringen können, der jetztige stand der dinge gleich eher einem refresh.
zumal ja 512bit ringbus SI mit GDDR3 / GDDR4 voll die bremse bei qualitässettings ist :rolleyes:

Lawmachine79
2007-02-13, 11:12:32
@warmachine79
glaubst du wirklich an eine dual GPU lösung? :rolleyes:
eine lösung dieser art würde sehr virel PCB fressen, siehe bisherige dual GPU lösungen. dabei ist meist die höhe und auch die länge recht hoch.
und da die retail version nur 24cm messen wird, wohl zu knapp bemessen dafür.

zumal woher willst DU bitte wissen, das die XTX gerade mal minimalst schneller ist als die leicht betagte 8800GTX? bedenke ATI hätte den r600 schon früher bringen können, der jetztige stand der dinge gleich eher einem refresh.
zumal ja 512bit ringbus SI mit GDDR3 / GDDR4 voll die bremse bei qualitässettings ist :rolleyes:

1) Weil die Dualchiplösung soviel PCB frisst ist ja der kleine Chip drauf.
2) Wenn die XTX deutlich schneller wäre, wäre man nicht auf so eine Dualchiplösung angewiesen.
3) NV30 <---> R300 alles schon mal passiert. Nur umgekehrt
4) Vielleicht lässt sich an den kleinen Chip kein 512-Bit SI anflanschen? Würde das PCB damit nicht wieder komplexer/größer werden (aus eben jenem Grund ja auch der kleine Chip für die Dualchiplösung
5) Wenn sie ihn hätten früher bringen können, dann hätten sie es getan. Jede Stunde ohne R600 kostet ATI Kohle und Image.

Superheld
2007-02-13, 11:19:31
warte erstmal ab, es soll noch eine X2800XTX8 kommen:tongue:

K4mPFwUr$t
2007-02-13, 11:20:26
sry, aber du labberst viel müll um sachen die du nicht wissen kannst

1) kleiner chip != kleines package
2) hast du einen R600XTX prototyp in deinem zweit PC stecken, oder woher willst du etwas wussen das ATI eine dual chip lösung braucht um einen betagten G80 chip zu überholen. zumal noch nichtnal gerüchte auf eine dual lösung an die öffentlich kam. etwa eine neue glaskugel heute angeliefert?
3) glaskugel?
4) schonmal ein bild von der r600 DIE gesehen? wenn ja würdest du nicht soviel müll schreiben wie gerade eben. der R600 hat 700mio und mehr transistoren und dadurch mehr fläche als der G80 mit seinem SI
zumal ATI ein PCB entwickeln lassen hat, mit mehreren layern.
und um weiterhin mehr platz für GPU und VRAM zu bekommen, DPWM als spannungswandler.

bitte lasse deine "sinnlosen" speku ... da biste ja schon schlimmer wie the inq

robbitop
2007-02-13, 11:26:14
Sorry aber das ist IMO der größte Hoax den ich in den letzten Wochen gelesen habe.

Botcruscher
2007-02-13, 11:27:10
Zu den Quark-specs: albernste Kake ueberhaupt.


Was dem Menschen in Wissen mangelt wird durch Phantasie und Glaube wieder ausgeglichen. Beschert hat uns das weitere 10 Seiten Postings und 3 große Weltreligionen. :biggrin:

Die Teaser tun ihr übriges.:rolleyes:

Lawmachine79
2007-02-13, 11:31:05
sry, aber du labberst viel müll um sachen die du nicht wissen kannst

1) kleiner chip != kleines package
2) hast du einen R600XTX prototyp in deinem zweit PC stecken, oder woher willst du etwas wussen das ATI eine dual chip lösung braucht um einen betagten G80 chip zu überholen. zumal noch nichtnal gerüchte auf eine dual lösung an die öffentlich kam. etwa eine neue glaskugel heute angeliefert?
3) glaskugel?
4) schonmal ein bild von der r600 DIE gesehen? wenn ja würdest du nicht soviel müll schreiben wie gerade eben. der R600 hat 700mio und mehr transistoren und dadurch mehr fläche als der G80 mit seinem SI
zumal ATI ein PCB entwickeln lassen hat, mit mehreren layern.
und um weiterhin mehr platz für GPU und VRAM zu bekommen, DPWM als spannungswandler.

bitte lasse deine "sinnlosen" speku ... da biste ja schon schlimmer wie the inq

1) Kleiner Chip = weniger Stromaufnahme, weniger Fläche für Versorgungskomponenten notwendig --> kleineres PCB. Schonmal 88GTS und GTX nebeneinander gehalten?
2) Nein, habe ich nicht. Meine Spekulationen leiten sich aber aus der Tabelle ab.
3) Nein. Ist halt schonmal passiert. Wo ist das Problem?
4) EBEN WEIL das Ding so groß ist muss man die Zweichiplösung auf dem kleineren Chip basierend machen WEIL DANN NICHT SOVIEL FLÄCHE FÜR STROMVERSORGUNG DRAUFGEHT
5) Spekulationen sind immer sinnlos

up¦²
2007-02-13, 11:35:20
Es kommt auch eine Profi-Variante des R600: FireStream met 2 en 4 GB! ;)
http://translate.google.com/translate?sourceid=navclient-menuext&hl=en&u=http%3A%2F%2Fwww%2Ehardspell%2Ecom%2Fdoc%2Fhardware%2F34335%2Ehtml

Könnte es sein, daß diese Karten die 'überdimensionierten' full-size-Modelle sind?

K4mPFwUr$t
2007-02-13, 11:40:16
@warmachine76
glaub ruhig weiter an deine dual chip R600 lösung :rolleyes:
zumal informiere dich erstmal über DPWM, was ich damit meinte.
der g80 hat kein DPWM, daher soviel platzhunger.

@up²
war schon bekannt. man wird wohl damit rechnen können das sie karte full-size werden wird, bei schon 2Gb wären es ja mit 64MB chips insgesammt 32 nötig. von der 4GB version garnicht mal zu sprechen. könnte vieleicht wieder so eine speicherfarm werden wie bei den großen voodoos ;)

dargo
2007-02-13, 11:45:53
@warmachine79
Eine Dualchip-Lösung macht keinen Sinn wenn man dafür das SI halbieren muss. In erster Linie soll die Dualchip-Lösung schneller sein als die schnellste Singlechip-Karte. Und gerade in hohen Auflösungen mit viel AA würde die "X2800GX2" am Mangel von Bandbreite verrecken.

Lawmachine79
2007-02-13, 11:53:16
@warmachine79
Eine Dualchip-Lösung macht keinen Sinn wenn man dafür das SI halbieren muss. In erster Linie soll die Dualchip-Lösung schneller sein als die schnellste Singlechip-Karte. Und gerade in hohen Auflösungen mit viel AA würde die "X2800GX2" am Mangel von Bandbreite verrecken.

Klar macht die Halbierung des SI keinen Sinn. Aber wenn man keine Alternative hat...ich vermute ja eben, daß alle Chips mit 512 Bit SI die Kartengröße zu stark anwachsen lassen.
@Kampfwurst. Hast Du den Screen von der R600 gesehen? Die ist auch nicht gerade klein.

K4mPFwUr$t
2007-02-13, 11:59:50
@warmachine79
deswegen hat das PCB auch mehr layer und DPWM im gegensatz zum G80.
des weiteren hat ATI ringbus und somit wird keine direkte verbinndung auf dem PCB von VRAM zu GPU benötigt.
aber auf postings scheinst du ja kaum eingehen zu können.
zumal woher willst du wissen das ATI keine alternative hat? leider kann ich das nicht selber nachschauen, meine glaskugel ist in repearatur.

Lawmachine79
2007-02-13, 12:07:59
@warmachine79
deswegen hat das PCB auch mehr layer und DPWM im gegensatz zum G80.
des weiteren hat ATI ringbus und somit wird keine direkte verbinndung auf dem PCB von VRAM zu GPU benötigt.
aber auf postings scheinst du ja kaum eingehen zu können.
zumal woher willst du wissen das ATI keine alternative hat? leider kann ich das nicht selber nachschauen, meine glaskugel ist in repearatur.

Ich beanspruche ja nicht, daß ich zwangsläufig recht haben muss. Wer das von sich beansprucht ist im Spekulationsforum denke ich auch an der falschen Adresse.
Ich WEISS nicht, daß ATI keine Alternative hat, ich VERMUTE es, weil ich das aus der Aufstellung in der von mir verlinkten Tabelle abgeleitet habe.
Zum Thema DPWM. Ich weiß, daß es auf dem R600 zum Einsatz kommen soll, klappt ja auch auf der X1950 Pro. ABER wenn DPWM weniger Platz braucht (Du sagst, ja daß das PCB der G80 so groß ist, weil KEIN DPWM verwendet wird, ergo KANN eine Karte mit DPWM KLEINER sein) warum ist dann die Karte auf dem Screenshot so groß geraten? Ich weiß, was DPWM ist und was es für Vorteile bietet, aber ich kann Deine Argumentation nicht ganz nachvollziehen.
Zu Deinem Vorwurf mit dem "rumspekulieren": Ja, genau das mache ich. Das ist ja auch Sinn des Threads und dieses Subforums. Ich weiß nicht, ob der Screenshot echt ist oder nicht. Ich weiß auch nicht ob die Tabelle stimmt. Kann sein, kann aber auch nicht sein. Aber die Aussagen die sich aus der Tabelle ableiten lassen (unter der Prämisse, das sie stimmt) passen gut zu den Aussagen, die sich aus dem Screenshot ableiten lassen (Prämisse: siehe Tabelle).

"@Kampfwurst.....R600 ist auch nicht gerade klein"
Deine Antwort: "Deswegen hat das PCB auch mehr layer und DPWM im gegensatz zum G80"
Sollte sie nicht eigentlich kleiner sein, wenn DPWM und mehr Layer zum Einsatz kommen?
Das widerspricht sich doch.

K4mPFwUr$t
2007-02-13, 12:12:11
warum die karte so groß ist? ganz einfach ... viele speicherchips mit je 64MB.
da hast du deine antwort. zeig doch mal deine tabelle, woher nur du erkennen willst das ATI eine dual lösung plant bzw. nur damit chancen gegen die GTX hat :rolleyes:

PS: es gibt sinnreiche speku und es gibt weniger sinnreiche speku, darunter zähle ich deine dual GPU R600 lösung von dir.

Lawmachine79
2007-02-13, 12:23:59
warum die karte so groß ist? ganz einfach ... viele speicherchips mit je 64MB.
da hast du deine antwort. zeig doch mal deine tabelle, woher nur du erkennen willst das ATI eine dual lösung plant bzw. nur damit chancen gegen die GTX hat :rolleyes:

PS: es gibt sinnreiche speku und es gibt weniger sinnreiche speku, darunter zähle ich deine dual GPU R600 lösung von dir.

Zeig doch mal die Tabelle??? Die habe ich doch verlinkt. Aber hier nochmal:

http://www.ocworkbench.com/news/news.php
Scrollt da mal ein Stück runter.

Also: stell Dir einfach mal vor, die Singlechiplösung ist wirklich so groß wie auf dem Screenshot, ist aber nicht signifikant schneller (und das wird erwartet, daß ATIs neues Topprodukt DEUTLICH schneller ist) als die 88GTX. Was soll ATI dann machen? Sagen "Die Anderen haben ein besseres Produkt"? Wohl kaum. Eine Dualchiplösung aus dem Riesenmonster machen? Wohl auch nicht. Einen kleineren Chip nehmen, der c.a. 75% Leistung des großen besitzt aber viel weniger Fläche für Infrastruktur frisst und eine Dualchiplösung daraus machen? DAS schon eher.
Zumal viele sich schon die Lippen wegen dem Riesen-SI und der Riesenmenge-Ram lecken. Ich bin zwar kein Experte, aber ich weiß, daß Leistung immer noch in der GPU entsteht und sonst nirgends. Das SI und der Speicher dient nur "Lagerung & Transport". Könnte einerseits darauf hindeuten, daß die GPU Mordsleistung hat, die transportiert werden will. Kann aber auch auf ein schrecklich ineffizientes Design hindeuten. Sind ja auch ATIs erste Gehversuche mit einem Unified-Chip.
Außerdem: sieh noch mal in die Tabelle: höherer Chiptakt, höherer Ramtakt, GDDR4, dickes SI, ne Menge Speicher...lässt sich alles hervorragend für Marketing nutzen. Ich kann mir jedenfalls nicht vorstellen, daß der R600 SO leistungsstark ist, daß er soviel RAM, so ein dickes SI benötigt. Das würde ja glatt den R300 Launch in den Schatten stellen.
Tja, dann wird der R600 wohl entweder DER Riesenwurf oder ATIs NV30-Waterloo.

Ailuros
2007-02-13, 12:32:06
Was dem Menschen in Wissen mangelt wird durch Phantasie und Glaube wieder ausgeglichen. Beschert hat uns das weitere 10 Seiten Postings und 3 große Weltreligionen. :biggrin:

Die Teaser tun ihr übriges.:rolleyes:

*dehnt sich und schlaeft weiter* :biggrin:

James Ryan
2007-02-13, 12:40:12
@warmachine79
Die Retail-Karte wird ~24 cm lang sein, also kürzer als jede GTX.
Auch das PCB der OEM-Karte ist nur 24 cm lang, also bringen die DPMW schon etwas.
Was erwartest du denn, eine 10 cm Karte oder was? ;D
Irgendwo müssen die Speicherchips ja auch hin.

MfG :cool: