Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: weitere D3D10-Produkte in Arbeit, Teil 2


Seiten : 1 2 3 [4] 5

reunion
2007-04-07, 20:11:01
Ach iwo, glaubt ihr Everest oder sonstwas kann solche Daten auslesen?
Der liest die Device ID aus und gibt die Daten aus der Datenbank, die der Programmierer erstellt hat, wieder. Diese Angaben muessen nicht stimmen. Fuer 2 Cluster ist die Performance der 8600GTS viel zu gut.

Nur hat die alte Version von Everest noch vier Cluster angezeigt, und die neue Version (welche womöglich schon G84-kompatibel ist?) zeigt auf einmal nurnoch zwei an. Und auch zwei Cluster schaffen immerhin 16 bi Samples pro Takt bei den sehr hohen Taktfrequenzen des G84. Und bei einem Shaderclock von fast 1.5Ghz laut Everest wäre die Shaderfüllrate auch gar nicht so gering. Ob die Leistung dafür wirklich zu gut ist? Für vier Cluster ist sie IMHO jedenfalls zu schlecht.

Gast
2007-04-07, 20:19:17
Wenn die g84 Karten nur zwei Cluster hätten, ist der Abstand zwischen der 8600GTS und der 8800GTS mit 320mb einfach zu groß. Auch mit einem Preis von 200€ kann dann nicht wirklich "argumentiert" werden.
Entweder kommt da noch was oder nVidia hat nach zwei sehr guten Karten einen sehr schlechten Bock geschossen.

Nakai
2007-04-07, 20:22:12
Und wir sind uns doch wohl einig, dass trilineare Filterung auch für eine Midrange-Karte unabdingbar ist.



Nein, die reichen vollkommen aus.

Sicherlich ist Trilineare Filterung unabdingbar, aber ich glaube nicht, dass eine Midrangekarte für höhere Texturfilterung wie 4xAF wirklich konzipiert ist.
(Bezug auf aktuellere Software)
Man muss auch sehen, dass mit dem Mainstream Geld gescheffelt wird. Da wird der Chip so klein wie möglich gehalten.

Naja die 7600GT hatte auch schon 8 ROPs, aber natürlich nicht so große.

mfg Nakai

Gast
2007-04-07, 20:26:07
Sicherlich ist Trilineare Filterung unabdingbar, aber ich glaube nicht, dass eine Midrangekarte für höhere Texturfilterung wie 4xAF wirklich konzipiert ist.
Aha?
Dann ist 4xAF nur für Highendkarten in Standardauflösungen vorgesehen?
Bisher sah ich das immer so:
LowEnd: Standardauflösung ohne BQ Features und mittleren Details
Midrange: Standardauflösung mit mittleren BQ Features und hohen Details
HighEnd: Hohe Auflösungen mit hohen BQ Features und hohen Details

Zwischen Midrange und Highend entsteht momentan eine zu große Lücke...

Gast
2007-04-07, 20:31:13
Sicherlich ist Trilineare Filterung unabdingbar, aber ich glaube nicht, dass eine Midrangekarte für höhere Texturfilterung wie 4xAF wirklich konzipiert ist.


Was hat das "4xAF" hier zu tun?!
Ansonsten hat AF einen geringeren Leistungseinbruch als AA oder eine höhrere Auflösung. Der AF - Algorithmus ist schon optimiert.
Nach deiner Argumentation müsste man den ROPs auch die Fähigkeit "nehmen" mehr als 2 MSAA - Samples verwenden zu können...
Auch die Sache mit dem hohen Shadertaktes ist in Bezug des Fehlen NVIO CHips nicht nachvollziehbar.

robbitop
2007-04-07, 20:37:19
Ich gehe jetzt besonders auf die TMUs ein. Wie ich das sehe, können die TMUs der Geforce 8600GTS nur ein BiSample produzieren.
Wie kommst du darauf? Gibts bisher ein paar Hinweise (zB Fuellratentests)?
IMO ist es eine nicht unwahrscheinliche Moeglichkeit. Allerdings haette man damit wieder ins Chipdesign eingreifen muessen.

Dadurch hat man die erste der beiden TMUs wohl entfernt.
Wieso mehrere TMUs (in Reihe)? Eine TMU besteht aus Adress Units und Texture Units (fuer die lineare interpolation von Samples).
Beim G80 ist das Verhaeltnis TA zu TU pro TMU nun bei 2:1.

So ist auch 4xAF dann nicht mehr kostenlos.
Du meinst 2x biAF?


Ebenso sind 8 ROPs schon sehr wenig.
Wie kommst du darauf, dass 64 Z-Test Units und 8 Blender in den verbliebenen 2 ROP Partitions zu wenig waeren?

Coda
2007-04-07, 20:51:59
Das Z-Testing ist aber gar nicht so wichtig. Wie sieht's denn mit der Stencil-only-Füllrate aus? (Hab's grad nicht im Kopf)

robbitop
2007-04-07, 20:55:16
Das Z-Testing ist aber gar nicht so wichtig. Wie sieht's denn mit der Stencil-only-Füllrate aus? (Hab's grad nicht im Kopf)
Soweit ich weiss beherrscht jede Z-Unit auch Stencilops.

Gast
2007-04-07, 20:56:57
Das Z-Testing ist aber gar nicht so wichtig. Wie sieht's denn mit der Stencil-only-Füllrate aus? (Hab's grad nicht im Kopf)

"70Gpixels/sec of Z-only fill"
http://www.beyond3d.com/content/reviews/1/11

Coda
2007-04-07, 20:57:53
Soweit ich weiss beherrscht jede Z-Unit auch Stencilops.
Nur wenn du gleichzeitig nicht auch Z brauchst

robbitop
2007-04-07, 21:23:19
Nur wenn du gleichzeitig nicht auch Z brauchst
Dann sind es pro Partition immerhin noch 16xWerte.

Nakai
2007-04-08, 10:52:21
Beim G80 ist das Verhaeltnis TA zu TU pro TMU nun bei 2:1.


Bei der Geforce 8600GTS könnte ich mir ein Verhältnis 1:1 sehr gut vorstellen.

mfg Nakai

Gast
2007-04-08, 11:36:46
Sollten sich die 2 Cluster bewahrheiten wäre das die Entäuschung schlechthin. Spekuliert wurde auf einen halben G80, das wäre dann von der Arithmetikleistung ein wenig mehr als ein 1/4 G80. Selbst der RV530 war da noch deutlich näher dran am Highend.

Gabbabytes
2007-04-08, 14:07:45
die im net kursierenden benches der neuen mittelklasse enttäuschen auf ganzer linie. damals hat die 7600gt ordentlich an leistung ggüber der alten mittelklasse gebracht. aber heute sind 1950pro und co. so günstig und besitzen dazu ein 256bit interface, dass alles mit 128bit einfach nur lächerlich ist.

sorry, aber dann lieber gleich eine 8800gts mit 320mb.

weiss eigentlich jemand, ob es nun einen treiber gibt, der bei der 8xxx reihe von nv idle-verbrauch senkt?

Gast
2007-04-08, 14:29:04
die im net kursierenden benches der neuen mittelklasse enttäuschen auf ganzer linie. damals hat die 7600gt ordentlich an leistung ggüber der alten mittelklasse gebracht. aber heute sind 1950pro und co. so günstig und besitzen dazu ein 256bit interface, dass alles mit 128bit einfach nur lächerlich ist.

sorry, aber dann lieber gleich eine 8800gts mit 320mb.

weiss eigentlich jemand, ob es nun einen treiber gibt, der bei der 8xxx reihe von nv idle-verbrauch senkt?
Das ist Absicht. Man will auch für Gelegenheitsgamer keinen Anreiz schaffen, sich diese brutal beschnittenen Versionen zuzulegen. Da soll die 8800 GTS 320 MB die günstigste Einstiegsalternative bleiben. Alles andere wird mit drastischen Einbußen bei der Optik oder bei der Performance bestraft.
Wenn's schon einen Treiber gäbe, der den Idle Verbrauch senkt, dann hätte sich die Botschaft schon wie ein Lauffeuer im Internet verbreitet.

Gast
2007-04-08, 14:38:28
Kann hier jemand ziemlich sicher sagen, dass die 8800Ultra am 17. kommt?

Gast
2007-04-08, 14:39:10
Ja, das würde mich auch interessieren.

Gabbabytes
2007-04-08, 14:40:08
Das ist Absicht. Man will auch für Gelegenheitsgamer keinen Anreiz schaffen, sich diese brutal beschnittenen Versionen zuzulegen. Da soll die 8800 GTS 320 MB die günstigste Einstiegsalternative bleiben. Alles andere wird mit drastischen Einbußen bei der Optik oder bei der Performance bestraft.
Wenn's schon einen Treiber gäbe, der den Idle Verbrauch senkt, dann hätte sich die Botschaft schon wie ein Lauffeuer im Internet verbreitet.

ja das ist wohl wahr. ich muss mal jemand aus der branche fragen...

robbitop
2007-04-08, 15:03:14
Laut AiL soll es ja noch Version zw G80 und G84 geben. Mit 256 Bit SI und 6 Clustern.

nordic_pegasus
2007-04-08, 16:38:37
Laut AiL soll es ja noch Version zw G80 und G84 geben. Mit 256 Bit SI und 6 Clustern.

nachdem die 8600GTS für mich immer uninteressanter wird, wäre das eine sehr nette Alternative. Meinst Du, sowas würde dann auch in absehbarer Zeit gelauncht werden (noch im Q2) oder erst im zweiten Halbjahr (in 65nm?).

reunion
2007-04-08, 16:42:58
Definitiv 65nm.

AnarchX
2007-04-08, 16:52:26
Kann hier jemand ziemlich sicher sagen, dass die 8800Ultra am 17. kommt?

Laut letzten Infos kommt sie erst Ende Mai.

An die 2 Cluster beim G84 glaube ich eher nicht, da er 1. zu groß dafür ist und 2. die Leistung teilweise zu hoch dafür ist und 3. was soll da der G86 sein 8 ROPs/4TMUs?:| .

Ich denke eher es sind 3 Cluster oder 4 mit Einsparungen(vielleicht wurde ja pro Cluster eine Vec8 ALU entfernt, wobei das auch eher unsinnig scheint).
Naja, bald werden es wir wissen...

robbitop
2007-04-08, 17:13:08
Hoert doch mal mit der stupiden Zaehlerei auf. Der Begriff TMU als auch ROP sagt per se derweil so wenig ueber deren Leistungsfaehigkeit und Einfluss auf die Gesamtleistung aus wie nie zuvor.

Gast
2007-04-08, 17:14:14
Laut Andre Yang kommt die Ultra bald.

reunion
2007-04-08, 17:26:29
Hoert doch mal mit der stupiden Zaehlerei auf. Der Begriff TMU als auch ROP sagt per se derweil so wenig ueber deren Leistungsfaehigkeit und Einfluss auf die Gesamtleistung aus wie nie zuvor.

Da man mit dem G80 schon eine Referenz hat, halte ich diese Zählerei für alles andere als stupide. Denn an der Leistungsfähigkeit einer beliebigen Einheit wird sich innerhalb einer Generation kaum etwas ändern. Dass das nicht auf andere Chips übertragbar ist, sollte inzwischen der letzte begriffen haben.

sth
2007-04-08, 17:33:38
Laut Andre Yang kommt die Ultra bald.
Mal ins blaue Spekuliert: Da man damit rechnet, dass zum Apple-Presseevent auf der NAB am 15.04. die Verfügbarkeit der neuen Quadro-Generation verkündet wird (mit Apple als ersten Launch-Partner), könnte ich mir vorstellen, dass man das Event evtl. gleich auch zur allgemeinen Vorstellung der 8800ultra nutzen könnte. Würde zumindest in den diskutierten Zeitrahmen passen.

AnarchX
2007-04-08, 17:56:17
Gigabyte scheint für die Freunde leiser PCs eine passive Version der 8600GTS anzubieten:
http://img124.imageshack.us/img124/5370/vgaproductimageganx86s2yc8.jpg
http://chinese.giga-byte.com/Products/VGA/Products_Spec.aspx?ProductID=2512

Und hier gibt es noch ein paar Bilder einer 8600GT+Verpackung eines asiatischen Herstellers, SLI 2.0 wird hier übrigens auch genannt:
http://img233.imageshack.us/img233/5966/02462126882610ju6.jpg
Quelle (http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://news.mydrivers.com/1/81/81096.htm&prev=/language_tools)

robbitop
2007-04-08, 18:09:54
Dass das nicht auf andere Chips übertragbar ist, sollte inzwischen der letzte begriffen haben.
Fuer die ROPs gilt das anscheinend nicht. Und bei den TMUs bin ich mir auch nicht sooo sicher.

laser114
2007-04-08, 20:03:24
Die in unserem Test verwendeten Beta-Treiber (NVIDIA Forceware 100.95) sind, obwohl sie dem Retail Karton der von uns regulär im Handel gekauften Grafikkarte beilagen, laut NVIDIA nicht für den Verkauf vorgesehen. Zum bevorstehenden Launch sollen vollwertige WHQL-Treiber vorliegen und auch ausgeliefert werden. Wir haben diese WHQL-Treiber, welche derzeit noch unter NDA stehen, zugeschickt bekommen und getestet. Dabei zeigten sich in einigen Testläufen deutliche Abweichungen. Wir ziehen unseren Artikel in Absprache mit NVIDIA bis zum Zeitpunkt der Markteinführung zurück und werden dann die Ergebnisse der WHQL-Treiber publizieren. Fragen zum Zeitpunkt des Launches oder zu den Treibern richten Sie bitte direkt an NVIDIA.

http://www.au-ja.de/review-club3d8600gts-1.phtml

...

Black-Scorpion
2007-04-08, 20:26:46
Wenn die ihre Karte im Laden gekauft haben und der Treiber dabei war ist das doch nicht deren Problem.
Warum kriechen die NV dann in den A**** und ziehen den Test zurück?
Haben denen die Ergebnisse nicht gefallen (zu schlecht?) und machen Druck?
Wenn ja, mit welchem Recht?

'edit'
Nur am Beta Treiber kann es ja bestimmt nicht liegen.
Diese Bezeichnung haben ja 99% der nVidia Treiber.

laser114
2007-04-08, 20:41:11
Warum kriechen die NV dann in den A**** und ziehen den Test zurück?
Haben denen die Ergebnisse nicht gefallen (zu schlecht?) und machen Druck?
Wenn ja, mit welchem Recht?

Die Ergebnisse dürfte ihnen nicht gefallen haben, ja.

Ich vermute aber das nvidia irgendwas geboten hat (kostenlose Exemplare der nächsten Testkarten, finanzielle Vorteile oder ähnlich), damit sie den Test einziehen. Immerhin haben sie ja auch die NDA-Treiber bekommen.

Coda
2007-04-08, 21:09:38
Wenn der Treiber aber wirklich einiges reißt, hätte es sowieso einen Nachtest geben sollen. Aber das sie den ganzen Test runternehmen find ich auch merkwürdig. Ich hätte das halt am Anfang vermerkt oder wenigstens die Bildchen usw. drin gelassen.

Spätestens wenn die R600-Derivate auf dem Markt sind wird aber eh nochmal verglichen.

Gast
2007-04-08, 21:46:21
Wenn die ihre Karte im Laden gekauft haben und der Treiber dabei war ist das doch nicht deren Problem.
Warum kriechen die NV dann in den A**** und ziehen den Test zurück?
Haben denen die Ergebnisse nicht gefallen (zu schlecht?) und machen Druck?
Wenn ja, mit welchem Recht?

'edit'
Nur am Beta Treiber kann es ja bestimmt nicht liegen.
Diese Bezeichnung haben ja 99% der nVidia Treiber.
Was mich am meisten wundert ist das dieser Herr nicht über Datenkorruption beim nForce4 berichtet hat.
Fanboy oder hat er einfach die Hosen voll?!

Er war übrigens auch der den '686B Bug' entdeckte.

laser114
2007-04-08, 21:47:50
Was mich am meisten wundert ist das dieser Herr nicht über Datenkorruption beim nForce4 berichtet hat.
Fanboy oder hat er einfach die Hosen voll?!

Er war übrigens auch der den '686B Bug' entdeckte.

Bezug zum Thema?

AnarchX
2007-04-08, 21:55:32
DailyTech Digest: GeForce 8800 Ultra
NVIDIA has one more hurrah on the "G80" processor (http://www.dailytech.com/DailyTech+Digest+GeForce+8800+Ultra/article6826.htm)
Roadmaps provided by NVIDIA reveal the 8800 Ultra will launch on May 1 with a price point of $999. The company would not reveal further specifications about the card, other than it is based on the same G80 core found in the GeForce 8800 GTX.

laser114
2007-04-08, 22:02:48
Was wollen die für 1000$ verkaufen?

DailyTech spekuliert ja auf einen Doppelkerner...

Einfach nur eine extrem höher getaktete Version wäre für den Preis ja nun ein absolutes Benchmarkmodell ... naja, wenn man es braucht.

Coda
2007-04-08, 22:47:41
Dual Chip glaube ich kaum, dann würde sie nicht 8800 Ultra heißen. Und ob der Preis so stimmt wird sich auch noch zeigen.

AnarchX
2007-04-08, 22:59:53
Nunja, er scheint jedenfalls auf der Roadmap zu stehen.

Wie wäre es eigentlich damit ein neues PCB zu entwerfen, bei welchem man anstatt des NVIOs einen G84/G86 verbaut, der dann noch für SLI-Physik verwendet werden könnte.

robbitop
2007-04-08, 23:07:21
Was haben wir bisher an Physikbeschleunigung auf dem Markt gesehen? Haben wir eine Physik API? Hat sich irgendetwas durchgesetzt? Hab ich was verpasst?

Bisher ist das nicht mehr als Spielkram. Wenn soetwas in breiter Masse kommt, dann erst mit einer richtigen API von MS. Und selbst daran sollte man aufgrund der wachsenden Anzahl der CPU Cores und deren SIMD Leistung arg zweifeln.

Und ohne entsprechende durchgesetzte Software macht es keinen Sinn so eine Hardware zu bauen.

AnarchX
2007-04-08, 23:12:55
SLI 2.0 scheint nah zu sein und NV arbeitet ja seit einer Zeit zusammen mit Havok an GPU-beschleunigter Physik.
Ich könnte mir vorstellen, dass da bald einiges kommt.

Noch eine andere Idee für die Ultra: eine Vorrichtung am PCB an der ein G84/G86M-MXM-Modul befestigt wird.

Gast
2007-04-08, 23:18:23
Es wird keine DUAL - Karte werden! Vielleicht verkauft nVidia ein Bundle mit zwei Einzelkarten, die leicht höher getaktet sind - so wie AMD mit dem 4x4.
Aber auf einer Platine oder mit zwei "zusammenverdrahteten" wie bei der 7950GX² werden sie mit dem G80 nicht ankommen.
Wie soll so ein Monstrum gekühlt werden?

reunion
2007-04-08, 23:46:17
Sieht verdammt nach einem GTX512-Nachfolger aus. Einige tausend Chips, die man über Monate aussortiert hat, und die unter hoher Spannung sehr hohe Taktraten stabil bewerkstelligen können. Und da Angebot und Nachfrage den Preis bestimmen, und das Angebot vermutlich nur sehr dürftig sein wird, muss man eben über den Preis die Nachfrage drücken. Dass das zu dem Preis eine reine Benchmarkkarte wird, damit nV am Ende vielleicht ein paar Prozentpunkte vorne liegt, sollte auch klar sein. Für mich eher traurig, dass man soetwas überhaupt nötig hat.

Gast
2007-04-08, 23:59:02
Sieht verdammt nach einem GTX512-Nachfolger aus. Einige tausend Chips, die man über Monate aussortiert hat, und die unter hoher Spannung sehr hohe Taktraten stabil bewerkstelligen können. Und da Angebot und Nachfrage den Preis bestimmen, und das Angebot vermutlich nur sehr dürftig sein wird, muss man eben über den Preis die Nachfrage drücken. Dass das zu dem Preis eine reine Benchmarkkarte wird, damit nV am Ende vielleicht ein paar Prozentpunkte vorne liegt, sollte auch klar sein. Für mich eher traurig, dass man soetwas überhaupt nötig hat.
Wieso nicht, wenn man ein paar Freaks zusätzliches Geld aus der Tasche ziehen kann? Man bleibt weiterhin auch in Computerforen in aller Munde und Benchmarks kursieren durch das Internet. Amd wird versuchen dagegenzuhalten und eine XTX wird sicherlich auch extrem werden, in Bezug auf Leistung, Preis und Ausmaße der Karte. Am Ende heißt's bei beiden: Kunde, machen Sie ihren großen Geldbeutel bereit. :D

Gast
2007-04-09, 00:27:51
SFür mich eher traurig, dass man soetwas überhaupt nötig hat.

Dann müsstest du den r600 auch als "eher traurig" ansehen.
nVidia macht nur das, was klar ersichtlich ist: Auf Kosten des Stromverbrauches ein Monstrum rausbringen. Luft nach oben haben sie ja noch.

Blaire
2007-04-09, 01:43:39
Sieht verdammt nach einem GTX512-Nachfolger aus. Einige tausend Chips, die man über Monate aussortiert hat, und die unter hoher Spannung sehr hohe Taktraten stabil bewerkstelligen können. Und da Angebot und Nachfrage den Preis bestimmen, und das Angebot vermutlich nur sehr dürftig sein wird, muss man eben über den Preis die Nachfrage drücken. Dass das zu dem Preis eine reine Benchmarkkarte wird, damit nV am Ende vielleicht ein paar Prozentpunkte vorne liegt, sollte auch klar sein. Für mich eher traurig, dass man soetwas überhaupt nötig hat.

Die X1900XT mit dem Rödellüfter war deutlich lauter,heisser und instabiler als bpslw. eine 7800GTX mit 512MB. Soviel dazu.

Gast
2007-04-09, 08:08:39
Sieht verdammt nach einem GTX512-Nachfolger aus. Einige tausend Chips, die man über Monate aussortiert hat, und die unter hoher Spannung sehr hohe Taktraten stabil bewerkstelligen können. Und da Angebot und Nachfrage den Preis bestimmen, und das Angebot vermutlich nur sehr dürftig sein wird, muss man eben über den Preis die Nachfrage drücken. Dass das zu dem Preis eine reine Benchmarkkarte wird, damit nV am Ende vielleicht ein paar Prozentpunkte vorne liegt, sollte auch klar sein. Für mich eher traurig, dass man soetwas überhaupt nötig hat.

Ich würde das sogar sehr gut finden, wenn man für einen gewissen Premium Aufpreis die besten GPUs bekommt.

Das es nur weniger solche Chips gibt, ist sowieso nebensächlich, denn bei der Höhe des Preises, gibt es sowieso nur wenige Käufer.

AnarchX
2007-04-09, 09:06:25
OCW hat nun die 8600GTS auch durch einen Benchmarkparkour gescheucht. (http://www.ocworkbench.com/2007/nvidia/8600GTS/b1.htm)

Naja, die Presentation der Ergebnisse ist aber eher etwas seltsam.

Gast
2007-04-09, 09:16:19
Real scheint sie die meiste Zeit auf oder unter dem Niveau einer X1950 Pro zu sein. Nicht sonderlich berauschend.

Für meinen Geschmack ist die Lücke noch viel zu groß. Es fehlt ne Karte zwischen 8600GTS und 8800GTS320.

robbitop
2007-04-09, 09:35:37
Sieht verdammt nach einem GTX512-Nachfolger aus. Einige tausend Chips, die man über Monate aussortiert hat, und die unter hoher Spannung sehr hohe Taktraten stabil bewerkstelligen können. Und da Angebot und Nachfrage den Preis bestimmen, und das Angebot vermutlich nur sehr dürftig sein wird, muss man eben über den Preis die Nachfrage drücken. Dass das zu dem Preis eine reine Benchmarkkarte wird, damit nV am Ende vielleicht ein paar Prozentpunkte vorne liegt, sollte auch klar sein. Für mich eher traurig, dass man soetwas überhaupt nötig hat.
Soetwas gibt es doch ueberall:
-Die Extreme Edition bei Intel
-OCZ, Corsair und wie die blinkibunti Teile bei RAMs auch heissen moegen
-Raptorplatten (klein und teuer und ein bisschen schneller als normale Platten)
-30" TFTs
-Ferrari, Porsche ect im Automobilbereich

Das ist alles ist relativ zu seinem Mehrwert viel zu teuer. Aber es gibt immer Premiumprodukte. Ich verstehe die Aufregung nicht.

=Floi=
2007-04-09, 09:36:07
uu kommst die noch da man jetzt erst mal amd kommen lässt

reunion
2007-04-09, 09:48:26
Dann müsstest du den r600 auch als "eher traurig" ansehen.
nVidia macht nur das, was klar ersichtlich ist: Auf Kosten des Stromverbrauches ein Monstrum rausbringen. Luft nach oben haben sie ja noch.

Bei dem Preis erwartest du doch nicht wirklich, dass man die Karte ausreichend liefern kann? Wenn sie noch Luft nach oben hätten, dann könnte man die Karte auch zu normalen Preisen anbieten. So will man offensichtlich nur einige wenige Tester bedienen, um den längsten zu haben.

Die X1900XT mit dem Rödellüfter war deutlich lauter,heisser und instabiler als bpslw. eine 7800GTX mit 512MB. Soviel dazu.

Die XT war in Mengen lieferbar, und das noch heute, soviel dazu. Ich habe ja nicht gesagt, dass das Produkt deswegen schlecht sein muss. Doch die Positionierung ist auf jeden Fall sehr Frech, und im Grafikkartenmarkt so noch nie dagewesen.

Gast
2007-04-09, 11:40:31
Real scheint sie die meiste Zeit auf oder unter dem Niveau einer X1950 Pro zu sein. Nicht sonderlich berauschend.
.

Aus Sicht des Käufers stimmt das. Wenn man jedoch das objektiv betrachtet, kann man wohl nicht mehr erwarten.
Der DIE - Size ist 160mm² beim G84, der vom X1950pro beträgt 230mm². nVidia bringt also einen deutlich kleineren Chip (40%!) auf das Niveau des Konkurrensproduktes. Wirtschaftlich gesehen machen sie hier alles richtig. Sie bleiben selbst noch unter den Werten des G71.

robbitop
2007-04-09, 12:30:16
Das Ding ist vermutlich deutlich schneller als die letzte Midrangegeneration (X1600XT, X1650XT und 7600GT). Sie ist ungefaehr auf dem Level eines G71. Mehr kann man doch von einem Midrangechip nicht unbedingt erwarten.

Gast
2007-04-09, 12:47:15
Das Ding ist vermutlich deutlich schneller als die letzte Midrangegeneration (X1600XT, X1650XT und 7600GT). Sie ist ungefaehr auf dem Level eines G71. Mehr kann man doch von einem Midrangechip nicht unbedingt erwarten.

Du hast zwar recht, aber die meisten Nividia Fans kaufen keine teure G8800 karte, die masse wird die 8600GT karte kaufen. Ich habe erwartet (wie wahrscheinlich die meisten hier)dass die 8600GT "mindestens" Atis X1900Xt, zerstört. Da kannst du die vorstellen wie gross meine entäuschung ist.
Wenn es richtig dicke kommt, wird bei den kommenden spielen die x1950Pro der 8600Gt noch mehr davon ziehen , möglich wäre es.

gruss

reunion
2007-04-09, 12:54:50
Das Ding ist vermutlich deutlich schneller als die letzte Midrangegeneration (X1600XT, X1650XT und 7600GT). Sie ist ungefaehr auf dem Level eines G71. Mehr kann man doch von einem Midrangechip nicht unbedingt erwarten.

Nur bekommt man jetzt für 110-150€ X1950pro/GT-Karten, tw. mit 512MB VRAM, die einer 8600GTS/GT offensichtlich mindestens ebenbürtig sind. Dass sie nicht langsamer als die letzte Midragegeneration sind, sollte selbstverständlich sein. Wer mehr will, wird wohl auf 65nm warten müssen.

Gast
2007-04-09, 13:02:39
Nur bekommt man jetzt für 110-150€ X1950pro/GT-Karten, tw. mit 512MB VRAM, die einer 8600GTS/GT offensichtlich mindestens ebenbürtig sind.

Mit AMDs Midrange Serie werden diese Karten verschwinden. Wirtschaftlich sind diese Karten für AMD kaum tragbar, selbst ein G71 ist kleiner als der rv570.
Das die 8600GTS auf dem Niveau liegt und gleichzeitig deutlich kleiner ist, ist ein gutes Ergebnis.

Endorphine
2007-04-09, 13:05:34
Nur bekommt man jetzt für 110-150€ X1950pro/GT-Karten, tw. mit 512MB VRAM, die einer 8600GTS/GT offensichtlich mindestens ebenbürtig sind. Dass sie nicht langsamer als die letzte Midragegeneration sind, sollte selbstverständlich sein. Wer mehr will, wird wohl auf 65nm warten müssen.
- deine Radeon bietet nicht die Bildqualität einer G8x
- deine Radeon ermöglicht es mir nicht, mit D3D10 herumzuspielen
- deine Radeon ist Treiber-technisch schon ausgereizt, wo eine G8x noch einiges an Potenzial zur Entwicklung hat - wie bei 9800/Pro vs. 6600 GT: anfangs gleichauf, heute ist die 6600 ohne GT in Schlagweite zur 9800/Pro
- D3D10-Beschleunigungspfade bleiben deiner Radeon auch verschlossen
- und zu guter Letzt kann man eine GeForce auch sinnvoll unter alternativen Betriebssystemen einsetzen.

Irgendwie nervt dein ATI-Missionierungskrieg. Hier geht's um G80 und deren Nachfolger, nicht um ATI-Grafikkarten. Ist das so schwer zu verstehen?

reunion
2007-04-09, 13:13:03
Mit AMDs Midrange Serie werden diese Karten verschwinden. Wirtschaftlich sind diese Karten für AMD kaum tragbar, selbst ein G71 ist kleiner als der rv570.
Das die 8600GTS auf dem Niveau liegt und gleichzeitig deutlich kleiner ist, ist ein gutes Ergebnis.

Du hast sicher recht, nur stellt sich die Frage, inwieweit das dem Kunden interessieren sollte.

- deine Radeon bietet nicht die Bildqualität einer G8x
- deine Radeon ermöglicht es mir nicht, mit D3D10 herumzuspielen
- deine Radeon ist Treiber-technisch schon ausgereizt, wo eine G8x noch einiges an Potenzial zur Entwicklung hat - wie bei 9800/Pro vs. 6600 GT: anfangs gleichauf, heute ist die 6600 ohne GT in Schlagweite zur 9800/Pro
- D3D10-Beschleunigungspfade bleiben deiner Radeon auch verschlossen
- und zu guter Letzt kann man eine GeForce auch sinnvoll unter alternativen Betriebssystemen einsetzen.

Irgendwie nervt dein ATI-Missionierungskrieg. Hier geht's um G80 und deren Nachfolger, nicht um ATI-Grafikkarten. Ist das so schwer zu verstehen?

Wenn dir meine Beiträge nicht passen, dann ignoriere sie. Ich beschuldige auch niemanden, einen "Missionierungskrieg" od. dergl. zu führen, wenn du nicht argumentieren kannst, dann lass es auf meine Beiträge zu antworten. Bitteschön: http://www.forum-3dcenter.org/vbulletin/profile.php?do=addlist&userlist=ignore&u=7111

Das war IMHO ein legitimer Vergleich, der aufzeigt, dass die Karte zu momentan spekulierten 199$ bei 256MB VRAM nicht unbedingt ein P/L-Champion wird. Dein provokativer Beitrag war völlig unnötig.

Gast
2007-04-09, 13:17:01
Irgendwie nervt dein ATI-Missionierungskrieg. Hier geht's um G80 und deren Nachfolger, nicht um ATI-Grafikkarten. Ist das so schwer zu verstehen?Schon richtig, aber das von dir zitierte Posting war doch eigentlich ganz in Ordnung. Da bin ich von Reunion schlimmeres gewohnt. ;)

Endorphine
2007-04-09, 13:19:11
In diesem Thread geht es aber nicht um ATI-Produkte. :rolleyes:

Weiterhin definiert jeder "Leistung" im Preis-Leistungsverhältnis anders. Für mich zählt da eben nicht nur die Geschwindigkeit, sondern vor allem auch Bildqualität, D3D10, Treiber unter Linux etc. Und für andere zählen wieder andere Dinge.

Ich habe versucht, hier die Finger still zu halten. Aber irgendwann nervt es einfach, hier das 200. Posting à la "ATI-Grafikkarten sind viel besser" zu lesen. Hier geht's schlicht und ergreifend um anderes.

reunion
2007-04-09, 13:21:52
In diesem Thread geht es aber nicht um ATI-Produkte. :rolleyes:

Und du wärst natürlich bei jedem anderen, der mal kurz einen solchen Vergleich anführt, auch gleich auf die Barrikaden geklettert. :rolleyes:

Endorphine
2007-04-09, 13:23:45
Und du wärst natürlich bei jedem anderen, der mal kurz einen solchen Vergleich anführt, auch gleich auf die Barrikaden geklettert. :rolleyes: Irgendwann ist das Maß einfach mal voll.

up¦²
2007-04-09, 13:25:27
Das Ding ist vermutlich deutlich schneller als die letzte Midrangegeneration (X1600XT, X1650XT und 7600GT). Sie ist ungefaehr auf dem Level eines G71. Mehr kann man doch von einem Midrangechip nicht unbedingt erwarten.

bei D3D10 könnte aber entweder die Post abgehn ( soll ja laut MS 6x "effizienter"... :biggrin: ), denn die 8600 hat USA - oder sie verhungert wie weilen die SM3.0 'Kärtchen' bei DX9 :|
199$ wären aber schnell ca. 149€ - auch ein Argument!

Gast
2007-04-09, 13:27:14
- deine Radeon bietet nicht die Bildqualität einer G8x
- deine Radeon ermöglicht es mir nicht, mit D3D10 herumzuspielen
- deine Radeon ist Treiber-technisch schon ausgereizt, wo eine G8x noch einiges an Potenzial zur Entwicklung hat - wie bei 9800/Pro vs. 6600 GT: anfangs gleichauf, heute ist die 6600 ohne GT in Schlagweite zur 9800/Pro
- D3D10-Beschleunigungspfade bleiben deiner Radeon auch verschlossen
- und zu guter Letzt kann man eine GeForce auch sinnvoll unter alternativen Betriebssystemen einsetzen.
Und was dich am meisten stört:
Die Radeon ist von AMD!

Irgendwie nervt dein ATI-Missionierungskrieg. Hier geht's um G80 und deren Nachfolger, nicht um ATI-Grafikkarten. Ist das so schwer zu verstehen?
Sagt gerade der richtige :rolleyes:

Reunion hatte mit seinem Post recht, PUNKT.

Gast
2007-04-09, 13:28:53
bei D3D10 könnte aber entweder die Post abgehn ( soll ja laut MS 6x "effizienter"... :biggrin: ), denn die 8600 hat USA - oder sie verhungert wie die SM3.0 Kärtchen :|
199$ wären aber schnell ca. 149€ - auch ein Argument!
150€ für eine Karte die etwa gleich schnell ist, wie eine x1950GT (sogar mit 512MB), ~15% mehr kostet und nur 256MB hat :|

Dazu sei noch erwähnt, das die nVidia Karten mehr SPeicher brauchen und logischerweise beim ausgehen jenem stärker wegbrechen.

Gast
2007-04-09, 13:29:11
Reunion hatte mit seinem Post recht, PUNKT.Solche Sätze sind natürlich sehr förderlich für eine vernünftige Diskussion. ;)

Gast
2007-04-09, 13:30:36
Dazu sei noch erwähnt, das die nVidia Karten mehr SPeicher brauchen und logischerweise beim ausgehen jenem stärker wegbrechen.Das bisschen mehr Speicherverbrauch wegen dem Filter-@-Scanout ist jetzt auch nicht so weltbewegend.

up¦²
2007-04-09, 13:35:40
150€ für eine Karte die etwa gleich schnell ist, wie eine x1950GT (sogar mit 512MB), ~15% mehr kostet und nur 256MB hat :|

Dazu sei noch erwähnt, das die nVidia Karten mehr SPeicher brauchen und logischerweise beim ausgehen jenem stärker wegbrechen.

Tja umsonst scheint die Sonne - irgendwo muß sich ein Produkt ja noch rentieren: eine 7600GS kostet ja noch locker über 100€ und eine 7600GT erstrecht!
Als Erbe der Midklasse wird die 8600 also in vergleichbaren Staffeln zwischen 75-175€ schweben - ganz einfach und zu recht!
Nebenbei: wenn die D3D10 Karten wirklich so super funzen, dann reicht eine 8600GT womöglich schon "dicke"!

Gast
2007-04-09, 13:54:26
eine 7600GS kostet ja noch locker über 100€ und eine 7600GT erstrecht!


http://geizhals.at/deutschland/a223101.html

http://geizhals.at/deutschland/a216014.html

;D

Gast
2007-04-09, 14:11:40
Das bisschen mehr Speicherverbrauch wegen dem Filter-@-Scanout ist jetzt auch nicht so weltbewegend.
So mal eben 100MB oder so, musst mal suchen.
Ist doch mehr als du glaubst!

Tja umsonst scheint die Sonne - irgendwo muß sich ein Produkt ja noch rentieren: eine 7600GS kostet ja noch locker über 100€ und eine 7600GT erstrecht!
Diesen Punkt hat ja mein Vorposter widerlegt.


Als Erbe der Midklasse wird die 8600 also in vergleichbaren Staffeln zwischen 75-175€ schweben - ganz einfach und zu recht!
Ja, aber es gibt nicht nur nFitia, es gibt auch noch einen Konlurenten und der hat momentan im Bereich von 100-150Eur das bessere angebot, PUNKT.


Nebenbei: wenn die D3D10 Karten wirklich so super funzen, dann reicht eine 8600GT womöglich schon "dicke"!
Wenn das woertchen wenn nicht waer...

Gast
2007-04-09, 14:22:32
Wie wäre es mal mit einem Beleg, dass bei G8x noch Filter@Scanout angewendet wird?(Bei HDRR kann man es zudem eh nicht mehr anwenden)

laser114
2007-04-09, 14:31:42
Irgendwann ist das Maß einfach mal voll.

Dann können wir hier auch gleich dicht machen, wenn man nicht mal die neuen Karten mit bereits vorhandenen vergleichen kann. :rolleyes:

Die Leistung scheint für den Preis wirklich nicht sehr toll zu sein.

Btw.: Wieso sollen sich X1950 für ATI nicht rentieren? Immerhin ist das schon 80nm-Fertigung, sollte man nicht unterschätzen...

Gast
2007-04-09, 14:38:42
Btw.: Wieso sollen sich X1950 für ATI nicht rentieren? Immerhin ist das schon 80nm-Fertigung, sollte man nicht unterschätzen...

X1950pro vs. 8600GTS
230mm² vs. 160mm²
8 Speichersteine vs. 4 Speichersteine
Aufwendigeres PCB vs. weniger aufwendigeres

Sobald AMDs neue Midrange Serie erscheint, wird der rv570 vom markt verschwinden.

up¦²
2007-04-09, 14:48:57
http://geizhals.at/deutschland/a223101.html

http://geizhals.at/deutschland/a216014.html

;D

albern... :wink:
http://geizhals.at/deutschland/?fs=7600&in=&x=43&y=15

Wie gesagt: 75-175€ wird wohl auch reichen für die 8600 in allen möglichen 'Blutgruppen'!

laser114
2007-04-09, 14:55:43
albern... :wink:
http://geizhals.at/deutschland/?fs=7600&in=&x=43&y=15

Die werden wahrscheinlich nicht mehr mal produziert, oder in viel zu geringen Mengen...

Daran kann man das nun wirklich nicht widerlegen, ich bekomme auch eine X1950 Pro für das doppelte der billigen. ;)

Blaire
2007-04-09, 16:08:39
Die XT war in Mengen lieferbar, und das noch heute, soviel dazu. Ich habe ja nicht gesagt, dass das Produkt deswegen schlecht sein muss. Doch die Positionierung ist auf jeden Fall sehr Frech, und im Grafikkartenmarkt so noch nie dagewesen.

Das sicher , aber die 7900GTX 512MB waren aber auch gut verfügbar. Weil du meintest es wäre traurig was NV macht , ich fands traurig was für nen Dreck einen Ati mit der X1800/X1900 andrehte vor allem der Lüfter war nen Horror, in geschlossenen Gehäuse lief man Gefahr das die abrauchen. Der Quadro Lüfter auf der 7800/7900GTX 512MB war dagegen schön leise und effektiv.

Black-Scorpion
2007-04-09, 17:01:08
Bei dir ist sowieso alles Dreck was nicht Grün ist und mit G anfängt.
Und ja, alle Besitzer wohnen im Kühlhaus oder haben das Gehäuse offen. :rolleyes:

dargo
2007-04-09, 17:31:14
Dazu sei noch erwähnt, das die nVidia Karten mehr SPeicher brauchen und logischerweise beim ausgehen jenem stärker wegbrechen.
Das ist völliger Unsinn!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356137

Blaire
2007-04-09, 17:59:43
Bei dir ist sowieso alles Dreck was nicht Grün ist und mit G anfängt.
Und ja, alle Besitzer wohnen im Kühlhaus oder haben das Gehäuse offen. :rolleyes:

BlaBlaBla... Gut das ich 2x X1900XTX sowie 2x7800GTX 512mb besaß und mir ein Urteil darüber erlauben kann. :rolleyes:

reunion
2007-04-09, 19:11:52
Das mit dem abrauchen ist sicher Blödsinn, Siliziumchips halten auch deutlich über 100°C aus. Allerdings war der Kühler wirklich nicht das gelbe vom Ei.

Blaire
2007-04-09, 19:21:27
Das mit dem abrauchen ist sicher Blödsinn, Siliziumchips halten auch deutlich über 100°C aus. Allerdings war der Kühler wirklich nicht das gelbe vom Ei.

Bei mir hielt eine X1900XT Mastercard trotz 90% Lüfterspeed mit AtiTool knapp 2 Wochen bis sie abrauchte... ( http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4145760&postcount=96 )
Aber das war sicher nen Einzelfall.:tongue: Die Karten wurden jedenfalls innerhalb kürzester Zeit um die 90-105 Grad heiß je nach Game und geschlossenem Gehäuse. Auch schaltete oft der Monitor ab und es gab kein Signal mehr ,sicher weil die Karten zu heiss wurden. Solche Mätzchen gabs bei der 7800GTX 512MB jedenfalls nicht die erreichte nie die 90 Grad Marke und die Lüfter drehten auch nicht so extrem auf.
Aber das wird jetzt langsam offtopic. Belassen wirs dabei.

Fetza
2007-04-10, 06:56:50
BlaBlaBla... Gut das ich 2x X1900XTX sowie 2x7800GTX 512mb besaß und mir ein Urteil darüber erlauben kann. :rolleyes:
Das sicher , aber die 7900GTX 512MB waren aber auch gut verfügbar. Weil du meintest es wäre traurig was NV macht , ich fands traurig was für nen Dreck einen Ati mit der X1800/X1900 andrehte vor allem der Lüfter war nen Horror, in geschlossenen Gehäuse lief man Gefahr das die abrauchen. Der Quadro Lüfter auf der 7800/7900GTX 512MB war dagegen schön leise und effektiv.

Der lüfter des r580 ist alles andere als leise, mein bruder hat so ein teil im rechner. Aber das teil funzt nun schon 6 monate am stück, und mein bruder zockt stundenlang pro tag. Von daher stimmt das nicht was du sagst.

Und abgesehen davon performt r580 deutlich besser als g71 in modernen spielen, von daher ist mir der lüfter dann auch egal^^, denn soooo laut ist der auch nicht. Vom af des g71 fang ich jetzt garnicht mal an. Also meiner meinung nach, spricht wesentlich mehr für r580 als für g71.

edit: wenn du dich jetzt explizit auf crossfire beziehst, könnte es allerdings wirklich knapp werden, ohne windkanal im gehäuse zumindest.

greetz

seahawk
2007-04-10, 07:02:27
Der Lüfter des R580 ist hervorragend. Leise aber bei Bedarf leistungsstark.

Gast
2007-04-10, 08:04:14
meinst sicher den der x1950xtx und nicht den lüfter der x1800xt/1900xt/xtx.
die letzteren waren wirklich saulaut, war bei mir ein grund meine x1800xt gegen eine 1950xtx zu tauschen.

AnarchX
2007-04-10, 08:12:41
32 Stream processors on 8600 series and max 71W on 8600GTS and transistor count (http://my.ocworkbench.com/bbs/showthread.php?p=409794#post409794)

it is confirmed that the 80nm processor technology 8600GTS, 8600GT has 32 Stream processors and the 8500GT has 16 Stream processors.

The 8600GTS draws a maximum power of 71W, 8600GT at 43W and 8500GT at 40W.

The number of transistors on 8600GTS and 8600GT is 289 million while the 8500GT has 210 million transistors.

Shader clk of the 8600GTS is 1450MHz, 8600GT is 1180MHz and 8500GT is 900MHz.

290M Transistoren für 2 Cluster?:|
Ich tippe eher darauf, dass hier pro Cluster eine Vec8-ALU entfernt wurde, also nur noch 8 Streamprozessoren pro Cluster.

Aber irgendwie macht, dass keinen wirklichen Sinn, warum sollte man die GPUs 2007 mit so wenig arithmetischer Leistung ausstatten(und warum erreicht 3DMark trotzdem so hohe Scores)?

seahawk
2007-04-10, 08:19:02
Kommt immer auf die Marektpositon an, dies sind eben keine Performance-Karten.

Gast
2007-04-10, 09:05:38
32 Stream processors on 8600 series and max 71W on 8600GTS and transistor count (http://my.ocworkbench.com/bbs/showthread.php?p=409794#post409794)


290M Transistoren für 2 Cluster?:|
Ich tippe eher darauf, dass hier pro Cluster eine Vec8-ALU entfernt wurde, also nur noch 8 Streamprozessoren pro Cluster.

Aber irgendwie macht, dass keinen wirklichen Sinn, warum sollte man die GPUs 2007 mit so wenig arithmetischer Leistung ausstatten(und warum erreicht 3DMark trotzdem so hohe Scores)?

"it is confirmed" - ja durch wen oder was denn? Einfach qua decretum sanctum von "Theone"? Vor lauter Shadertests sollten die Jungs ohne NDA mal lieber auf die Texelleistung schauen, da läßt sich die Wahrheit ziemlich schnell ablesen. :)

Wie ich schon vor einiger Zeit gewissen Leuten per PM mitteilte, glaube ich weiterhin an _3_ Shadercluster mit etwas gesünderen Taktraten.

Gast
2007-04-10, 11:15:17
32 Stream processors on 8600 series and max 71W on 8600GTS and transistor count (http://my.ocworkbench.com/bbs/showthread.php?p=409794#post409794)Würde ich schade finden. Nvidia hat seit NV40 immer durch überlegene Midrangeprodukte (6600GT, 7600GT) geglänzt. Wenn G84 jetzt nur 1/4 G80 ist, wäre das natürlich nicht so toll.

Nakai
2007-04-10, 11:21:06
Trotzdem skaliert das Ding sehr gut.

mfg Nakai

seahawk
2007-04-10, 11:25:39
Würde ich schade finden. Nvidia hat seit NV40 immer durch überlegene Midrangeprodukte (6600GT, 7600GT) geglänzt. Wenn G84 jetzt nur 1/4 G80 ist, wäre das natürlich nicht so toll.


Diese Midrangeklasse wird, wenn man es im Verhältnis zum High-End sieht nicht mehr duch die 8600 bedient.

Gast
2007-04-10, 12:00:56
Das High-End macht dieses Jahr in Sachen Bandbreite und Speichermenge einen gewaltigen Sprung. Dieser ist mit hohen Kosten verbunden, die man im High-End Bereich eingehen kann.
Die Midrange-Karten sollen dagegen eben nicht so kostenintensiv sein. Man sieht es bei ATi, was ein kostenintensives Design und fehlende Erfahrung als Auswirkungen haben kann.
Der rv530 hatte 4 TMUs und 12 Recheneinheiten. Der G73 hatte 12 TMUs und 12 Recheneinheiten und ist in sehr vielen Anwendungsfällen deutlich schneller. Und nVidia hat dies in einem kleineren DIE verpackt. Erst mit dem rv570 konnte ATi wieder konkurrenzfähig werden. Jedoch zu gunsten der Wirtschaftlichkeit. Der Chip war ein 3/4 rv580 und wurde für 199$ in den Markt eingeführt. Der X1600XT war das Konkurrenzprodukt zur 6600GT - immernoch ein Jahr später...
Betrachtet man den g84 mit seinen 160mm² und der Leistung, ist dies ein guter Erfolg. Das er im Grunde im Durchschnitt nur 1/3 G80 entspricht, ist in Hinsicht der Wirtschaftlichkeit und des anstehenden Preiskampfes, auch aus Sicht des Käufers, eine kluge Entscheidung.

nordic_pegasus
2007-04-10, 15:12:50
Das er im Grunde im Durchschnitt nur 1/3 G80 entspricht

leider kostet die 8600GTS nicht auch nur ein Drittel eines G80 ;) Selbst wenn der Strassenpreis der 8600GTS schnell bei 150Euro sein sollte, wenn ich ne 8800GTS 320MB für 250Euro bekommen kann, stimmt da was an den Relationen nicht.

Gast
2007-04-10, 15:29:00
leider kostet die 8600GTS nicht auch nur ein Drittel eines G80 ;) Selbst wenn der Strassenpreis der 8600GTS schnell bei 150Euro sein sollte, wenn ich ne 8800GTS 320MB für 250Euro bekommen kann, stimmt da was an den Relationen nicht.
Ich hoffe, dass viele genauso denken werden und danach handeln, falls die beschissenen Performance und der dafür recht hohe Preis sich bestätigen sollte. Dann bleibt nV auf dem Crap sitzen und kann es nur der Oma verkaufen, die sich die Hose mit der Kneifzange anzieht. :D
Aber ich fürchte, bei Amd wird es nicht besser aussehen. Naja bald wissen wir mehr.

Endorphine
2007-04-10, 15:37:17
Es gibt ja auch noch die 8600GTS mit 512 MB. Das könnte das Modell sein, für das 249 US-$ MSRP angegeben werden...

Eine 8600 GTS mit nur 256 MB zu kaufen halte ich für wenig sinnvoll. Wenn man die Karte ausreizen möchte geht ihr schon wieder der Speicher aus.

deekey777
2007-04-10, 15:58:45
32 Stream processors on 8600 series and max 71W on 8600GTS and transistor count (http://my.ocworkbench.com/bbs/showthread.php?p=409794#post409794)


290M Transistoren für 2 Cluster?:|
Ich tippe eher darauf, dass hier pro Cluster eine Vec8-ALU entfernt wurde, also nur noch 8 Streamprozessoren pro Cluster.

Aber irgendwie macht, dass keinen wirklichen Sinn, warum sollte man die GPUs 2007 mit so wenig arithmetischer Leistung ausstatten(und warum erreicht 3DMark trotzdem so hohe Scores)?
Zwei volle G80-Cluster machen auch keinen Sinn, der 8600er würde die Texelfüllrate fehlen.
4 Cluster mit je Vec8-ALU und 4 TMUs, alles andere kann ich mir kaum vorstellen. Obwohl: Nach dem RV530 weiß man nie... Die X1600XT/Pro fanden ihren Weg in sehr viele Fertig-PCs.

robbitop
2007-04-10, 16:19:34
In den G80 Clustern steckt wegen der Clockdomains und wegen der custom transistors so viel Handarbeit und das ganze ist so ausbalanciert, dass ich persoenlich kaum glaube, dass man die anfassen wird. Die kann man schoen in 1/8 Schritten skalieren, ohne gross ins Design greifen zu muessen.

Wenn die Performance der 8600GTS nicht durch Bandbreite oder VRAM in den Benches gebremst wurde kommen 3x G80 cluster gut hin.

reunion
2007-04-10, 17:42:23
Zwei volle G80-Cluster machen auch keinen Sinn, der 8600er würde die Texelfüllrate fehlen.


Sind über 10GTexel/s wirklich zu wenig für einen Midragechip? Eine X1950XTX hat weniger. Eher würde es ihr an Shaderfüllrate fehlen. Denn deutlich unter 100GFPLOs wäre doch relativ wenig.

In den G80 Clustern steckt wegen der Clockdomains und wegen der custom transistors so viel Handarbeit und das ganze ist so ausbalanciert, dass ich persoenlich kaum glaube, dass man die anfassen wird. Die kann man schoen in 1/8 Schritten skalieren, ohne gross ins Design greifen zu muessen.

Wenn die Performance der 8600GTS nicht durch Bandbreite oder VRAM in den Benches gebremst wurde kommen 3x G80 cluster gut hin.

Sehe ich genauso. Und falls die 289mio Transistoren stimmen, deutet das auch sehr stark auf drei Cluster hin. Zumindest sind das für vier vollwertige zu wenig und für zwei zu viel.

Gast
2007-04-10, 17:53:04
Sind über 10GTexel/s wirklich zu wenig für einen Midragechip? Eine X1950XTX hat weniger. Eher würde es ihr an Shaderfüllrate fehlen. Denn deutlich unter 100GFPLOs wäre doch relativ wenig.


Wieviel GFlops hat nochmal die 8800GTX? Und wieviel schneller ist er im Vergleich zur X1950XTX?
Die Zahl hat keine Bedeutung, wenn die Architekturen sind so deutlich unterscheiden.

Ailuros
2007-04-11, 06:11:34
Laut AiL soll es ja noch Version zw G80 und G84 geben. Mit 256 Bit SI und 6 Clustern.

G9x; und natuerlich haben Performance GPUs einen hoeheren Preis als mainstream GPUs.

Ailuros
2007-04-11, 06:38:26
Nicht ganz korrekt. Jede ROP Partition verfuegt ueber 32 Z-Test Units. Jede davon kann entweder Color/Z lesen und schreiben oder je eine Stencil operation machen.

G84 hat also eine Pixelfuellrate von: 64x675 MHz = 43 GPix/sek.
Was meinst du warum ich nicht glaube, dass die Dinger bremsen sollten?

Was welchen Unterschied genau fuer den Vergleich insgesamt macht? Ich hab mir die Faehigkeiten der ROPs mit Absicht eingespart, da das Resultat ebenso auf einem ~1:2 Niveau liegt zwischen 8600GTS und 8800GTS.

Mittlerweile glaube ich aber auch, dass hier was nicht stimmt. 4 G80 Cluster haben eine brachiale Fuellrate fuer Mittelklasse (man beachte die 2xbi TMUs).
Der Chip ist wirklich ziemlich klein fuer das alles (denn so teuer sind die ROPs nun auch wieder nicht).

Angenommen ich nehme den 32SP@1.458GHz Schwachsinn ernst; maximal ~140GFLOPs. Was genau grandioses aendert sich wieder am Ende an meiner verkorksten Rechenuebung? Ausser der Texelfuellrate kommt bei den restlichen theoretischen maximalen Werten eine 8800GTS x2 an im Vergleich zur 8600GTS.

Wo war nochmal der Sinn meines Beitrags? Reunion glaubte dass der Abstand fuer X oder Y im Vergleich zur 8800GTS zu klein waere. Der Abstand ist aber so oder so um einiges groesser als er glaubt.

Dass die 32SPs/2 cluster These fuer die Tonne ist braucht man wohl nicht noch extra hinzufuegen.

Sehe ich genauso. Und falls die 289mio Transistoren stimmen, deutet das auch sehr stark auf drei Cluster hin. Zumindest sind das für vier vollwertige zu wenig und für zwei zu viel.

Von den Transistoren wuerde ich nichts wagen "abzulesen". 3 clusters bei den angeblichen ~1.4GHz geben uebrigens ~200+ GFLOPs. Die zukuenftige 65nm/6 cluster Performance Variante steigt um nur <60% in die-Groesse im Vergleich zu G84.

robbitop
2007-04-11, 09:06:01
Was welchen Unterschied genau fuer den Vergleich insgesamt macht? Ich hab mir die Faehigkeiten der ROPs mit Absicht eingespart, da das Resultat ebenso auf einem ~1:2 Niveau liegt zwischen 8600GTS und 8800GTS.
Ich habe lediglich einen Fehler korrigiert. Und ausserdem vermuten mir zu viele eine ROP Limitierung, also wissen anscheinend die meisten nicht, was eine G80 ROP an Z Leistung rausballert. ;)


Ich persoenlich tippe auf 3 Cluster fuer den G84. Von der GTS haette ich jedoch 4 Cluster erwartet.

Gast
2007-04-11, 12:21:21
Von den Transistoren wuerde ich nichts wagen "abzulesen". 3 clusters bei den angeblichen ~1.4GHz geben uebrigens ~200+ GFLOPs. Die zukuenftige 65nm/6 cluster Performance Variante steigt um nur <60% in die-Groesse im Vergleich zu G84.

Wer außer der Everest-Datenbank sagt denn was von 1,4GHz? Klar, rechnerisch würde das bei 2 Clustern passen. Allerdings spricht zum Beispiel der enorme Taktunterschied zwischen den Domänen dagegen, der ja im G80 zum Beispiel mitverantwortlich sein soll, einen separaten 2D-Die zu benötigen.

3 Cluster bei rund 1,2 GHz wären ja auch was schönes...

Gast
2007-04-11, 12:25:35
Btw, die 289M Transistoren sprechen IMO sehr für die Effizienz des G80 - mal abwarten, was Ati da bietet. Denn mit dieser Transistorzahl und einem geschrumpften Die erreicht man grob die Leistung der 7900 GT (hohe AA-Stufen ausgenommen) - in manchen Games wohl deutlich mehr.

Somit bekommt man "DX10" quasi zum Nulltarif dazu...

reunion
2007-04-11, 15:39:53
Die zukuenftige 65nm/6 cluster Performance Variante steigt um nur <60% in die-Groesse im Vergleich zu G84.

Nur? Das ist IMHO ein weiteres Indiz, dass G84 nur drei Cluster haben wird. Alleine durch den 65nm Prozess sinkt die Größe eines Transitores auf 2/3 der ursprünglichen Fläche in 80nm. Zusätzliche steigt die Die-Fläche noch um fast 60%. Da würde locker die doppelte Anzahl an Transistoren Platz haben.

Hätte G84 vier Cluster, würde die zukünftige "Performancevariante" für 50% mehr Cluster 60% mehr Die-Größe benötigen trotz 65nm. :|

AnarchX
2007-04-12, 11:46:01
http://img85.imageshack.us/img85/7173/en8600gtsla1.jpghttp://img85.imageshack.us/img85/4343/en8600gtnd6.jpg
Quelle (http://http://forums.vr-zone.com/showthread.php?t=143238)

Diese 8600GT dürfte für OCer wegen eines bestimmten Merkmales doch interessant sein. ;)

Hier gibt es noch die passive GIGABYTE 8600GTS zum günstigen Preis von $215:
http://www.ewiz.com/detail.php?name=GA-86_256M#


OCW hat auch noch ein paar 8600GTS-SLI-Ergebnisse (http://www.ocworkbench.com/2007/nvidia/8600GTS/b6a.htm).

Anarchy-HWLUXX
2007-04-12, 12:10:50
Also die benches bei OCW sind sowas von sinnlos ... 1600er ist zuviel für die Karte und dann noch 8*QAA ? Ist doch klar das das keine spielbaren werte ergibt .

Wenn dann interessieren werte bei 1280er und 4*AA / 8*AF, jedenfalls mich denn auf diesen Settings zock ich ATM.

AnarchX
2007-04-12, 12:16:17
Also die benches bei OCW sind sowas von sinnlos ... 1600er ist zuviel für die Karte und dann noch 8*QAA ? Ist doch klar das das keine spielbaren werte ergibt .


Ja, leider. Die Reviewer, die solche Hardware zuerst in der Hand haben und nicht unter einem NDA stehen, sind in der Regel leider nicht gerade die cleversten. :rolleyes:

Das erste, was ich getan hätte, wäre erstmal eine synthetische Messung der Texelfüllrate und Shaderfüllrate um das Rätsel des G84 zu lüften.;)

w0mbat
2007-04-13, 00:23:22
Morgen sollten auf Fudzilla 8600GT Benches auftauchen. Sieht gegen eine 7600GT mit AA/AF anscheinend nicht so gut aus.

Gast
2007-04-13, 01:20:25
Die löst ja auch die 7600 Preislich ab, die 8600GTS tritt an die 7600GT und 7900pure Stelle. Vergleich zur alten Generation geht auch etwas schlecht weil das Mainstream nochmal ein Leistungssplitting erfährt. Bis zu nem gewissen Punkt (Auflösung/AA) wird die "neue" Generation die alte in Schachhalten... Mehr Produkte in Zukunft...

Ailuros
2007-04-13, 06:19:59
Nur? Das ist IMHO ein weiteres Indiz, dass G84 nur drei Cluster haben wird. Alleine durch den 65nm Prozess sinkt die Größe eines Transitores auf 2/3 der ursprünglichen Fläche in 80nm. Zusätzliche steigt die Die-Fläche noch um fast 60%. Da würde locker die doppelte Anzahl an Transistoren Platz haben.

Zwischen Theorie und Realitaet hat aber eine G9x keine 580-600M Transistoren.

Hätte G84 vier Cluster, würde die zukünftige "Performancevariante" für 50% mehr Cluster 60% mehr Die-Größe benötigen trotz 65nm. :|

Wenn man sich sicher ist dass der wirklich einzige Unterschied zwischen G8x und G9x nur 65nm am Ende ist....

***edit: uebrigens der Kern der ganzen Sache ist und bleibt dass Du einen zu kleinen Unterschied zwischen 8800GTS und 8600GTS aus merkwuerdigen Gruenden vermutet hattest. Mainstream D3D10 liegt aber so oder so auf diesem Nivaeu (minus ein paar Treiberfurze die beim Launch dann verschwinden) und bei der Konkurrenz wird es auch nicht gerade besser sein; nach Indizien wohl eher das grobe Gegenteil.

seahawk
2007-04-13, 06:55:32
Wie kommts Du darauf ? RV630 sollte den G84 locker im Griff haben.

Gast
2007-04-13, 09:37:10
Wie kommts Du darauf ? RV630 sollte den G84 locker im Griff haben.Warum das?

Gast
2007-04-13, 11:01:59
Warum das?
Weil er von AMD ist natürlich.

Spaß beiseite: Ich glaube, der G84 wurde im Vorfeld (auch von mir) als stärker eingeschätzt, als er wirklich war. Vermutlich basierend auf den überdurchschnittlich guten 3D-Mark-Werten.


Q

seahawk
2007-04-13, 11:50:46
Abgesehen davon hat AMD den kleineren Prozess zur Verfügung und kann die Leistung nun sogar noch an die bekannten Werte des G94 anpassen.

Sie sollten sich wohl kaum wider so einen Flop wie X1600XT leisten wollen und können.

Gast
2007-04-13, 12:10:12
Abgesehen davon hat AMD den kleineren Prozess zur Verfügung und kann die Leistung nun sogar noch an die bekannten Werte des G94 anpassen.

Sie sollten sich wohl kaum wider so einen Flop wie X1600XT leisten wollen und können.
Wenn die OEM-Deals bereits stehen, wohl eher nicht. Denn dann muss man bereits mit der Massenproduktion begonnen haben. Und was Dell sagen würde, wenn sie langsamere Produkte bekommen als HP wäre sicherlich nicht erfreulich.


Q

seahawk
2007-04-13, 12:15:23
Nur mus sdie KArte ja angesichts der OEm Deals schon einen Vorteil haben.

Gast
2007-04-13, 12:28:24
Nur mus sdie KArte ja angesichts der OEm Deals schon einen Vorteil haben.
Sollte man meinen, ja. Aber OEMs bewerten ja auch das, was man werbewirksam auf die Packungen drucken kann. Da wäre ein HD-Audio-Durchschleifer an HDMI natürlich nett.

Zum Thema OEM nochmal: Woher kommt eigentlich das Gerücht, es gäbe schon "diverse" OEM-Deals? Bitte nich INQ oder gar w0mbat...


Q

Gast
2007-04-13, 12:43:23
Zum Thema OEM nochmal: Woher kommt eigentlich das Gerücht, es gäbe schon "diverse" OEM-Deals? Bitte nich INQ oder und gar w0mbat...
Q

Es gibt keine "richtigen" Quellen für diese These.

seahawk
2007-04-13, 12:49:09
Sollte man meinen, ja. Aber OEMs bewerten ja auch das, was man werbewirksam auf die Packungen drucken kann. Da wäre ein HD-Audio-Durchschleifer an HDMI natürlich nett.

Zum Thema OEM nochmal: Woher kommt eigentlich das Gerücht, es gäbe schon "diverse" OEM-Deals? Bitte nich INQ oder gar w0mbat...


Q

Das meine ich entweder stehen die OEM Deals und die Karte hat einen Vorteil (wo auch immer), oder sie stehen nicht, dann müßte AMD/ATI aber einen recht dicken Faupax haben, wenn sie in der Leistung nicht an die 8600GTS anpassen können. (in 65nm)

AnarchX
2007-04-13, 12:57:10
it.com.cn hat ein paar OC-Skalierungstests mit der 8600GT gemacht: (http://it.com.cn/f/diy/074/11/404450_3.htm)
http://img151.imageshack.us/img151/604/070411g8xhuazhi13smt6.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/7207/070411g8xhuazhi14sxd5.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/4651/070411g8xhuazhi15suy9.jpg (http://imageshack.us)

Sieht nicht danach aus, dass die Bandbreite bei der 8600GT stark limitieren würde.

Und wieder solche merkwürdig hohen 3DMark06-Scores... :|
Zudem kann man hier wohl heraus schliessen, dass 8600GT und GTS sich von den aktiven Einheiten nicht unterscheiden werden.

Gast
2007-04-13, 13:29:04
Zum Thema OEM nochmal: Woher kommt eigentlich das Gerücht, es gäbe schon "diverse" OEM-Deals? Bitte nich INQ oder gar w0mbat...

Q


Das entspringt der Fantasie von w0mbat und anderen. Die schlechte Verfügbarkeit der Chips (Retail-Verfügbarkeit erst im Juni) wird jetzt mit dem kompletten Aufkauf durch OEMs schönzureden versucht.

Nakai
2007-04-13, 13:29:59
Beide werden wohl 48 USCs haben.

mfg Nakai

Hvoralek
2007-04-13, 14:29:27
Und wieder solche merkwürdig hohen 3DMark06-Scores... :|Dass ein USC beim 3DMark05/06 (mit hoher Geometrielast) gut abschneidet, finde ich nun nicht allzu überraschend.

Die beiden gehören mW (ebenso wie Prey) auch nicht gerade zu den größten Bandbreitenfressern.

robbitop
2007-04-13, 14:36:44
Sieht nicht danach aus, dass die Bandbreite bei der 8600GT stark limitieren würde.
Wie kommst du darauf?

AnarchX
2007-04-13, 14:43:16
Dass ein USC beim 3DMark05/06 (mit hoher Geometrielast) gut abschneidet, finde ich nun nicht allzu überraschend.

Aber Leistung für die Pixelshader muss ja auch noch übrig bleiben und da haben die 3DMarks auch eine entsprechende Last. Und für beides steht bei der 8600GTS vielleicht nur 100GFLOPs zu Verfügung, während die 7900GS 31GFLOPs nur für Vertexshader mit dafür noch besser ausglegten Einheiten hat.

Wie kommst du darauf?

Anhand der Benches? Das es nicht große Bandbreitenfresser sind ist klar, aber es zeigt sich das die Bandbreite bei der 8600GT nicht extrem unterdimensioniert ist.

Hvoralek
2007-04-13, 14:50:44
Aber Leistung für die Pixelshader muss ja auch noch übrig bleiben und da haben die 3DMarks auch eine entsprechende Last. Und für beides steht bei der 8600GTS vielleicht nur 100GFLOPs zu Verfügung, während die 7900GS 31GFLOPs nur für Vertexshader mit dafür noch besser ausglegten Einheiten hat.Es ist aber absehbar, dass die 8600 bei typichen Anforderungen meist schlechter dastehen wird, weil dann die älteren Modelle ihre Pixelshaderleistung eher auch nutzen können. Und sind die Unterschiede zwischen den Architekturen nicht etwas zu groß, um mit theoretischen Berechnungen aussagekräftige Ergebnisse zu bekommen?


Wie kommst du darauf?Insgesamt gewinnt die Karte mehr Leistung durch eine Übertaktung des Kerns als durch eine des Speichers (jeweils um den gleichen Anteil). Zumindest bei den meisten gewählten Benchmarks.

robbitop
2007-04-13, 14:52:23
Anhand der Benches?
Genauer


Insgesamt gewinnt die Karte mehr Leistung durch eine Übertaktung des Kerns als durch eine des Speichers (jeweils um den gleichen Anteil). Zumindest bei den meisten gewählten Benchmarks.

Genau. Und das widerspricht einer Bandbreitenlimitierung. ;)

Hvoralek
2007-04-13, 14:56:30
Genau. Und das widerspricht einer Bandbreitenlimitierung. ;)AnarchX meinte doch auch, es "[sehe] nicht danach aus, dass die Bandbreite bei der 8600GT stark limitieren würde". :confused:

robbitop
2007-04-13, 15:00:25
Autsch, ich habe das "nicht" ueberlesen. Ok. Mea culpa.

Gast
2007-04-13, 15:01:17
Anhand der Benches? Das es nicht große Bandbreitenfresser sind ist klar, aber es zeigt sich das die Bandbreite bei der 8600GT nicht extrem unterdimensioniert ist.

Mem-OC bringt aber oft mehr als Core-OC.


Q

AnarchX
2007-04-13, 15:09:33
Mem-OC bringt aber oft mehr als Core-OC.


Pauschal? Oder bei euren GF8600-Samples?

Aber ansich scheint die 8600GT durchaus eine interessante Budget-OC-Karte zu sein, erst recht wenn man wie ASUS ihr auch ein 8600GTS-PCB mit Powerconnector spendiert und dazu vielleicht auch noch schnelleren GDDR3, 1.0ns sah man in letzter Zeit recht oft bei diversen OC-Versionen in Asien.

robbitop
2007-04-13, 15:12:30
Mem-OC bringt aber oft mehr als Core-OC.


Q
Beim G84 oder auf welcher Karte (ihr habt sicher schon ein Sample da)?

seahawk
2007-04-13, 15:30:46
Also in der §M Score bringt dier reine Mem-OC mehr als der reine Core-OC. Das ist sehr ungewöhnlich und spricht imho durchaus für ne Bandbreitenlimitierung.

Anarchy-HWLUXX
2007-04-13, 15:31:06
Mem-OC bringt aber oft mehr als Core-OC.


Q


Dann schau die nochmal die Prey Benches an ;) Da ist der Leistungsschub sehr viel deutlicher beim Core-OC.

Gast
2007-04-13, 15:36:31
Dann schau die nochmal die Prey Benches an ;)
"oft" != "immer".

@robbitop, anarchx:
Ich beziehe mich rein darauf, was hier gepostet wurde. Sowohl im Murks03 als auch 05 bringt in niedrigen Auflösungen Mem-OC anscheinend mehr als höherer Kerntakt.

Was sich bei uns im Testlab tut, dazu kann ich nichts sagen. Einerseits haben wir bestimmt ein NDA und andererseits habe ich seit letzten Donnerstag Urlaub. :)


Q

Ailuros
2007-04-13, 21:10:22
"oft" != "immer".

@robbitop, anarchx:
Ich beziehe mich rein darauf, was hier gepostet wurde. Sowohl im Murks03 als auch 05 bringt in niedrigen Auflösungen Mem-OC anscheinend mehr als höherer Kerntakt.



Uhmmm....:confused: "Niedrige Aufloesung" = alles unter "default"? Selbst bei default 1024*768 wenn nicht sogar 1280 duerfte so was nicht vorkommen. Wenn bei einer solchen GPU schon als Beispiel in 1024*768 die Bandbreite limitieren sollte (und das mit irgendwo zwischen 20-32GB je nach Modell), dann stimmt hier wohl einiges nicht mit den Treibern.

AnarchX
2007-04-14, 16:31:29
Es scheint wohl einen Forceware 158.16 zu geben, jedenfalls testet hier jemand eine 8600GT damit:
http://we.pcinlife.com/thread-749300-1-1.html
... und einen Einblick will er auch nicht gewähren -> NDA.

Und hier wurde mit einem 158.14beta getestet:
http://www.cnpdb.com/bbs/viewthread.php?tid=5814&extra=page%3D1

:|

Was wohl dieser große Sprung in der Versionsnummer bedeuten könnte?

dargo
2007-04-14, 17:10:52
Es scheint wohl einen Forceware 158.16 zu geben, jedenfalls testet hier jemand eine 8600GT damit:
http://we.pcinlife.com/thread-749300-1-1.html
... und einen Einblick will er auch nicht gewähren -> NDA.

Und hier wurde mit einem 158.14beta getestet:
http://www.cnpdb.com/bbs/viewthread.php?tid=5814&extra=page%3D1

:|

Was wohl dieser große Sprung in der Versionsnummer bedeuten könnte?
Deutlich mehr Power mit dem G8x? :D
Ich weiß, ich fantasiere zu viel. ;D

Godmode
2007-04-14, 19:49:05
Deutlich mehr Power mit dem G8x? :D
Ich weiß, ich fantasiere zu viel. ;D

Das könnte wirklich der sagenhafte MUL-Treiber sein! Da bin ich mal gespannt, hoffentlich wird der bald wo geleaked! Soll die G84-86 nicht am 17. April vorgestellt werden?

robbitop
2007-04-14, 19:54:15
Das MUL geht bereits ein paar Wochen, wenn es nicht durch anderen Kram blockiert wird:

http://www.beyond3d.com/content/reviews/7/17

Ich vermute, dass noch ein paar Treiberblasen (absichtlich?) nicht entfernt worden sind.

noch ein Gast
2007-04-14, 21:19:19
Könnte die unterschiedliche Leistungsskalierung durch GPU- und RAM-Takt schlichtweg an unterschiedlichen Zugriffsmustern von VS und PS (bzw. vielmehr Textureinheiten) liegen?

AnarchX
2007-04-14, 22:10:12
OCing-freudig scheinen G84 und G86 definitiv zu sein:
http://we.pcinlife.com/thread-748180-1-2.html
http://img403.imageshack.us/img403/6482/attachment2d2e1cckx3.jpg (http://imageshack.us)
Mit Standard-Takt sind es 42xx Punkte.

dargo
2007-04-14, 22:13:18
OCing-freudig scheinen G84 und G86 definitiv zu sein:
http://we.pcinlife.com/thread-748180-1-2.html
http://img403.imageshack.us/img403/6482/attachment2d2e1cckx3.jpg (http://imageshack.us)
Mit Standard-Takt sind es 42xx Punkte.
Die Temperaturentwicklung an der GPU ist aber alles andere als gut. X-D
Schöne Grüße an den mickrigen Kühler/Lüfter. Naja, bei diesen Karten muss halt überall gespart werden.

Gast
2007-04-14, 22:24:56
Die Temperaturentwicklung an der GPU ist aber alles andere als gut. X-D
Schöne Grüße an den mickrigen Kühler/Lüfter. Naja, bei diesen Karten muss halt überall gespart werden.
Sieht stark nach "passiv" aus...


Q

Gast
2007-04-14, 22:27:55
Die Temperaturentwicklung an der GPU ist aber alles andere als gut. X-D
Schöne Grüße an den mickrigen Kühler/Lüfter. Naja, bei diesen Karten muss halt überall gespart werden.

Die Karte wird um 58% übertaktet, da ist eine höhrere Coretemperatur nur logisch.
Oder siehst du das anders?

dargo
2007-04-14, 22:31:54
Die Karte wird um 58% übertaktet, da ist eine höhrere Coretemperatur nur logisch.
Oder siehst du das anders?
Die Karte ist so übel beschnitten, dass selbst für diese Übertaktung mir die Temperatur hoch erscheint. Aber du hast recht, der Kühler ist auch für 460Mhz vorgesehen.

laser114
2007-04-15, 00:27:58
Hmm:
http://geizhals.at/eu/?fs=Geforce+8600&x=0&y=0&in=
http://geizhals.at/eu/?fs=Geforce+8500&x=0&y=0&in=

Immer diese zu schnellen Händler... :rolleyes: :D

LovesuckZ
2007-04-15, 00:30:46
Die ohne OC soll passiv gekühlt werden. Nicht schlecht.

laser114
2007-04-15, 00:36:01
Jap, die 8600 GT OC auch. Nur der 8600 GTS OC scheint MSI eine verbesserte Kühlung gegeben zu haben - richtet sich wohl auch an die Übertakter, die noch weiter takten wollen. Und spricht auch dafür, das sich die 8600er sehr gut übertakten lassen.

Gast
2007-04-15, 00:47:19
http://www.hardforum.com/showpost.php?p=1030910236&postcount=72

Was messen die da mit "gpuip: 18" ?

deekey777
2007-04-15, 01:20:33
http://www.hardforum.com/showpost.php?p=1030910236&postcount=72

Was messen die da mit "gpuip: 18" ?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=357019
:smile:
0.5 TFlops and not just with MAD instructions... well thats easy with G80 and "future driver release" (hopefully coming soon)
Dass es nicht nur MADDs sein können, ist klar, da ist bei ~ 340 Sense. Sonst siehe robbitops Posting.

AnarchX
2007-04-15, 06:44:46
Es sind 3 Cluster bei der 8600GTS(G84).;)
http://img.photobucket.com/albums/v420/kaosgnome/3dmark.jpg


Und nun noch eine Überlegung zu arithmetischen Leistung:

67.8MTriangles/s bei der 8600GTS, die 8800GTX erreicht hier 177MTriangles/s.

Macht etwa ohne das MUL ~130GFLOPs und mit ~200GFLOPs für die 8600GTS.
Da könnten die 1.45GHz doch durchaus stimmen?
(Vielleicht kann ja noch jemand mit einer GF8800 einen Wert mit einem aktuellen Treiber liefern.)

reunion
2007-04-15, 08:03:49
8800 Ultra edition cards will be few and far between: Low volumes, high price (http://www.the-inquirer.net/default.aspx?article=38925)

Es sind 3 Cluster bei der 8600GTS(G84).;)
http://img.photobucket.com/albums/v420/kaosgnome/3dmark.jpg


Darf ich fragen woran du das erkennst?

Gast
2007-04-15, 09:02:18
Es sind 3 Cluster bei der 8600GTS(G84).;)
http://img.photobucket.com/albums/v420/kaosgnome/3dmark.jpg

Nein, sind es nicht. Ganz bestimmt, auch wenn ich es bisher glaubte.


Q

AnarchX
2007-04-15, 10:08:28
Darf ich fragen woran du das erkennst?

8123 MTex/s / 710MHz(ist eine OC-Version) = 11.44 -> 12 TMUs. ;)

Nein, sind es nicht. Ganz bestimmt, auch wenn ich es bisher glaubte.


Und wie erklärst du dir die MT-Füllrate?

Hvoralek
2007-04-15, 10:20:53
8123 MTex/s / 710MHz(ist eine OC-Version) = 11.44 -> 12 TMUs. ;)Könnte da die Bandbreite ein Problem werden? So üppig bemessen ist die ja nicht.

AnarchX
2007-04-15, 10:29:36
Könnte da die Bandbreite ein Problem werden? So üppig bemessen ist die ja nicht.

Das glaube ich nicht(6800GT@400/250MHz -> 6GTex/s).

Aber was soll an 3 vollwertigen Clustern bei 289M so unrealistisch sein?
G80 / 3 = 226M + NVIO + die Transistoren dazukommen, da man ehe nicht 100%ig skalieren kann.

[QUOTE=AnarchX;5408732]Es scheint wohl einen Forceware 158.16 /QUOTE]
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61994
;)

Hvoralek
2007-04-15, 10:42:57
Das glaube ich nicht(bei meiner 6800GT@16GB/s verändert sich die MT-Füllrate jedenfalls nicht).Das spricht natürlich dagegen. Ein Vier- Cluster- G84 hätte ebenso viele TMUs, allerdings mit je zwei Filtereinheiten bei etwa doppeltem Chiptakt einer 6800GT und der gleichen Bandbreite, also etwa der doppelten wie bei Deinem Versuch. Wie sieht es denn bei Dir mit 8 GiB/S aus? Dann wäre das Verhältnis von Filterleistung und Bandbreite identisch mit einem Vier- Cluster- G84 (16*1*350 : 8 = 16*2*700 : 32), angenommen, es können alle Filtereinheiten genutzt werden und die Speichercontroller sind ähnlich effizient.

Aber was soll an 3 Clustern bei 289M so unrealistisch sein?
G80 / 3 = 226M + NVIO + die Transistoren dazukommen, da man ehe nicht 100%ig skalieren kann.Ich gehe selbst von drei Clustern aus. Allerdings haben Quasars Äußerungen normalerweise Hand und Fuß, weshalb wir überlegen sollten, ob das nicht doch vier sein könnten (Nur zwei jedenfalls nicht. Dafür ist die Füllrate eindeutig zu hoch).

Superheld
2007-04-15, 10:45:56
(Vielleicht kann ja noch jemand mit einer GF8800 einen Wert mit einem aktuellen Treiber liefern.)
101.02 WinXP Forceware:smile:
http://www.abload.de/img/1zp773.jpg (http://www.abload.de/image.php?img=1zp773.jpg)

AnarchX
2007-04-15, 10:54:19
FW 101.02

3DM06
SM2: 5787
SM3: 5723

FW 158.16

3DM06
SM2: 5930
SM3: 5838

:up:

Gast
2007-04-15, 11:10:25
Ich gehe selbst von drei Clustern aus. Allerdings haben Quasars Äußerungen normalerweise Hand und Fuß, weshalb wir überlegen sollten, ob das nicht doch vier sein könnten (Nur zwei jedenfalls nicht. Dafür ist die Füllrate eindeutig zu hoch).
Ja, aber natürlich liege ich auch mal daneben, wie jeder andere auch.

Das hier zum Beispiel http://www.forum-3dcenter.de/vbulletin/showthread.php?p=5399447#post5399447 oder hier http://www.forum-3dcenter.de/vbulletin/showthread.php?p=5395805#post5395805 war offenbar ein wenig verfrüht von mir - obwohl ich mir rechnerisch ziemlich sicher gewesen bin.


Q

Gast
2007-04-15, 11:26:49
FW 101.02

3DM06
SM2: 5787
SM3: 5723

FW 158.16

3DM06
SM2: 5930
SM3: 5838

:up:

Ich will nichts sagen, aber das sind ganze 2% Mehrleistung. Dafür einen :up: zugeben ist absurd.

dargo
2007-04-15, 12:25:47
Ich will nichts sagen, aber das sind ganze 2% Mehrleistung. Dafür einen :up: zugeben ist absurd.
Wollte ich auch gerade sagen, das grenzt schon an Messtoleranz. :D

laser114
2007-04-15, 12:31:00
Hattet ihr mehr erwartet?

Das nvidia nicht die Hälfte der Leistung durch den Treiber kaltstellt (und damit schlechter Noten ernten würde), war doch sowieso klar...

Nakai
2007-04-15, 12:34:47
Dann sind 3 Cluster für den G84 wohl sicher.

Allerdings haben Quasars Äußerungen normalerweise Hand und Fuß, weshalb wir überlegen sollten, ob das nicht doch vier sein könnten

Naja der G84 ist da schon zu klein. Ich glaube ehrlichgesagt nicht an 4 Cluster.

mfg Nakai

reunion
2007-04-15, 12:36:39
Wäre nett, wenn Quasar mal begründen könnte, warum er jetzt "ganz bestimmt" weiß, dass es keine drei Cluster sind.

dargo
2007-04-15, 12:38:11
Hattet ihr mehr erwartet?

Das nvidia nicht die Hälfte der Leistung durch den Treiber kaltstellt (und damit schlechter Noten ernten würde), war doch sowieso klar...
Der grosse Versionssprung irritiert etwas. Aber vielleicht hat NV endlich die Spielekompatibilität deutlich verbessert? :naughty:

Gast
2007-04-15, 12:44:21
Die Vorabpreise der 8600GTS erscheinen mir etwas weit von der Realität weg:
http://geizhals.at/eu/?cat=gra16_256&sort=p&bpmax=&asuch=8600&filter=+Angebote+anzeigen+

Wenn sich das bewahrheit, dann gute Nacht. (http://geizhals.at/eu/a242979.html)

dargo
2007-04-15, 12:46:23
Die Vorabpreise der 8600GTS erscheinen mir etwas weit von der Realität weg:
http://geizhals.at/eu/?cat=gra16_256&sort=p&bpmax=&asuch=8600&filter=+Angebote+anzeigen+

Die Strassenpreise bei/vor Veröffentlichung haben eine Aussagekraft gegen Null. Eine G8800GTX wollten die auch am Anfang für 699€ an den man bringen. ;)

Gast
2007-04-15, 12:50:04
Die Vorabpreise der 8600GTS erscheinen mir etwas weit von der Realität weg:
http://geizhals.at/eu/?cat=gra16_256&sort=p&bpmax=&asuch=8600&filter=+Angebote+anzeigen+
Wenn sich das bewahrheit, dann gute Nacht. (http://geizhals.at/eu/a242979.html)

Du vergleichst ein Massenprodukt für die Zukunft mit einem Auslaufmodell.
Überschneidungen hat es auch früher schon gegeben.


Dann sind 3 Cluster für den G84 wohl sicher.

Echt?
Es kann soviele Möglichkeiten geben, wie die Leistung beim g84 realisiert wurde. Vielleicht sind es wirklich 4 Cluster - mit 3 statt 4 TAUs.

Gast
2007-04-15, 12:50:23
Die Strassenpreise bei/vor Veröffentlichung haben eine Aussagekraft gegen Null. Eine G8800GTX wollten die auch am Anfang für 699€ an den man bringen. ;)

Den Preis gibts aber heute auch noch (http://geizhals.at/eu/a243571.html).

Hoffen wir mal das beste. Gemessen an der bekannten Leistung müsste die unter 150,- fallen.

dargo
2007-04-15, 12:52:43
Den Preis gibts aber heute auch noch (http://geizhals.at/eu/a243571.html).

Und was hat jetzt eine übertaktete, wassergekühlte GTX mit einer standard GTX zu tun :confused:

Gast
2007-04-15, 12:54:12
Den Preis gibts aber heute auch noch (http://geizhals.at/eu/a243571.html).

Hoffen wir mal das beste. Gemessen an der bekannten Leistung müsste die unter 150,- fallen.

rofl, hast du gesehn was das für eine gfx is?
So richtig Plan hast du nicht um hier mitzureden oder?

Gast
2007-04-15, 12:57:06
Und was hat jetzt eine übertaktete, wassergekühlte GTX mit einer standard GTX zu tun :confused:

Sehr viel, denn ein Wasserkühlungsaufsatz ist keine 200-300,- extra Wert.
Immer noch völlig überzogen.

Ihr macht es euch etwas sehr schwer. Die Luftkühlte kann man auch noch für 600,- kaufen, wenn man denn will.

Es ist nie gesagt, das der Preis weiter fällt, auch wenn er es meistens tut.

rofl, hast du gesehn was das für eine gfx is?

Ja, genau deswegen ist der Preis total überzogen.

dargo
2007-04-15, 13:10:14
Sehr viel, denn ein Wasserkühlungsaufsatz ist keine 200-300,- extra Wert.
Immer noch völlig überzogen.

Ach was. Hast du noch nie gesehen was eine übertaktete Graka mit zusätzlichen originalen Wasserkühlung kostet? Das war bei einer G7900GTX auch nicht anders. ;)
Die Hersteller lassen sich nunmal das bissel Luxus teuer bezahlen. Wer so eine Karte kauft ist selber schuld. Aber das muss jeder für sich selbst entscheiden, immehin behält er dabei die Garantie.

Edit:
Kann es sein, dass der neue Forceware 158.16 die Performance vom G84/G86 deutlich verbessern soll?
http://www.nvnews.net/vbulletin/showthread.php?t=89731&page=1

Gast
2007-04-15, 13:24:21
Ich wollte auf was ganz anderes hinaus...

Erst einmal ist lange nicht gesagt, das diese gelisteten Produkte jemals billiger werden. Es kann genauso gut sein, das sie so teuer bleiben, aber andere Hersteller vorstoßen und deren Produkt von Anfang an günstiger anbieten. :)

Dazu kommt noch die Tatsache, das es aktuell keine ernsthafte Konkurrenz im DX10 Markt gibt. Die nächsten 1 oder 2 Monate scheint eine ernsthafte Preisanpassung sehr unwahrscheinlich.

War es nicht sogar so, das au-ja.de die Karte, die sie gebencht hatten, bereits gekauft haben:confused:


Aber das muss jeder für sich selbst entscheiden, immehin behält er dabei die Garantie.

Das ist es niemals Wert. :)
Es gibt einige Modding Shops die einfach eine normale GTX umbauen und dann für z.B. +80€ mehr anbieten, inkl. Garantie.
Immer noch 200++ gespart.

Ach übrigens, schlagt zu. (http://www.digitrend.at/deeplink.jsp;jsessionid=E493929AEE63D042AE75BA6C6DF54DFD?EXT=extern&PROD=929332&PFAD=30150) ;D

Super Grobi
2007-04-15, 13:31:42
Wa? ForceWare 158.16?

Warum steht hier sowas versteck in so einem langweiligen Thread? Gibts keinen Thread zu dem Treiber? Wo bekomm ich den her? Für XP? Für 8800gts?

SG

dargo
2007-04-15, 13:42:23
Das ist es niemals Wert. :)
Es gibt einige Modding Shops die einfach eine normale GTX umbauen und dann für z.B. +80€ mehr anbieten, inkl. Garantie.
Immer noch 200++ gespart.

Ich weiß, dass das nicht lohnt. Würde ich auch niemals kaufen. Vorallem nicht weil der GTX Lüfter vollkommen ausreicht.

Wa? ForceWare 158.16?

Warum steht hier sowas versteck in so einem langweiligen Thread? Gibts keinen Thread zu dem Treiber? Wo bekomm ich den her? Für XP? Für 8800gts?

SG
1. Ja.
2. Ja.
3. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358289
4. Noch nicht da.
5. Ja.
6. Ja.

:D

Super Grobi
2007-04-15, 13:54:07
Ich weiß, dass das nicht lohnt. Würde ich auch niemals kaufen. Vorallem nicht weil der GTX Lüfter vollkommen ausreicht.


1. Ja.
2. Ja.
3. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358289
4. Noch nicht da.
5. Ja.
6. Ja.

:D

1. Danke
2. Danke
3. ups, wie konnte ich sowas gutes überlesen?
4. Danke
5. Danke
6. Danke

Gruss und schönen Sonntag
SG

AnarchX
2007-04-15, 14:19:04
Ich will nichts sagen, aber das sind ganze 2% Mehrleistung. Dafür einen :up: zugeben ist absurd.
Ist auch nicht unbedingt ernst gemeint. ;)


Echt?
Es kann soviele Möglichkeiten geben, wie die Leistung beim g84 realisiert wurde. Vielleicht sind es wirklich 4 Cluster - mit 3 statt 4 TAUs.

Aber wie wahrscheinlich ist es, dass man nochmal Hand an die Cluster anlegt in denen schon sehr viel Arbeit steckt?

Gast
2007-04-15, 14:33:37
Aber wie wahrscheinlich ist es, dass man nochmal Hand an die Cluster anlegt in denen schon sehr viel Arbeit steckt?
Unwarscheinlich - aber das war ja auch ein US-Design beim G80 bis kurz vor dem Launch. Und auf der anderen Seite muss das Design irgendwann abgeschlossen sein, wenn man den Markteintritt nicht verpassen will. Dass dann jede Einheit der Weisheit letzten Schluss darstellt heisst das aber noch lange nicht.


Ich rede mich hier noch um Kopf und Kragen, daher mal over and out... ;)


Q

AnarchX
2007-04-15, 16:50:43
Fuad hat nun auch ein paar Werte zur 8600GTS veröffentlicht:
8600GTS first scores (http://www.fudzilla.com/index.php?option=com_content&task=view&id=501&Itemid=1)
... und wieder eine MT-Füllrate die auf 12 TMUs hindeutet. ;)

Aber die Einbrüche bei AA/AF sind noch viel zu hoch, also sollte man wohl für eine Performanceurteil noch auf den 158.16 warten.

robbitop
2007-04-15, 16:55:16
Die Performance ist wirklich nicht sonderlich berauschend.

reunion
2007-04-15, 17:04:46
Da liegt ja der "pro-Mhz"-Leistung in den Spielen unter 7600GT-Niveau, also das wäre in der Tat nicht das gelbe vom Ei.

Gast
2007-04-15, 17:27:37
Die Performance ist wirklich nicht sonderlich berauschend.
Wird interessant sein zu sehen, ob das an der GTS, am Treiber oder an Fuad lag. :) Dass das Bild besonders ggü. der 7600 GT in Spielen, die der GF7-Reihe nicht schmecken, aber anders aussehen könnte, sollte eigentlich niemanden überraschen.


Q

AnarchX
2007-04-15, 17:39:11
Wie Au-Ja schon schrieb, zeigte ein bestimmter NDA-Treiber deutliche Unterschiede. ;)

Gast
2007-04-15, 17:41:45
Aber wie wahrscheinlich ist es, dass man nochmal Hand an die Cluster anlegt in denen schon sehr viel Arbeit steckt?

Das Hand anlegen ist nicht das Problem, wenn das Design darauf ausgerichtet wurde auch innerhalb der CLuster Modifikationen vorzunehmen.
Schonmal hat nVidia die Vec16 Recheneinheiten in zwei 8er Gruppen angeordnet. Dienstag werden wir mehr wissen.

AnarchX
2007-04-15, 18:49:37
INQ: Die Auflage der 8800Ultra beträgt 10 Stück? (http://www.theinquirer.net/default.aspx?article=38925)
[GeForce 8800 Ultra; An Overclocked G80] (http://www.vr-zone.com/index.php?i=4901)

10 Stück? 15-20% schneller? 8800GTX PCB mit nur 768MB GDDR3? Und das für US$999?

Wenn das mal nicht eine gezielte Irrführung ist darüber was wirklich hinter der 8800Ultra steckt. ;)

laser114
2007-04-15, 18:54:14
10 Stück finde ich lächerlich. ;D
Das glaubt kein Analyst bei AMD. :wink:

Dein Lieblingsgast
2007-04-15, 19:01:36
10 Stück? 15-20% schneller? 8800GTX PCB mit nur 768MB GDDR3? Und das für US$999?

Wenn das mal nicht eine gezielte Irrführung ist darüber was wirklich hinter der 8800Ultra steckt. ;)Jap, ich kann mir auch kaum vorstellen, dass Nvidia für einen simplen, höhergetakteten G80 fast 1000 USD haben will. Das sind ja völlig neue Dimensionen in Sachen Grafikkartepreise.

Blaire
2007-04-15, 19:02:34
Vieleicht kommt die ja mit 1,5GB Speicher im Gepäck ;)

laser114
2007-04-15, 19:03:50
Vieleicht kommt die ja mit 1,5GB Speicher im Gepäck ;)

Ja gut, wenn die inzwischen so große Speicherchips irgendwo herbekommen - wieso nicht.

Trotzdem kann man die News mit den 10 Stück wohl vergessen. Das reicht ja nicht mal als "Presse-Edition". ;)

AnarchX
2007-04-15, 19:09:01
Ja gut, wenn die inzwischen so große Speicherchips irgendwo herbekommen - wieso nicht.


Scheint es zu geben, immerhin gibt es ja die QuadroFX 5600 mit 1.5GB oder es sind hier 24 Chips verbaut.

reunion
2007-04-15, 19:17:42
Da sind definitiv 24 verbaut. Mehr als 64MB pro Chip gibt es noch nicht.

Wie Au-Ja schon schrieb, zeigte ein bestimmter NDA-Treiber deutliche Unterschiede. ;)

Die aktuell verwendeten Treiber liegen der schon im Handel befindlichen Verkaufsversion bei.

AnarchX
2007-04-15, 19:21:02
Was wohl auch ein Grund gegen 1.5GB auf der 8800Ultra sein könnte.

Coda
2007-04-15, 19:25:41
http://www.3dnews.ru/_imgdata/img/2007/03/05/42534.jpg

Der Quadro-Kühler ist übrigens größer als der von der GTX (6 Rillen!). Ich schätze das wird also auch der für die Ultra.

Aber leider gibt's keine Bilder von der Rückseite. Ich weiß nicht ob man den GDDR3 bei der Taktfrequenz einfach ungekühlt verbauen könnte.

Godmode
2007-04-15, 20:21:54
10 Stück? 15-20% schneller? 8800GTX PCB mit nur 768MB GDDR3? Und das für US$999?

Wenn das mal nicht eine gezielte Irrführung ist darüber was wirklich hinter der 8800Ultra steckt. ;)

Ich denke es könnten 2 Szenarien eintreten:
1.) 88 Ultra ist in etwa gleich schnell oder langsamer als die 28XTX, so wie es auch schon bei 79GTX VS X19XTX war.

2.) Eine Karte die den R600 ziemlich abhängt, eventuell in Form einer GX2 oder selektierte Chips die sehr hohe Taktraten schaffen, oder doch eine Ultra mit 160 SP?

Für das zweite Szenarie würde der Preis von 1000$ Sprechen. Ich persönlich glaube eher an das erste Szenario, da Nvidia bisher immer recht konservativ vorgegangen ist und eher auf Wrtschaftlichkeit als auf die Performancekrone im Highend gesetzt hat.

Gast
2007-04-15, 20:32:57
Erwartet mal nicht zu viel von der 2900XTX. Ich denke sie wird ungefähr auf 8800GTX-Niveau sein. Die Kampfpreise für die 1900XT mit 512 MIB (399 USD) weisen eigentlich auch darauf hin.

laser114
2007-04-15, 21:29:17
Aua: http://geizhals.at/deutschland/a223975.html

113 Euro für eine lieferbare MSI X1950 Pro...

Ob da AMD ein paar Reviews der 8600er "in den Dreck" ziehen möchte?

Gast
2007-04-15, 21:34:30
Das hatten wir schonmal.
Die Karten werden nach dem Erscheinen des rv630 vom Markt verschwinden.
Sie sind für die GTS vollkommen uninteressant und für AMD nicht wirtschaftlicher .

dildo4u
2007-04-15, 21:37:01
Aua: http://geizhals.at/deutschland/a223975.html

113 Euro für eine lieferbare MSI X1950 Pro...

Ob da AMD ein paar Reviews der 8600er "in den Dreck" ziehen möchte?
Kein DX10 und 1950pro Karten haben kurz nach dem Launch auch weit über 200€ gekostet also lass die 8600 erstmal so 2-3Monate auf dem Markt sein dann sind die auch so bei 140-160€ mit DX10 Support.

laser114
2007-04-15, 21:37:30
Das hatten wir schonmal.
Die Karten werden nach dem Erscheinen des rv630 vom Markt verschwinden.
Sie sind für die GTS vollkommen uninteressant und für AMD nicht wirtschaftlicher .

Damals hatten wir aber noch nicht diese Preise.

Und der Preisverfall ... jetzt so kurz vor dem Launch ist doch sehr interessant. Immerhin ist die X1950 Pro wohl der schärfste Konkurrent der 8600er ... und AMD fährt derzeit ja sehr stark auf Marktanteile ausgerichtet.


@dildo4u: Dann kommt aber ein andere Konkurrent ala X2600 oder so ähnlich ... RV630. Oder AMD überrascht uns noch irgendwie anders. ;)

dargo
2007-04-15, 21:38:39
Das hatten wir schonmal.
Die Karten werden nach dem Erscheinen des rv630 vom Markt verschwinden.
Sie sind für die GTS vollkommen uninteressant und für AMD nicht wirtschaftlicher .
Da fragt man sich aber wirklich ernsthaft wozu man sich so eine neue D3D10 Graka kaufen sollte wenn in diesem Fall eine X1950Pro ähnliche Leistung (wenn nicht sogar schneller) liefert und dafür momentan deutlich günstiger ist. Nur wegen D3D10? tzz

dildo4u
2007-04-15, 21:41:57
@dildo4u: Dann kommt aber ein andere Konkurrent ala X2600 oder so ähnlich ... RV630. Oder AMD überrascht uns noch irgendwie anders. ;)
Jo auch mit 128Bit Speicherinterface sehen ich nicht wirklich als Bedrohung für die 8600 Karten.ATIs Mitteklasse war die letzten zwei Generation schon nicht zu gebrauchen warum sollte das diesmal anders sein?

dildo4u
2007-04-15, 21:44:57
Da fragt man sich aber wirklich ernsthaft wozu man sich so eine neue D3D10 Graka kaufen sollte wenn in diesem Fall eine X1950Pro ähnliche Leistung (wenn nicht sogar schneller) liefert und dafür momentan deutlich günstiger ist. Nur wegen D3D10? tzz
Vieleicht wegem dem HDCP HD Support womit whol auch ATI punkten will mit der R600 Generation.Und wie gesagt die 8600 Karten werden sich schon noch einpendeln und höstens 30-40€ mher kosten.Wobei die 1950pro Karten bei diesen Preisen schnell ausverkauft sein werden und dann wird bald der Preis wieder steigen wie bei der 6800GT.

laser114
2007-04-15, 21:45:06
Jo auch mit 128Bit Speicherinterface sehen ich nicht wirklich als Bedrohung für die 8600 Karten.ATIs Mitteklasse war die letzten zwei Generation schon nicht zu gebrauchen warum sollte das diesmal anders sein?

Ich gehe nicht davon aus, das sie die X1950 Pro gegen eine langsamere einziehen. Gibt also meiner Meinung nach 3 Möglichkeiten:

1.) Die RV630 XT schlägt sie.
2.) Sie bleibt am Leben.
3.) Eine kleiner R600 soll sie ersetzen.

Wobei ich 3.) auf Grund des derzeitigen Preis wohl auszuschließen ist.


Außerdem vergisst du den AMD-Faktor, der zwar wohl nicht mehr so viel an der Technik, aber sehr wohl an den Preisen noch ändern kann und konnte.

AnarchX
2007-04-15, 21:55:36
Außerdem vergisst du den AMD-Faktor, der zwar wohl nicht mehr so viel an der Technik, aber sehr wohl an den Preisen noch ändern kann und konnte.

Der Faktor der für Umsatzwarnungen sorgt?

Die niedrigen Preise der X1950Pro sehen doch ganz nach einem geplanten Ausverkauf aus, der clevererweise auf den 8600/8500-Lauch gesetzt wurde.
AMD wird wohl einiges daran setzen, dass der RV570 so bald wie möglich vom Markt verschwindet und man ihn dann durch den RV630 ersetzen kann, der wohl deutlich wirtschaftlicher ist als der RV570, der trotz 80nm noch auf beachtliche 230mm² kommt.

w0mbat
2007-04-15, 22:01:52
I also confirmed 158.16 and should have it by tomorrow, will keep you posted


Na dann :)

laser114
2007-04-15, 22:05:21
Der Faktor der für Umsatzwarnungen sorgt?

Ja, das auch.

Und grade deswegen muss der RV630 den auch leistungsmäßig ersetzen... ;)

Ich bin mal gespannt, denn auch nvidia setzt mit der 8600 GTS keine stärkere Karten ab, wenn die Benchmarks stimmen...

dargo
2007-04-15, 22:07:52
Und wie gesagt die 8600 Karten werden sich schon noch einpendeln und höstens 30-40€ mher kosten.Wobei die 1950pro Karten bei diesen Preisen schnell ausverkauft sein werden und dann wird bald der Preis wieder steigen wie bei der 6800GT.
Ich weiß, dass die Preise der neuen Generation noch viel Luft haben. Deswegen sagte ich auch momentan (oder besser gesagt direkt nach dem Launch). :wink:

AnarchX
2007-04-15, 22:10:22
Missing MUL in action! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5411697&postcount=38) ;)

laser114
2007-04-15, 22:16:49
Missing MUL in action! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5411697&postcount=38) ;)

Interessant. Sieht doch gut aus, zumindest für ein Treiberupdate. :)

Gast
2007-04-15, 23:14:10
Damals hatten wir aber noch nicht diese Preise.
Und der Preisverfall ... jetzt so kurz vor dem Launch ist doch sehr interessant. Immerhin ist die X1950 Pro wohl der schärfste Konkurrent der 8600er ... und AMD fährt derzeit ja sehr stark auf Marktanteile ausgerichtet.


Was bringen AMD Marktanteile, wenn sie sich dazu ihre Margen versauen?
Genau nichts. nVidia ist seit langem Margen-fixiert, denen ist es egal, ob der Konkurrent die Preise deutlich senkt.
Abgesehen davon verkaufen sich die X1950 Karten nicht besonders, da selbst die 8800 Karten (GTS und GTX) in der Steam Auswertung über den ganzen X1950 Karten befindet. Ein günstiger Preis ist da ein guter Indikator für die Atraktivität des Produktes.

dargo
2007-04-16, 04:59:23
Was bringen AMD Marktanteile, wenn sie sich dazu ihre Margen versauen?

Ein Image muss man sich erstmal hart erkämpfen. Wenn es soweit ist, kann man dann auch höhere Preise verlangen. ;)

Gast
2007-04-16, 06:39:29
Ein Image muss man sich erstmal hart erkämpfen. Wenn es soweit ist, kann man dann auch höhere Preise verlangen. ;)

Achso, du meinst mit dem Image des LowCost Anbieter wirtschaftlich es sich einfacher?
Nun, zum Glück bist du noch kein Chef...

Gast2
2007-04-16, 09:52:33
Ein Image muss man sich erstmal hart erkämpfen. Wenn es soweit ist, kann man dann auch höhere Preise verlangen. ;)


Ein "wenn es soweit ist" wird es aber nicht mehr geben, wenn AMD jetzt kein Geld verdient, dann sind sie nämlich vorher pleite.

robbitop
2007-04-16, 09:58:51
Missing MUL in action! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5411697&postcount=38) ;)
ALT. Das geht schon beim letzten Treiber.

http://www.beyond3d.com/content/reviews/7/17

Das MUL wird meist sowieso fuer andere Dinge gebraucht (Tex Ops, input modifier, perspektiv korrektur, SFU ect). Es ist also nur in vieleicht 15-20% der Faelle nicht ausgelastet. Und seit FW-100 Series.

Godmode
2007-04-16, 10:19:30
ALT. Das geht schon beim letzten Treiber.

http://www.beyond3d.com/content/reviews/7/17

Das MUL wird meist sowieso fuer andere Dinge gebraucht (Tex Ops, input modifier, perspektiv korrektur, SFU ect). Es ist also nur in vieleicht 15-20% der Faelle nicht ausgelastet. Und seit FW-100 Series.

Wird dann eventuell durch die ominösen Treiberblasen noch mehr Performance frei? Treiberblase bedeutet für mich absichtliche Verlangsamung!

robbitop
2007-04-16, 10:21:38
Treiberblase bedeutet für mich absichtliche Verlangsamung!
Dann hast du die Bedeutung falsch verstanden. Eine Blase ist nichts anderes als Leer-Quads und somit Stalls die bei bestimmten Situationen entstehen. Mit besser werdenden Sheduling in reifenden Treibern wird sowas immer seltener.

Gast
2007-04-16, 10:51:50
Missing MUL in action! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5411697&postcount=38) ;)


Boah, hier kommen die angekündigten 50 % Mehrperformance in den speziellen Fällen... ;)

Mal ehrlich, spezieller als im Shadermark gehts ja bald gar nicht... ;)

laser114
2007-04-16, 11:41:18
Was bringen AMD Marktanteile, wenn sie sich dazu ihre Margen versauen?

Z. B. eine höhere Anpassung/Akzeptanz der Gameengines an ATI-Karten und damit "gratis" mehr Performance?
Auf Dauer gesehen nicht unwichtig.

Abgesehen davon verkaufen sich die X1950 Karten nicht besonders, da selbst die 8800 Karten (GTS und GTX) in der Steam Auswertung über den ganzen X1950 Karten befindet.

Steam ist nicht wirklich eine representative Statistik, auch wenn man sie natürlich für ungenaue Aussagen heranziehen kann. Dazu gabs hier aber glaube ich schonmal einen Thread.

Gast2
2007-04-16, 11:53:14
Boah, hier kommen die angekündigten 50 % Mehrperformance in den speziellen Fällen... ;)

Mal ehrlich, spezieller als im Shadermark gehts ja bald gar nicht... ;)


Der Shadermark ist eine Sammlung von Effekten, die genauso auch in Spielen vorkommen können, da ist also nichts spezielles dran.

James Ryan
2007-04-16, 11:55:17
Steam ist nicht wirklich eine representative Statistik, auch wenn man sie natürlich für ungenaue Aussagen heranziehen kann. Dazu gabs hier aber glaube ich schonmal einen Thread.

Die Steam-Statistik ist gerade DIE repräsentativste Statistik, die es im Moment gibt, da Steam deutlich mehr Spiele abdeckt als HL2 und CS.
Nenn du mir mal eine vergleichbare Statistik.

MfG :cool:

Coda
2007-04-16, 11:59:50
Dann hast du die Bedeutung falsch verstanden. Eine Blase ist nichts anderes als Leer-Quads und somit Stalls die bei bestimmten Situationen entstehen. Mit besser werdenden Sheduling in reifenden Treibern wird sowas immer seltener.
Das Scheduling macht aber nicht der Treiber.

Wenn dann kann man den Scheduler/Load-Balancer auf der Hardware noch anders konfigurieren.

laser114
2007-04-16, 12:07:19
Die Steam-Statistik ist gerade DIE repräsentativste Statistik, die es im Moment gibt, da Steam deutlich mehr Spiele abdeckt als HL2 und CS.

Das ist natürlich richtig, wobei es schon eine gewisse Tendenz zur optimalen Ausnutzung der Steam-Engine gibt.
Btw.: Bei mir hat die Hardwareumfrage nicht funktioniert (gecrasht) - Windows Vista, vermute ich mal. Was soll man dazu sagen - auch sowas verfälscht (fehlende neue Daten).

Nenn du mir mal eine vergleichbare Statistik.

Außer statistischen Erhebungen gibts da leider nichts. :(

robbitop
2007-04-16, 12:08:12
Das Scheduling macht aber nicht der Treiber.

Wenn dann kann man den Scheduler/Load-Balancer auf der Hardware noch anders konfigurieren.
Ich habe auch nicht behauptet, dass das Sheduling durch den Treiber geschieht. Nur, dass er es verbessern kann.

Gast
2007-04-16, 12:18:01
Der Shadermark ist eine Sammlung von Effekten, die genauso auch in Spielen vorkommen können, da ist also nichts spezielles dran.

Ja genau. Und nix weiter, im Gegensatz zu richtigen Games.

Godmode
2007-04-16, 12:33:24
Dann hast du die Bedeutung falsch verstanden. Eine Blase ist nichts anderes als Leer-Quads und somit Stalls die bei bestimmten Situationen entstehen. Mit besser werdenden Sheduling in reifenden Treibern wird sowas immer seltener.

Ok verstehe, danke für die Aufklärung. Also ich denke mehr als 10 % Leistungssteigerung werden da wohl auch nicht rauskommen, inkl MUL. Weiß wer wann das NDA morgen fällt?

robbitop
2007-04-16, 12:37:16
Naja wenn man alle Gewinne durchden Treiber auf die gesamte Lebenszeit kummuliert sind das durchaus 30% Mehrleistung. Aber eben verteilt auf Jahre.

deekey777
2007-04-16, 13:07:02
Warum hängen einige so an dieser "vermissten" MUL-Einheit auf?
Absolute Milchmädchenrechnung: Der G80 hat eine "Dual-issue"-ALU. Einmal ist es die MAD-Einheit und dann die vermisste MUL-Einheit.
Mit "normalem" Code bringt der G80 340 GLOP/s. Schön. Wird der Code so angepasst, dass auch die MUL-Einheit was zu tun bekommt (zB 30 % "MUL-lastiger"), dann steigt die FLOP-Rechnung um 51,84 GLOP/s auf 392 GFLOP/s usw.
Ist hirnrissig, was da oben steht.
http://www.hardforum.com/showpost.php?p=1030910236&postcount=72
0.5 TFlops and not just with MAD instructions... well thats easy with G80 and "future driver release" (hopefully coming soon)

G80@575MHz + 97.92 series drivers
-------------------------------------------------
gpudip 18: cel shading - 23 70 1 512 768 10000 - 682,3311 msec - 403,3983 GFlop/sec

G80@575MHz + "future driver release"
-------------------------------------------------
gpudip 18: cel shading - 23 70 1 512 768 10000 - 584,9589 msec - 470,5480 GFlop/sec

G80@702MHz + "future driver release"
-------------------------------------------------
gpudip 18: cel shading - 23 70 1 512 768 10000 - 496,1952 msec - 554,7236 GFlop/sec

Ich wette, dass sich die skalare Architektur des G80 ihre Muckis ausspielen läßt.

Gast
2007-04-16, 14:09:49
Morgen um 15.00 fällt das NDA und dann wird das Web mit Reviews "überflutet"

AnarchX
2007-04-16, 14:12:43
Forceware 158.16 tested (http://www.fudzilla.com/index.php?option=com_content&task=view&id=550&Itemid=1)

8600GTS:
3DM03 MTFR-Test: 8729.9 MTex/s
3DM05 MTFR-Test: 9118.7 MTex/s

Doch 16 TMUs? :|

Ansonsten hat sich da nicht wirklich was an der Leistung getan.

Zum Glück wird morgen das Geheimnis gelüftet.


Ich würde nun auf 4 Cluster mit je einer Vec8-ALU tippen.

robbitop
2007-04-16, 14:32:50
So viel Fuellrate macht bei so wenig Bandbreite und sowenig Rechenleistung gar keinen Sinn.
Vieleicht tricksen sie ja mit den doppel TMUs bei 3DM.

Hvoralek
2007-04-16, 14:36:15
Ich würde nun auf 4 Cluster mit je einer Vec8-ALU tippen.Wenn die Karten ohne NVIO auskommen, müssten die vergleichsweise niedrig takten. 32 SPs @ 900 MHz würden z.B. 1/6 der arithmetischen Leistung einer 8800 GTX bedeuten bei etwa 60% der Füllrate und gut 1/3 der Bandbreite :|

Godmode
2007-04-16, 14:36:19
Morgen um 15.00 fällt das NDA und dann wird das Web mit Reviews "überflutet"

Wenn es so läuft wie jedesmal, dann dürfen wir heute Abend schon mit Berichten von irgendwelchen Chinesen rechnen. ;D

AnarchX
2007-04-16, 14:36:47
Vieleicht tricksen sie ja mit den doppel TMUs bei 3DM.

Das wäre natürlich auch eine Möglichkeit.

Die Transistorcounts von G84 und G86 sprechen imo, jedenfalls auch eher für 3 bzw. 2 Clusters.

Wenn die Karten ohne NVIO auskommen, müssten die vergleichsweise niedrig takten.
Da wäre ich mir mittlerweile gar nicht mehr so sicher.
Ich würde doch einen Shaderclock von 1GHz+ tippen, danach sehen mir auch die synthetischen Shadertests aus.

Black-Scorpion
2007-04-16, 14:54:56
Keine Ahnung in wie weit das man jetzt wirklich vergleichen kann.

3DMark03 (500MHz/477MHz)
STFR = 2668.9MMTexels/s
MTFR = 7474.8MTexels/s

3DMark03 (570MHz/600MHz)
STFR = 3265.9MMTexels/s
MTFR = 8440.6MTexels/s

Nakai
2007-04-16, 16:03:36
Also für 16 TMUs wäre das zu wenige Texelleistung. Imho wären es beim G84 mit 3 Clustern sogar 24 TMU. Ob da noch was mit den Treiber gemacht werden konnte.

mfg Nakai

Gast
2007-04-16, 16:11:44
Also für 16 TMUs wäre das zu wenige Texelleistung. Imho wären es beim G84 mit 3 Clustern sogar 24 TMU. Ob da noch was mit den Treiber gemacht werden konnte.


Dann teste doch mit einer 8800GTX dagegen...

8800GTX@default

Fill Rate (Single-Texturing) 6812.2 MTexels/s
Fill Rate (Multi-Texturing) 17288.9 MTexels/s

dargo
2007-04-16, 19:37:22
Ein "wenn es soweit ist" wird es aber nicht mehr geben, wenn AMD jetzt kein Geld verdient, dann sind sie nämlich vorher pleite.
Ja, genau. AMD geht gleich Pleite weil sich die "eigene" D3D10 Generation verspätet hat. :ugly:

w0mbat
2007-04-16, 19:53:55
http://www.fudzilla.com/index.php?option=com_content&task=view&id=554&Itemid=1

Hm, da hat der Fuad aber fleißig selber gebenched. Sry, bin ich wohl Schuld :(

Gast
2007-04-16, 19:57:24
Hm, da hat der Fuad aber fleißig selber gebenched. Sry, bin ich wohl Schuld :([/QUOTE]

Abgesehen davon, dass ich es nicht verstehe:
Die Werte hat der liebe Fuad einfach von hier übernommen:
http://forum.beyond3d.com/showpost.php?p=969845&postcount=447

w0mbat
2007-04-16, 20:05:30
Ach wirklich? Rate mal worauf ich mit "fleißig selber gebenched" anspiele? Und ich hab ja geschrieben das ich Schuld bin weil ich mit ihm darüber geredet habe.

AnarchX
2007-04-16, 20:26:31
8600GT/GTS und 8500GT: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358485)

PCOnline ist natürlich wie auch bei der 8800 der erste der veröffentlicht.

Anarchy-HWLUXX
2007-04-16, 21:52:53
nV und ATi "zeigen" PCIe 2.0 produkte :

http://uk.theinquirer.net/?article=38959

Aba alles weitere unter NDA ...

Gast
2007-04-17, 15:12:19
NDA is ausgelaufen, Reviews sind Online.

Für mich ist die Karte ein totaler reinfall..


Gruß bvb

Gast
2007-04-17, 16:17:58
NDA is ausgelaufen, Reviews sind Online.

Für mich ist die Karte ein totaler reinfall..


Gruß bvb
Naja, wer nicht bereit ist viel auszugeben wird zwangsläufig mit verkrüppelter Performance konfrontiert. Wenn's akut wird mit D3D10 Applications, dann taugen diese Karten sehr wahrscheinlich nur noch als Briefbeschwerer, es sei denn man aktzeptiert Low Details und eine präferierte Auflösung von max. 800x600. Hauptsache das jetzt schon immens wichtige D3D10 integriert, ist ja sowieso der heilige Gral, anstatt eine anständige Performance für aktuelle Games im hier und jetzt abzuliefern.

Anarchy-HWLUXX
2007-04-17, 16:26:58
Echt toll ... zwischen 8600GTS und 8800GTS kann man nen Ozeanriesen parken ... oder ne komplette 8700er Serie.

Die 8800er hat immer mindestens 90% FPS mehr ...

robbitop
2007-04-17, 16:29:17
Interessant. Offenbar hat man die G80 TMUs aufgedroeselt und erhaelt nun mit 2x Clustern bereits 16 biTMUs.
Die Rechenleistung und die Bandbreite hingegen enttaeuschen.
1/4 G80 .... das ist die Richtung die RV530 einschlug.
Offensichtlich waere ein halbierter G80 in 80nm fuer Midrange zu gross und teuer gewesen, um noch vernuenftigen Gewinn erziehlen zu koennen. Die richtige Midrangeversion kommt vermute ich wohl erst mit 65nm und G9x. Siehe RV560/70 und 80nm.

seahawk
2007-04-17, 17:16:37
Ein halbierter G80 mit einem 128-Bit Speicherinterface wäre sinnlos.