PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15

Quasar
2005-06-13, 19:09:09
Ist doch anfangs immer so - die nehmen in den ersten paar Wochen, soviel sie von den early adopters kriegen können - das gleicht die Margenverluste in den letzten Lebenswochen des Produktes aus, wenn der Lagerbestand abverkauft wird. Siehe die aktuellen Räumungsverkäufe an 6800GT und 6800u.

Xmas
2005-06-13, 19:51:59
Zumal dies ja bei einem Komplettsystemausstatter noch viel ausgeprägter ist. +780$ für eine 6800Utra 512MiB (gegenüber einer 6200TC) sind ja erst recht lächerlich.

Godmode
2005-06-13, 22:09:56
Was haltet ihr eigentlich von der Spezifikation so wie sie jetzt ist:
24 Pipes
430MHz Core Clock
1200MHz Memory Clock(K4J55323QF-GC16 (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/256Mbit/K4J55323QF/K4J55323QF.htm),FPGA (http://www.tweakness.net/imgarchive/G70_nuda.jpg) )
110nm

Wer glaubt dass diese so bleibt und wer glaubt wir werden hier alle nur verarscht. Ich hab mir nochmal das Bild angesehn was anscheinend auf die Verpackung der 7800GTX kommen soll (der Fettsack wie ihn r3ptil3 betitelte ;D ). Irgendwie kann man doch so einen Typen nicht auf eine Graka Schachtel geben, sex sells doch recht gut wie man mit Nalu und Ruby schon gesehen hat ;)

Quasar
2005-06-13, 22:34:41
Hat einer von euch die PS3-Vorstellung von Sony gesehen? Da war ja auch was von nV zu sehen...

Demirug
2005-06-13, 22:35:10
Was haltet ihr eigentlich von der Spezifikation so wie sie jetzt ist:
24 Pipes
430MHz Core Clock
1200MHz Memory Clock(K4J55323QF-GC16 (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/256Mbit/K4J55323QF/K4J55323QF.htm),FPGA (http://www.tweakness.net/imgarchive/G70_nuda.jpg) )
110nm

Wer glaubt dass diese so bleibt und wer glaubt wir werden hier alle nur verarscht. Ich hab mir nochmal das Bild angesehn was anscheinend auf die Verpackung der 7800GTX kommen soll (der Fettsack wie ihn r3ptil3 betitelte ;D ). Irgendwie kann man doch so einen Typen nicht auf eine Graka Schachtel geben, sex sells doch recht gut wie man mit Nalu und Ruby schon gesehen hat ;)

Es gab doch auch Schachteln mit dem Oger.

Godmode
2005-06-13, 22:36:33
Es gab doch auch Schachteln mit dem Oger.

Bei der 6er Serie?

Godmode
2005-06-13, 22:37:44
Hat einer von euch die PS3-Vorstellung von Sony gesehen? Da war ja auch was von nV zu sehen...

Du meinst das nette RSXchen?
edit2:
=> G70 = RSX ja warum eigentlich nicht? Vielleicht darf Nvidia den G70 bei Sony fertigen lassen? Oder Ist der G70 ein RSX in 110nm? Ich weis hinten und vorne nicht mehr was ich denken/glauben/wissen soll. Jetzt hab ich den Kopf wieder so voll dass ich nicht einschlafen kann ;D

edit: ich hab mir eben diesen Text durchgelesen und dann hab ich nochmal überlegt ob es nicht wirklich so sein könnte?
http://www.penstarsys.com/editor/company/nvidia/g70_spec/

Quasar
2005-06-13, 22:37:50
Der Oger hat aber auch gerockt. Die Musik hör ich mir heute noch des Öfteren an. :)

Godmode
2005-06-13, 22:40:44
Der Oger hat aber auch gerockt. Die Musik hör ich mir heute noch des Öfteren an. :)

War der nicht beim NV30? Beim NV40 dann Nalu, der Glatzkopf, und das Schiffchen

Hellfire-Torrod
2005-06-13, 22:56:14
Warscheinlich beommen wir dan Nalu und ihre ZWillingschwester Ulan, 3x so viele Polygone usw.

Demirug
2005-06-13, 22:56:59
Der Oger hat aber auch gerockt. Die Musik hör ich mir heute noch des Öfteren an. :)

Vielleicht hat der "Fettsack" ja eine Motorradrockband die auch gut abgeht. Oder er fährt mit seinem heisen Ofen bei der Tankstelle vorbei und greift Dusk ab.

Quasar
2005-06-13, 23:00:40
Oder die kleinen Dinger, die er beim Tanzen auffrisst, werden durch originalgetreue Rubys ersetzt. *SCNR*

Godmode
2005-06-13, 23:10:58
Oder die kleinen Dinger, die er beim Tanzen auffrisst, werden durch originalgetreue Rubys ersetzt. *SCNR*

Oder vielleicht holt der "Fettsack" ;D Ruby mit dem Motorrad ab, nachdem ihres in der Curves Demo eingegangen ist?

Xmas
2005-06-13, 23:20:36
LOL, das wären doch mal Kombinationen...
Dawn tanzt auf dem Treemark-Baum während unten Timbury ein Chamäleon bestaunt, der Biker gabelt Dusk an der Last Chance Gas-Tankstelle auf, Ogre liefert sich mit Vulcan und Wolfman einen Kaumpf, und Nalu begegnet unter Wasser einem Squid während darüber das Clear Sailing-Piratenschiff dahinrauscht

Godmode
2005-06-13, 23:24:14
LOL, das wären doch mal Kombinationen...
Dawn tanzt auf dem Treemark-Baum während unten Timbury ein Chamäleon bestaunt, der Biker gabelt Dusk an der Last Chance Gas-Tankstelle auf, Ogre liefert sich mit Vulcan und Wolfman einen Kaumpf, und Nalu begegnet unter Wasser einem Squid während darüber das Clear Sailing-Piratenschiff dahinrauscht

Jetzt weist du warum wir 4xG70 @ SLI brauchen ;D

Hellfire-Torrod
2005-06-13, 23:26:05
LOL, das wären doch mal Kombinationen...
Dawn tanzt auf dem Treemark-Baum während unten Timbury ein Chamäleon bestaunt, der Biker gabelt Dusk an der Last Chance Gas-Tankstelle auf, Ogre liefert sich mit Vulcan und Wolfman einen Kaumpf, und Nalu begegnet unter Wasser einem Squid während darüber das Clear Sailing-Piratenschiff dahinrauscht

Sprechen wir hier noch von einem mög. 24 pipe chip G70 auf aktueller architektur?! :D

Godmode
2005-06-13, 23:29:39
Sprechen wir hier noch von einem mög. 24 pipe chip G70 auf aktueller architektur?! :D

Nein von einem RSX!

Es könnte so ablaufen: Die GTX ist so wie oben in der Spec beschrieben, daneben könnte es noch eine Ultra geben die dann gleich dem RSX ist. Irgend ein Nvidianer hat gesagt dass dieses Quartal noch ein 90nm Produkt vorgestellt wird. Fertigt Sony für andere Firmen, wenn ja würde das doch super passen. So würde Sony viel Erfahrung im 90nm Prozess sammeln und könnte den RSX weiter optimieren dh bessere Yields erreichen. Die GTX wäre in hohen Mengen verfügbar und die Ultra aka RSX wäre da um etwas anzugeben, vielleicht am Anfang etwas spärlich so wie beim 6800Ultra Chip?

die Anregung dazu hab ich hier gefunden: At the J.P. Morgan conference, Marv Burkett clearly stated that the first 90 nm part will be introduced this quarter (which definitely cannot be characterized as "Fall"), and that all "large" products will be 90 nm from here on out. This suggests, in very strong language, that the G70 will be 90 nm (as it has not been released as of yet, and it is a large part). So, was the leak last week legitimate? If Marv really meant what he said, then no, the G70 will not be a 110 nm part.
http://www.penstarsys.com/editor/company/nvidia/g70_spec/


Vielleicht alles nur Humbug, aber irgendwas muss man spekulieren, wenn alle anderen nichts mehr sagen dürfen!

So und jetzt ab ins Bett!

deekey777
2005-06-14, 14:23:42
Nvidia G70 benchmarks published (http://www.theinq.com/?article=23929)
That contrasts slightly with another benchmark for the G70 that a mole whispered to us - 7737. And for an SLI configuration 12070.

Klingt zu schwach, vielleicht ist die Vanilla-Version. Hoffentlich.

Winter[Raven]
2005-06-14, 14:28:41
@ Deekey

Wie oft den noch, INQ = Bullshit...

deekey777
2005-06-14, 14:29:39
']@ Deekey

Wie oft den noch, INQ = Bullshit...

OT: Klickst du auf die Links aus den TheInq News, bevor du so etwas schreibst?

http://www.hardspell.com/news/showcont.asp?news_id=14305

Gast
2005-06-14, 14:30:05
Nvidia G70 benchmarks published (http://www.theinq.com/?article=23929)
That contrasts slightly with another benchmark for the G70 that a mole whispered to us - 7737. And for an SLI configuration 12070.

Klingt zu schwach, vielleicht ist die Vanilla-Version. Hoffentlich.
Komisch - alle sprechen immer von R520 als Flop hier im Forum. Es wird wohl mal Zeit sich überlegen auf welcher Wissensgrundlage einige diese Vermutungen angestellt haben.

Wenn das ein G70 Wert ist scheint ATI wohl keine Probleme zu haben den G70 zu schlagen.

Konsolenfreund

Gast
2005-06-14, 14:32:09
OT: Klickst du auf die Links aus den TheInq News, bevor du so etwas schreibst?
Er schreibt sowas immer sofort, wenn jemand etwas negatives über nVidia schreibt. Wenn etwas gegen ATI geht, ist ihm die Quelle völlig egal.

deekey777
2005-06-14, 14:32:13
Komisch - alle sprechen immer von R520 als Flop hier im Forum. Es wird wohl mal Zeit sich überlegen auf welcher Wissensgrundlage einige diese Vermutungen angestellt haben.

Wenn das ein G70 Wert ist scheint ATI wohl keine Probleme zu haben den G70 zu schlagen.

Konsolenfreund

Öhm, der Spruch, der R520 ist ATis NV30, hat nichts mit der Performance zu tun, sondern mit der Fertigung.

LovesuckZ
2005-06-14, 14:32:27
Wenn das ein G70 Wert ist scheint ATI wohl keine Probleme zu haben den G70 zu schlagen.


Wer sagt, dass der r520 schneller ist?

Gast
2005-06-14, 14:35:15
Wer sagt, dass der r520 schneller ist?
Keiner. Aber bei so einem Wert sind die weit hergeholten Spekulationen einiger, dass ATI Probleme mit der Leistung hat, wohl ziemlich unwahrscheinlich geworden.

Kf

LovesuckZ
2005-06-14, 14:38:46
Keiner. Aber bei so einem Wert sind die weit hergeholten Spekulationen einiger, dass ATI Probleme mit der Leistung hat, wohl ziemlich unwahrscheinlich geworden.


Diese sind ja auch mist, da es zur Zeit keine Anzeichen gibt, was uns erwartet.
Wenn die gerüchte stimmen, dass es erste Karten schon am 21.Juni zu kaufen geben sollte, dann hat Nvidia einen sehr großen Vorteil gegenüber ATi. Und da koennen sie dann auch schneller sein, aber 2-3 Monate werden nur die wenigsten warten.

Winter[Raven]
2005-06-14, 14:39:44
Er schreibt sowas immer sofort, wenn jemand etwas negatives über nVidia schreibt. Wenn etwas gegen ATI geht, ist ihm die Quelle völlig egal.

TROLL WEITER, ABER WOANDERS BITTE!

Und wieder vergleicht man die Chips anhand von diesem blöden Bench, wo soll das nur Enden...

Keiner. Aber bei so einem Wert sind die weit hergeholten Spekulationen einiger, dass ATI Probleme mit der Leistung hat, wohl ziemlich unwahrscheinlich geworden.


Und diese Schlussfolgerung entnimmst du woher? Aus einem völlig realitätsfremden Bench?

Na dann gute Nacht.

seahawk
2005-06-14, 14:39:56
Nvidia G70 benchmarks published (http://www.theinq.com/?article=23929)
That contrasts slightly with another benchmark for the G70 that a mole whispered to us - 7737. And for an SLI configuration 12070.

Klingt zu schwach, vielleicht ist die Vanilla-Version. Hoffentlich.

Fake...

Teilweise sieht man ja noch die Spuren von PS auf den "Screenshots"

deekey777
2005-06-14, 14:44:58
Fake...

Teilweise sieht man ja noch die Spuren von PS auf den "Screenshots"

Ich sehe nur Kompressionsartefakte, die durch die Verwendung von Paint (BMP -> JPEG) entstehen.
Vielleicht liegt da noch ein kleines Problemchen, zum Start der R420 gab's für den 3D 2003 auch ein kleines Update.

Quasar
2005-06-14, 14:47:53
Fake...

Teilweise sieht man ja noch die Spuren von PS auf den "Screenshots"
Jep, Fake.
Da fehlt ein bißchen was an AA-Optionen.

Gast
2005-06-14, 14:50:02
Diese sind ja auch mist, da es zur Zeit keine Anzeichen gibt, was uns erwartet.
Wenn die gerüchte stimmen, dass es erste Karten schon am 21.Juni zu kaufen geben sollte, dann hat Nvidia einen sehr großen Vorteil gegenüber ATi. Und da koennen sie dann auch schneller sein, aber 2-3 Monate werden nur die wenigsten warten.
Das Stimmt. Ich sehe aber weniger die Verkaufzahlen als Handicap, sondern den Marketingvorteil. 1-2 Monaten warten würden die Leute schon, wenn ATI den Kunden klar machen kann das sich das Warten auf den R520. Dafür müsste er aber wirklich ne Nummer schneller sein.

Im Endeffekt weiß man aber so wenig über beide Chips, dass man mit den jetzigen Informationen alles behaupten kann. Vielleicht hat ATI Probleme mit dem Wechsel zu SM3.0 und mit den Speed von nVidia mitzuhalten, vielleicht ist der R520 aber auch das Gegenteil und ATI kann sich erlauben 1 -2 Monate später zu kommen. - Ich weiß es nicht.

Konsolenfreund

Godmode
2005-06-14, 15:30:11
Jep, Fake.
Da fehlt ein bißchen was an AA-Optionen.

Das könnte auch durch einen älternen Treiber resultieren, oder?

Hauwech
2005-06-14, 15:52:47
Das Stimmt. Ich sehe aber weniger die Verkaufzahlen als Handicap, sondern den Marketingvorteil. 1-2 Monaten warten würden die Leute schon, wenn ATI den Kunden klar machen kann das sich das Warten auf den R520. Dafür müsste er aber wirklich ne Nummer schneller sein.

Im Endeffekt weiß man aber so wenig über beide Chips, dass man mit den jetzigen Informationen alles behaupten kann. Vielleicht hat ATI Probleme mit dem Wechsel zu SM3.0 und mit den Speed von nVidia mitzuhalten, vielleicht ist der R520 aber auch das Gegenteil und ATI kann sich erlauben 1 -2 Monate später zu kommen. - Ich weiß es nicht.

Konsolenfreund

Also wenn man den Bericht von xbitlabs und die Aussagen von Coda's Chef heranzieht, dann gibt es eher Probleme mit der Ausbeute als mit dem Chip selber. Im Moment weiss nur ATI ob der Termin Ende Juli so eine Art halber Paperlaunch wird oder nicht.

Es kann gut sein, dass sie bis dahin die relativ wenigen Chips erstmal auf den Markt werfen um so die Leute von dem G70 abzuhalten bis sie wirklich ausreichend liefern können. Ist zumindest besser als weiter und weiter zu warten und so mehr und mehr potenzielle Käufer an Nvidia zu verlieren.

Godmode
2005-06-14, 16:35:03
Also wenn man den Bericht von xbitlabs und die Aussagen von Coda's Chef heranzieht, dann gibt es eher Probleme mit der Ausbeute als mit dem Chip selber. Im Moment weiss nur ATI ob der Termin Ende Juli so eine Art halber Paperlaunch wird oder nicht.

Es kann gut sein, dass sie bis dahin die relativ wenigen Chips erstmal auf den Markt werfen um so die Leute von dem G70 abzuhalten bis sie wirklich ausreichend liefern können. Ist zumindest besser als weiter und weiter zu warten und so mehr und mehr potenzielle Käufer an Nvidia zu verlieren.

Sowas könnte ich mir beim G70 auch gut vorstellen. Eben die Version mit 24Pipes @ 430 MHz @ 110nm für große Verfügbarkeit und eine Spezialversion für prestige Zwecke, die vielleicht bei Sony im 90nm Prozess gefertigt wird. Sony könnte somit viel Erfahrung für die Fertigung des RSX sammeln. Nvidia und Sony haben ja bekanntgegeben dass sie über längere Zeit zusammenarbeiten werden.

reunion
2005-06-14, 17:00:41
Jep, Fake.
Da fehlt ein bißchen was an AA-Optionen.


Inwiefern?
Ich habe jedenfalls auch nicht mehr AA Optionen mit meiner 6600GT.
Oder spielst du auf die angeblich mit dem G70 eingeführten, neuen AA-Modi an?

reunion
2005-06-14, 17:01:31
Perhaps the most interesting news is that G70 cards will be in stock and ready to ship from various online vendors starting at 6:01a.m. on the very same day (users in countries with earlier time zones will be able to get the cards accordingly).

http://www.cooltechzone.com/index.php?option=content&task=view&id=1406

reunion
2005-06-14, 17:05:39
Fake...

Teilweise sieht man ja noch die Spuren von PS auf den "Screenshots"


Komprimierungsartefakte, völlig normal.

Godmode
2005-06-14, 17:08:43
Perhaps the most interesting news is that G70 cards will be in stock and ready to ship from various online vendors starting at 6:01a.m. on the very same day (users in countries with earlier time zones will be able to get the cards accordingly).

http://www.cooltechzone.com/index.php?option=content&task=view&id=1406

Ich finde es blöd dass ATI und Nvidia nicht am gleichen Tag ihre Karten vorstellen, so muss man wieder recht lange warten bis man eine Kaufentscheidung treffen kann.

Godmode
2005-06-14, 17:09:57
Inwiefern?
Ich habe jedenfalls auch nicht mehr AA Optionen mit meiner 6600GT.
Oder spielst du auf die angeblich mit dem G70 eingeführten, neuen AA-Modi an?

Das hab ich auch geglaubt, aber wenn sie einen älteren Treiber verwenden könnte es ja sein, dass da die Modi noch nicht freigeschaltet sind.

seahawk
2005-06-14, 17:45:42
Komprimierungsartefakte, völlig normal.

Hast Du das Bild kopiert und einmal einige Filter drüber laufen lassen. (equilize etc.) ?

reunion
2005-06-14, 18:51:41
Hast Du das Bild kopiert und einmal einige Filter drüber laufen lassen. (equilize etc.) ?


Nein, aber wenn man selbst bei B3D (inkl. Dave Baumann) nichts gegen diese Werte einzuwenden hat, denke ich, dass diese auch richtig sind.

Alles was Dave zu sagen hat ist: Remember the limitations of 3DMark05...

http://www.beyond3d.com/forum/viewtopic.php?t=22047&postdays=0&postorder=asc&start=720

Vermutlich geht da dem G70 die Bandbreite oder die VS-Power aus.

Quasar
2005-06-14, 19:00:57
Das könnte auch durch einen älternen Treiber resultieren, oder?
Ja, könnte. Allerdings: Warum sollte man alte Treiber hernehmen, wenn es aktuelle schon gibt?

robbitop
2005-06-14, 19:06:58
7700Punkte kommen doch auch hin. NV40 +50% sollten so 7500 - 8000 Punkte sein. So what? Warum sind alle so überrascht?

reunion
2005-06-14, 19:11:34
7700Punkte kommen doch auch hin. NV40 +50% sollten so 7500 - 8000 Punkte sein. So what? Warum sind alle so überrascht?


Weil es schon Spekulationen gab, die von über 10K sprachen vielleicht. ;)

pF3NG
2005-06-14, 19:12:09
Also ich finde 7700 Pkts im 3dMark 2005 sind der Hammer. Wieso seid ihr alle so trarig? ;D

robbitop
2005-06-14, 19:21:01
Weil es schon Spekulationen gab, die von über 10K sprachen vielleicht. ;)
Ist doch aber von vorn herrein klar gewesen, dass das Schwachsinn sein muss. Für 10.000 hätte es selbst bei 6 Quads schon deutlich mehr Takt sein müssen. Da wären rund 700 MHz Coretakt bei NV40 artigen Pipes nötig gewesen.

Blaire
2005-06-14, 19:26:38
7700Punkte kommen doch auch hin. NV40 +50% sollten so 7500 - 8000 Punkte sein. So what? Warum sind alle so überrascht?

Wenn das stimmen sollte, dann würde 2x6800GT deutlich mehr Sinn machen als eine 7800GTX.
1. Schneller
2. Gleicher Preis

Kann mir nicht so recht vorstellen das eine 7800 GTX nur so wenige 3D Marks haben sollte , noch dazu da Nvidia weiss um deren Bedeutung.

reunion
2005-06-14, 19:32:31
Wenn das stimmen sollte, dann würde 2x6800GT deutlich mehr Sinn machen als eine 7800GTX.
1. Schneller
2. Gleicher Preis

Kann mir nicht so recht vorstellen das eine 7800 GTX nur so wenige 3D Marks haben sollte , noch dazu da Nvidia weiss um deren Bedeutung.


Wie robbitop schon sagte, mehr war nicht zu erwarten.
G70 hat 50% mehr Pipes bei nur minimal veränderter Chiptaktrate und Bandbreite.

robbitop
2005-06-14, 19:34:15
Wenn das stimmen sollte, dann würde 2x6800GT deutlich mehr Sinn machen als eine 7800GTX.
1. Schneller
2. Gleicher Preis

Kann mir nicht so recht vorstellen das eine 7800 GTX nur so wenige 3D Marks haben sollte , noch dazu da Nvidia weiss um deren Bedeutung.
Mehr ist halt derzeitig nicht drin. Wo kommt diese Erwartungshaltung her?
Eine Performanceverdopplung hatten wir doch gerade erst mit R420/NV40. Das gibts nur alle 2 Jahre. Ansonste gibts immer einen Refresh der rund 50% mehr Performance bringt. Das ist normal. Ich habe anhand dessen und der Specs kein großartig anderes Ergebnis erwartet.
Und klar ist eine 6800U SLI schneller als ein G70. Das wurde AFAIK von ASUS auf der CeBit schon gesagt, dass deren 6800SLI singleboard schneller ist als R520/G70.
Nur funktioniert SLI nicht immer und skalliert auch nicht 100%.
2x 6800U kosten derzeit rund 700EUR. Eine G70 wird rund 500EUR kosten, wenn sie verfügbar ist. Ich finde das normal.
Ähnlich wirds auch bei ATI aussehen IMO.
Leute die wirklich 32 Pipelines oder Leistungssprünge in Regionen von 100% erwarten, werden natürlich enttäuscht sein. Aber das war vorraussehbar.

Demirug
2005-06-14, 19:43:00
Wie robbitop schon sagte, mehr war nicht zu erwarten.
G70 hat 50% mehr Pipes bei nur minimal veränderter Chiptaktrate und Bandbreite.

So sicher?

Blaire
2005-06-14, 19:45:01
@robby: Der Zeitzyklus war dafür einfach zu groß. Nvidia hatte nach dem NV40 über ein ganzes Jahr Zeit was vernünftiges zu bringen. Ich halte die Werte für frei erfunden , das kann ich mir echt nicht vorstellen. Also 9000 oder höher hätte ich als normal empfunden aber unter 8000 ist schon fast peinlich.

http://www.kmshop.de/main_site/main.php?action=Product_Detail&ArtNr=9134&Shop=0

Hier gibts den ersten Preis nichts mit 500 €uro ... 612 €uro und das für ne Noname Karte wenn man so will.

pF3NG
2005-06-14, 19:46:20
Wenn das stimmen sollte, dann würde 2x6800GT deutlich mehr Sinn machen als eine 7800GTX.
1. Schneller
2. Gleicher Preis

Kann mir nicht so recht vorstellen das eine 7800 GTX nur so wenige 3D Marks haben sollte , noch dazu da Nvidia weiss um deren Bedeutung.

Vllt. ist sie wirklich zu stark Banbreitenlimitiert. Da aber 3dMark doch eigentlich Vertex-Lastig ist, muss die Bandbreitenlimitierung schon sehr stark sein was IMO Blödsinn ist

reunion
2005-06-14, 19:46:44
So sicher?


Naja, nachdem es inzwischen schon ein (vermutlich) offizielles nV-Dokument an die Öffentlichkeit geschafft hat, ja. ;)

Ich lasse mich natürlich gern positiv überraschen. =)

Demirug
2005-06-14, 19:51:16
Naja, nachdem es inzwischen schon ein (vermutlich) offizielles nV-Dokument an die Öffentlichkeit geschafft hat, ja. ;)

Ich lasse mich natürlich gern positiv überraschen. =)

Meinst du die Vorlage für die Schachtel? Da stand ja kaum etwas drauf.

reunion
2005-06-14, 19:51:48
http://www.kmshop.de/main_site/main.php?action=Product_Detail&ArtNr=9134&Shop=0

Hier gibts den ersten Preis nichts mit 500 €uro ... 612 €uro und das für ne Noname Karte wenn man so will.


Selbst hier wird weiter von 1400Mhz Speicher und 38.4GB/s Speicherbandbreite gesprochen, unglaublich.

robbitop
2005-06-14, 19:53:02
@robby: Der Zeitzyklus war dafür einfach zu groß. Nvidia hatte nach dem NV40 über ein ganzes Jahr Zeit was vernünftiges zu bringen. Ich halte die Werte für frei erfunden , das kann ich mir echt nicht vorstellen. Also 9000 oder höher hätte ich als normal empfunden aber unter 8000 ist schon fast peinlich.

http://www.kmshop.de/main_site/main.php?action=Product_Detail&ArtNr=9134&Shop=0

Hier gibts den ersten Preis nichts mit 500 €uro ... 612 €uro und das für ne Noname Karte wenn man so will.
NV40 Entwicklungszeit waren 2 Jahre. G70 Entwicklungszeit ca. 1 Jahr.

@Demi
spielst du darauf an, dass die Pipes evtl ein bisschen aufgebohrt worden sind oder etwas am Speichermanegement gedreht wurde?

Godmode
2005-06-14, 19:53:31
@robby: Der Zeitzyklus war dafür einfach zu groß. Nvidia hatte nach dem NV40 über ein ganzes Jahr Zeit was vernünftiges zu bringen. Ich halte die Werte für frei erfunden , das kann ich mir echt nicht vorstellen. Also 9000 oder höher hätte ich als normal empfunden aber unter 8000 ist schon fast peinlich.

http://www.kmshop.de/main_site/main.php?action=Product_Detail&ArtNr=9134&Shop=0

Hier gibts den ersten Preis nichts mit 500 €uro ... 612 €uro und das für ne Noname Karte wenn man so will.

Unter diesem Link wird wieder 700MHz Speicher verbaut, auf dem G70 Engineering-Sample Board war aber klar nur 600MHz Speicher drauf, also was soll das alles?

Auf dem Bild fehlt der Kühler der auf den Spannungswandlern sitzen sollte!

Edit: Vielleicht werden sie ber der GTX ja auch nicht so heiß wie bei der Ultra, aber jedenfalls ist auf dem PCB ein Platz für einen kleinen Kühlkörper vorgesehen wie man hier sehen kann:
http://www.tweaktown.com/popImg.php?img=computex05-g70spy_02l.jpg


NV40 Entwicklungszeit waren 2 Jahre. G70 Entwicklungszeit ca. 1 Jahr.

@Demi
spielst du darauf an, dass die Pipes evtl ein bisschen aufgebohrt worden sind oder etwas am Speichermanegement gedreht wurde?


Vielleicht weis er dass noch ein 90nm Part mit mehr MHz kommt (ca. 550) [spek mode]Ist auch in der PS3 drinnen und wird RSX genannt. Für die PC-Version natürlich einige Abänderungen, zb PCIe Interface.[/spek mode]

reunion
2005-06-14, 20:04:49
Meinst du die Vorlage für die Schachtel? Da stand ja kaum etwas drauf.

Natürlich weiß man dadurch nicht, was Chip intern verändert wurde.
Trotzdem scheinen die Eckdaten unumwerflich, was doch eine relativ präzise Performanceschätzung zulässt IMO.

Gast
2005-06-14, 20:11:22
Also ich finde 7700 Pkts im 3dMark 2005 sind der Hammer. Wieso seid ihr alle so trarig? ;D

hab mit ner x800pro 5000 punkte wenns stimmt wird der g70 nur ein lahmes update

Godmode
2005-06-14, 20:13:31
hab mit ner x800pro 5000 punkte wenns stimmt wird der g70 nur ein lahmes update

Vielleicht kommt ja wirklich noch eine Ultra Version.

Demirug
2005-06-14, 20:17:53
Was hängt ihr euch eigentlich so an diesen 3dMark Werten auf?

Ich verstehe ja das man jeden Krümel nimmt aber einem einzigen Ergebniss würde ich nicht so viel bedeutung beimessen.

Godmode
2005-06-14, 20:20:02
Was hängt ihr euch eigentlich so an diesen 3dMark Werten auf?

Ich verstehe ja das man jeden Krümel nimmt aber einem einzigen Ergebniss würde ich nicht so viel bedeutung beimessen.

Stimmt eigentlich, nur würde ich gerne wissen was da limitiert?

Edit: Vielleicht sind die 16 ROPs überfordert??

Edit2: Es wurde ja gesagt die G70 Pipes sind 50% schneller/effizienter dann noch 50% mehr Pipes gegenüber dem NV40 aber nur 16 ROPs

robbitop
2005-06-14, 20:33:09
Stimmt eigentlich, nur würde ich gerne wissen was da limitiert?
Vertexshading, Bandbreite bsw.

Coda
2005-06-14, 20:39:42
Edit: Vielleicht sind die 16 ROPs überfordert??Nein. Die laufen mit Speichertakt und sind somit für 256bit immer ausreichend.

Quasar
2005-06-14, 20:41:32
Nein. Die laufen mit Speichertakt und sind somit für 256bit immer ausreichend.
Ich glaube nicht, daß die mit Speichertakt laufen.

reunion
2005-06-14, 20:43:11
Stimmt eigentlich, nur würde ich gerne wissen was da limitiert?



Wenn man sich vor Augen hält, dass eine 6800U etwas über 5K erreicht, erscheinen die 7K7 des G70 als durchaus normal IMHO.

Natürlich könnte nV irgendetwas aufgebohrt haben, was bei 3dmark05 nicht zur Geltung kommt.

DrumDub
2005-06-14, 20:45:42
Ich glaube nicht, daß die mit Speichertakt laufen. ist aber beim nv40 so: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3057786#post3057786

Godmode
2005-06-14, 20:45:50
Wie schaut das aus mit den Pipes und den Pixelquads? Wir haben 24 Pipes wo jedes jeweils immer gleich 4 Pixel berechnet, oder? das wären dann 96. Die ROPs müssten dann auch immer gleich 4 Pixel nehmen können aber wenn da nur 16 verbaut sind könnten die nur 64 Pixel in den Framebuffer schreiben. Somit könnte man sagen wenn die Shader zu einfach wären(was ich beim Quark2k5 nicht glaube) limitieren die ROPs.

seahawk
2005-06-14, 20:52:22
Nein, aber wenn man selbst bei B3D (inkl. Dave Baumann) nichts gegen diese Werte einzuwenden hat, denke ich, dass diese auch richtig sind.

Alles was Dave zu sagen hat ist: Remember the limitations of 3DMark05...

http://www.beyond3d.com/forum/viewtopic.php?t=22047&postdays=0&postorder=asc&start=720

Vermutlich geht da dem G70 die Bandbreite oder die VS-Power aus.

Ich sage auch nur, dass das Bild Fake ist. :smile: Zu dem Wert sage ich momentan gar nichts.

Gast
2005-06-14, 21:08:04
Wie schaut das aus mit den Pipes und den Pixelquads? Wir haben 24 Pipes wo jedes jeweils immer gleich 4 Pixel berechnet, oder? das wären dann 96. Die ROPs müssten dann auch immer gleich 4 Pixel nehmen können aber wenn da nur 16 verbaut sind könnten die nur 64 Pixel in den Framebuffer schreiben. Somit könnte man sagen wenn die Shader zu einfach wären(was ich beim Quark2k5 nicht glaube) limitieren die ROPs.

es sind 6 quads á "4-pipes" also maximal 24pixel/chiptakt.

16 rop´s können 16 pixel/speichertakt schreiben (16x32bit=512bit, also 256bit DDR durch framebufferkompression bleibt evtl. noch etwas übrig, für texturen etc.) bzw. bei FSAA 32 subpixel pro speichertakt.

Xmas
2005-06-14, 21:08:29
Nein. Die laufen mit Speichertakt und sind somit für 256bit immer ausreichend.
Nicht immer. Zumindest die des NV40 sind es nicht.

Wie schaut das aus mit den Pipes und den Pixelquads? Wir haben 24 Pipes wo jedes jeweils immer gleich 4 Pixel berechnet, oder? das wären dann 96. Die ROPs müssten dann auch immer gleich 4 Pixel nehmen können aber wenn da nur 16 verbaut sind könnten die nur 64 Pixel in den Framebuffer schreiben. Somit könnte man sagen wenn die Shader zu einfach wären(was ich beim Quark2k5 nicht glaube) limitieren die ROPs.
Die Schlussfolgerung stimmt halbwegs, aber die Werte nicht.
Es gibt 6 Quad-Pipelines, welche man auch gern als 24 Pixel-Pipelines bezeichnet, d.h. es können pro Coretakt 24 Pixel berechnet werden. Die ROPs können nun 16 Pixel pro Speichertakt ausgeben.

24*430 = 10,32 GPixel/s
16*600 = 9.6 GPixel/s
Die ROP-Limitierung ist also recht gering, 600MHz Speichertakt vorausgesetzt.

Ronny145
2005-06-14, 21:09:39
Wenn man sich vor Augen hält, dass eine 6800U etwas über 5K erreicht, erscheinen die 7K7 des G70 als durchaus normal IMHO.

Natürlich könnte nV irgendetwas aufgebohrt haben, was bei 3dmark05 nicht zur Geltung kommt.


Eine 6800GT erreicht etwas über 5000 Punkte mit neuesten Treibern. Die Ultra schafft um die 5500 Punkte.

Coda
2005-06-14, 21:35:09
Nicht immer. Zumindest die des NV40 sind es nicht.Erläuterung?

vosmic
2005-06-14, 22:03:12
http://www.world-of-smilies.com/html/images/smilies/party/party038.gif
http://www.funcomputer.de/default.aspx?page=Produktdetails&do=17&go=3630

DrumDub
2005-06-14, 22:06:47
[
http://www.funcomputer.de/default.aspx?page=Produktdetails&do=17&go=3630

hmm... dort steht "1400/430". also doch 700mhz speichertakt? :confused:

reunion
2005-06-14, 22:07:57
http://www.funcomputer.de/default.aspx?page=Produktdetails&do=17&go=3630

Ab dem 23.06.2005 am Lager :eek:
Nicht schlecht nV.

vosmic
2005-06-14, 22:09:42
hmm... dort steht "1400/430". also doch 700mhz speichertakt? :confused:
Was ist den der Stand hier bzgl. Speichertakt ?

reunion
2005-06-14, 22:11:05
Was ist den der Stand hier bezgl. Speichertakt ?

700Mhz RAM-Takt und 38.4Gb/s Speicherbandbreite. X-D

Godmode
2005-06-14, 22:13:44
Ab dem 23.06.2005 am Lager :eek:
Nicht schlecht nV.

Ab dem 23.06.2005 am Lager / es kommen nur geringe Stückzahlen.

vosmic
2005-06-14, 22:15:15
700Mhz RAM-Takt und 38.4Gb/s Speicherbandbreite. X-D
Warum ist dann der gute DrumDub überrascht ???

DrumDub
2005-06-14, 22:16:37
Warum ist dann der gute DrumDub überrascht ??? weil du mit 700mhz bei nem 256bit interface 44,8gb/s bandreite hast.

Xmas
2005-06-14, 22:16:41
Erläuterung?
8 Pixel Color only bei 4xAA sind nur 256bit komprimiert. Ebenso 32 Z-only-Pixel. Aber das sind natürlich nur Randerscheinungen.

Gast
2005-06-14, 22:19:22
Ab dem 23.06.2005 am Lager :eek:
Nicht schlecht nV.

völlig unrealistisch und selbst wenn sie kaufbar wären kauft man sie sich nicht man abwartet was die konkurenz bringt

Gast
2005-06-14, 22:21:02
Ab dem 23.06.2005 am Lager :eek:
Nicht schlecht nV.
Bei Pixelview (http://www.prolink.com.tw/) wird diese Karte noch gar nicht genannt. Vielleicht gibt es erst ab Oktober Karten in ausreichenden Stückzahlen.
Allerdings kann man Pixelview nicht unbedingt vorwerfen, nur Schrott auf den Markt zu werfen.
http://www.prolink.com.tw/english/award.htm
600+ Euro ist dennoch sehr happig. Die Karten der großen Anbieter wird vielleicht noch empfindlich teurer sein.

Godmode
2005-06-14, 22:22:29
völlig unrealistisch und selbst wenn sie kaufbar wären kauft man sie sich nicht man abwartet was die konkurenz bringt

Wenn dir Karte recht schnell ist wird es sicher einige Leute geben die zuschlagen.

vosmic
2005-06-14, 22:22:58
weil du mit 700mhz bei nem 256bit interface 44,8gb/s bandreite hast.
Upps ja. Ist mir nicht aufgefallen.

reunion
2005-06-14, 22:23:23
Bei Pixelview (http://www.prolink.com.tw/) wird diese Karte noch gar nicht genannt.

Kein Wunder, da der verbaute Chip ja noch nichtmal vorgestellt wurde.

Gast
2005-06-14, 22:26:29
23.6 in D kaufbar...ähm am 22.6 werden die karten grad mal vorgestellt o.O

Quasar
2005-06-14, 22:30:39
hmm... dort steht "1400/430". also doch 700mhz speichertakt? :confused:
Vielleicht bieten unterschiedliche Boardpartner unterschiedliche Taktraten an?
Daß nV sich mit der Verfügbarkeit nicht global an möglicherweise knappes 700MHz-RAM binden will, ist nach der letztjährigen Verfügbarkeitsschlappe durchaus löblich und verständlich, wenn sie selbst davon ausgehen, genügend Chips liefern zu können.

Es gibt aber noch eine andere Erklärung für "700" MHz. *g*

Demirug
2005-06-14, 22:31:53
700Mhz RAM-Takt und 38.4Gb/s Speicherbandbreite. X-D

Wenn man damit ein bischen rumrechnet wird sogar ein Schuh daraus.

up¦²
2005-06-14, 22:34:51
http://www.tweakers.net/ext/i.dsp/1118769538.jpg

http://www.hardspell.com/pic/2005/6/14/dec77177-5528-4cbd-b2e1-6c98235133b2.jpg


Quelle:
http://www.hardspell.com/news/showcont.asp?news_id=14305

Komm grad heim, ich hab den Überblick im Tread verloren, falls schon bekannt, sorry :wink:

Gast
2005-06-14, 22:35:16
wenn die im juni kaufbar wären würde es schon längst benchmarks aus irgendwelchen quellen geben,viele fotos usw usw
die karten wären in tw usw schon längst im handel sein

wer hat noch mehr :D

robbitop
2005-06-14, 22:35:23
Wenn man damit ein bischen rumrechnet wird sogar ein Schuh daraus.
Kannst du mal etwas präziser werden? Und warum schmeisst du in letzter Zeit immer nur mit kleinen unbrauchbaren Wortbrocken um dich? Wie wäre es mal mit Erläuterungen in deinen Beiträgen statt nur Wortfetzen? (ksrythx)

Coda
2005-06-14, 22:37:40
Er orakelt halt ein wenig um die NDA rum, ich find's nicht schlimm ;)

Gast
2005-06-14, 22:52:02
funcomputer bekommt geringe stückzahlen....ja 2 austellungsstücke und eine baut er sich gleich ein :D

Gast
2005-06-14, 22:53:19
Kannst du mal etwas präziser werden? Und warum schmeisst du in letzter Zeit immer nur mit kleinen unbrauchbaren Wortbrocken um dich? Wie wäre es mal mit Erläuterungen in deinen Beiträgen statt nur Wortfetzen? (ksrythx)
Sollte wohl klar sein, dass er nicht mehr sagen darf.

Kf

Gast
2005-06-14, 22:56:39
http://www.tweakers.net/ext/i.dsp/1118769538.jpg

http://www.hardspell.com/pic/2005/6/14/dec77177-5528-4cbd-b2e1-6c98235133b2.jpg


Quelle:
http://www.hardspell.com/news/showcont.asp?news_id=14305

Komm grad heim, ich hab den Überblick im Tread verloren, falls schon bekannt, sorry :wink:

zum vergleich wäre es hilfreich zu wissen, wie die restliche konfiguration dieses pcs aussieht. generell find ich den score aber ziemlich schwach, da ne 6800ultra bereits über 6xxx scores erreicht...

vosmic
2005-06-14, 22:56:51
Wenn man damit ein bischen rumrechnet wird sogar ein Schuh daraus.

Ich hab mal ein bissl in den Datenblättern von Samsung gestöbert und da ist mir aufgefallen, das sich die GDDR3 Modelle (1,4;1,6;2.0ns Speicher) nur durch die Speichertimings unterscheiden. Je "schneller" zertifiziert desto langsamer die Timings. In welcher Art und Weise wirkt sich das den dann auf die Bandbreite aus? (Also die Timings)
Oder hab ich da jetzt gerade en Brett vorm Kopf? Wäre über ein bissl Nachhilfe dankbar. :)

MfG

Gast
2005-06-14, 23:00:46
Oder hab ich da jetzt gerade en Brett vorm Kopf?

MfG

korrekt

robbitop
2005-06-14, 23:03:59
Sollte wohl klar sein, dass er nicht mehr sagen darf.

Kf
Ich wollte damit nur sagen, dass es mich langsam stört. Ich kann mit diesen Brocken wirklich gar nichts anfangen und viele anderen hier auch nicht. Vieleicht ein oder zwei Leute. Alle anderen stehen da und verstehen gar nichts, weil nicht wirklich was gesagt wurde. Wäre doch nett, wenn es jemand ausführen würde, der es versteht, so dass alle teilhaben können und Demirug nicht sein NDA (sofern er eines unterzeichnet hat) brechen muss.

Gast
2005-06-14, 23:09:18
zum vergleich wäre es hilfreich zu wissen, wie die restliche konfiguration dieses pcs aussieht. generell find ich den score aber ziemlich schwach, da ne 6800ultra bereits über 6xxx scores erreicht...
Auf jedenfall. Falls die Punkte wirklich für den G70 zutreffen, wäre das enttäuschend, auch wenn 3DMark nicht das Maß der Dinge ist.

Konsolenfreund

deekey777
2005-06-14, 23:09:46
Ich wollte damit nur sagen, dass es mich langsam stört. Ich kann mit diesen Brocken wirklich gar nichts anfangen und viele anderen hier auch nicht. Vieleicht ein oder zwei Leute. Alle anderen stehen da und verstehen gar nichts, weil nicht wirklich was gesagt wurde. Wäre doch nett, wenn es jemand ausführen würde, der es versteht, so dass alle teilhaben können und Demirug nicht sein NDA (sofern er eines unterzeichnet hat) brechen muss.

Gerade läuft "Monk" auf RTL, ist sehr entspannend. ;)

Bekommt Fun Computer eigentlich Ärger?

LovesuckZ
2005-06-14, 23:10:36
Bekommt Fun Computer eigentlich Ärger?

Haben Sie ein NDA unterschrieben? ;)

Ronny145
2005-06-14, 23:11:00
zum vergleich wäre es hilfreich zu wissen, wie die restliche konfiguration dieses pcs aussieht. generell find ich den score aber ziemlich schwach, da ne 6800ultra bereits über 6xxx scores erreicht...


Beim 3dmark05 spielt das restliche System kaum eine Rolle.

deekey777
2005-06-14, 23:17:24
Haben Sie ein NDA unterschrieben? ;)

Wollen wir nicht lieber weiterhin dutzen? ;)

Eigentlich kann man das Ganze einfach vertraglich regeln, sprich ohne ein NDA (wobei ein NDA auch ein Vertrag ist).

ähhh? Seine Meinung kann man also nicht mehr kundtun? :|
RTL ist btw nicht so mein Sender ;)

Die eine Woche werden wir schon überleben, wobei dieses Mal der Eindruck besteht, daß keiner was geheim halten will: Es wird ein stinknormaler Launch - wie jeden Tag. :biggrin:

mapel110
2005-06-14, 23:20:02
Auf jedenfall. Falls die Punkte wirklich für den G70 zutreffen, wäre das enttäuschend, auch wenn 3DMark nicht das Maß der Dinge ist.

Konsolenfreund
Ich lebe schon seit einem dreivierteil Jahr mit einem niedrigeren 3DMark05-Wert, als ihn die Konkurrenz bietet; und das ziemlich gut. =)
Beim 3dmark05 spielt das restliche System kaum eine Rolle.
Irgendwann ist auch dieser totsicher ohne Ende CPU-Limitiert.

LovesuckZ
2005-06-14, 23:20:22
Wollen wir nicht lieber weiterhin dutzen? ;)

Ich weiß nicht ;)

Eigentlich kann man das Ganze einfach vertraglich regeln, sprich ohne ein NDA (wobei ein NDA auch ein Vertrag ist).

Wenn es ums Geld geht, hilft dir nur die Unterschrift weiter. Oder Zeugen. Ich bezweifel, dass Pixelview sich diesem Umstand macht, jeden einzelnen laden abzuklappern.

Ronny145
2005-06-14, 23:33:00
Irgendwann ist auch dieser totsicher ohne Ende CPU-Limitiert.

lol, wann denn? In 5 Jahren? Hier ging es um ein jetziges System. Ein FX55 2,6Ghz ist 50 Punkte schneller als ein A64 2,0Ghz. Macht ja sehr viel aus :rolleyes:

mapel110
2005-06-14, 23:34:23
lol, wann denn? In 5 Jahren? Hier ging es um ein jetziges System. Ein FX55 2,6Ghz ist 50 Punkte schneller als ein A64 2,0Ghz. Macht ja sehr viel aus :rolleyes:
Kommt auf die Grafikkarte an.

Ronny145
2005-06-14, 23:37:00
Kommt auf die Grafikkarte an.


Mein Bespiel war nur mit einer 6800GT. Mit dem G70 wird der Test CPU lastig werden, aha. Der 3dmark05 bleibt ein Grafikkarten-Benchmark.
Oder hier mit ner 6800 Ultra:
http://techreport.com/reviews/2005q2/athlon64-venice/index.x?pg=5
Da ist ja überhaupt kein Unterschied.

Ailuros
2005-06-15, 00:38:59
Was hängt ihr euch eigentlich so an diesen 3dMark Werten auf?

Ich verstehe ja das man jeden Krümel nimmt aber einem einzigen Ergebniss würde ich nicht so viel bedeutung beimessen.

Genau.

-----------------------------------------------

Jegliche Indizien uebrigens die ueber groessere Leistungssteigerungen im Vergleich zu NV40 sprechen, sind nicht mit synthetischem Quark ala 3dmark05' gemeint.

Die Rechenkraft auf G70 hat sich wohl nicht nur um 50% maximal erhoeht.

Ailuros
2005-06-15, 00:43:05
Ich wollte damit nur sagen, dass es mich langsam stört. Ich kann mit diesen Brocken wirklich gar nichts anfangen und viele anderen hier auch nicht. Vieleicht ein oder zwei Leute. Alle anderen stehen da und verstehen gar nichts, weil nicht wirklich was gesagt wurde. Wäre doch nett, wenn es jemand ausführen würde, der es versteht, so dass alle teilhaben können und Demirug nicht sein NDA (sofern er eines unterzeichnet hat) brechen muss.

Zwischen den Zeilen lesen sollte fuer Euch nicht schwer sein; fuer Fuad dann eben schon :P

robbitop
2005-06-15, 01:09:15
Zwischen den Zeilen lesen sollte fuer Euch nicht schwer sein; fuer Fuad dann eben schon :P
Ich habe leider nicht wirklich etwas zwischen den Zeilen gefunden ;)
Hilf mir auf die Sprünge.

seahawk
2005-06-15, 07:43:50
Ich habe leider nicht wirklich etwas zwischen den Zeilen gefunden ;)
Hilf mir auf die Sprünge.

Welche Teile des Chips werden bei 3DMark über normal beansprucht ? Welche hat NV nicht verändert ? ;)
Die Besonderheiten des 3DMarks sind der Schlüssel.

Quasar
2005-06-15, 08:56:07
Die Rechenkraft auf G70 hat sich wohl nicht nur um 50% maximal erhoeht.
Nein, maximal erhöht sich sowas bei neuen Chips doch immer um das siebenfache, oder? *gg*

Aber auch hier: Es kommt ganz auf die Rechentricks an, die man nutzt. Es gab ja auch mal die Beispielrechnung, daß der nV35 mehr Shaderpower hatte, als die R9800 Pro - wenn man maximale Auslastung und nur Vec4-Ops annahm.

robbitop
2005-06-15, 09:00:31
Es könnte sein, dass die ALUs um ein paar Funktionen aufgebohrt worden sind, dazu vieleicht ein paar mehr temporäre Register, breitere Datenpfade für HDR und etwas bessere Crossbarlogik.
Aber keine Ahnung, ob NV wirklich was aufgebohrt hat oder nur dupliziert hat.

aths
2005-06-15, 09:05:01
Es könnte sein, dass die ALUs um ein paar Funktionen aufgebohrt worden sind, dazu vieleicht ein paar mehr temporäre Register, breitere Datenpfade für HDR und etwas bessere Crossbarlogik.Ja, das waren meine Gedanken. Einen Technik-Artikel zum G70 kann ich übrigens nicht versprechen.

Winter[Raven]
2005-06-15, 09:11:41
Was hängt ihr euch eigentlich so an diesen 3dMark Werten auf?

Ich verstehe ja das man jeden Krümel nimmt aber einem einzigen Ergebniss würde ich nicht so viel bedeutung beimessen.

Verstehe ich auch nichts, man will die Performance aus einem einzellnen und dazu auch noch sowas von Realitätsfremden Bench ablesen...

//EDIT:

3DMurks gehört verboten, beide Hersteller haben soviele Optimierungen eingebaut, da kann man einfach nichts mehr vergleichen... ;(

robbitop
2005-06-15, 09:11:55
Ja, das waren meine Gedanken. Einen Technik-Artikel zum G70 kann ich übrigens nicht versprechen.
Die Ideen standen schon (z.T. auch implizit) in deinen NV40 Artikel. Ja.

Gast
2005-06-15, 09:16:28
Wie werden eigentlich die jetzigen Spitzenmodelle weitergeführt oder fallen die weg? Ich kann es mir zumindest nicht vorstellen, da es ja hieß, dass nur die 7800GTX SLI fähig sei.

Wenn sie weitergeführt werden, in 110 oder 130nm?

Quasar
2005-06-15, 09:34:58
']Verstehe ich auch nichts, man will die Performance aus einem einzellnen und dazu auch noch sowas von Realitätsfremden Bench ablesen...

//EDIT:

3DMurks gehört verboten, beide Hersteller haben soviele Optimierungen eingebaut, da kann man einfach nichts mehr vergleichen... ;(
Nein, der Murks ist interessant und muss bleiben.

Er hat einfach das Problem, was alle Einzelbenches haben: Er sagt nur aus, wie schnell eine bestimmte Grafikkarte im Murks ist. (und geht damit am selbstgesteckten Ziel der Entwickler vorbei)

Dieselbe Realitätsferne könntest du Doom³ oder Half-Life² vorwerfen - in Fall A wären nVs die eindeutig "besten" Grafikkarten, in Fall B eben die ATis. Beides stimmt in dieser Absolutheit nicht.

Quasar
2005-06-15, 09:35:49
Aber keine Ahnung, ob NV wirklich was aufgebohrt hat oder nur dupliziert hat.
Vielleicht haben sie ja beides gemacht? Und noch mehr.

Godmode
2005-06-15, 10:01:49
Genau.
Die Rechenkraft auf G70 hat sich wohl nicht nur um 50% maximal erhoeht.

Du meinst hier mit Rechenkraft die Shaderpower? Ja das müsste eigentlich schon klar sein, weil wenn man 50% mehr Pipes hat und noch Effizienzsteigerungen, dann kann das schon 50 % Mehrleistung sein. Aber ich denke diese Leistung geht eher in Artithmetikleistung, weil für Texturen glaube ich ist zuwenige Speicherbandbreite da! IMHO

Hauwech
2005-06-15, 10:10:41
Es sei denn, sie haben bessere Bandbrot schonende Massnahmen eingebaut.

Godmode
2005-06-15, 10:59:49
http://www.theinquirer.net/?article=23951

Jetzt schreibt er wieder was von ner 7800 Ultra?

dildo4u
2005-06-15, 11:02:38
http://www.theinquirer.net/?article=23951

Jetzt schreibt er wieder was von ner 7800 Ultra?
100-110 Watt geht ja noch Müsste doch eingentlich auch mit AGP und 2Stromanschlüssen machbar sein.

Quasar
2005-06-15, 11:04:22
Das tut er doch immer - er schreibt einfach ALLES, was irgendwie spekuliert wird und sagt hinterher: "Seht, ich habe es doch schon vorher gesagt".
Fuad-Masche halt. ;(

Diesmal klingen seine Angaben aber durchaus realistisch, IMO.

Quasar
2005-06-15, 11:04:46
100-110 Watt geht ja noch Müsste doch eingentlich auch mit AGP und 2Stromanschlüssen machbar sein.
Die 6800u war von nV mit bis zu 130W angegeben. ;)

ShadowXX
2005-06-15, 11:21:04
Das tut er doch immer - er schreibt einfach ALLES, was irgendwie spekuliert wird und sagt hinterher: "Seht, ich habe es doch schon vorher gesagt".
Fuad-Masche halt. ;(

Diesmal klingen seine Angaben aber durchaus realistisch, IMO.

Ja, es sind endlich nur noch 600MHz-Speicher.....

Takt und Pipeanzahl sind altbekannt.......was mich allerdings wundert sind die 8 VertexShader.

Das mit "nur" 16Rops pfiffen ja auch schon alle Spatzen von den Dächern.

Das letzte was ich im Forum gelesen hatte, war das viele davon ausgingen, das er wie der nv40 nur 6VS haben soll?

Aber egal....die Specs die Fuad da nennt sind durchaus realistsich und mich würde es nicht Wundern, wenn nV genau diese am 22.06. nennt.

vosmic
2005-06-15, 11:58:34
http://www.kmshop.de/main_site/main.php?action=Product_Detail&ArtNr=9134&Shop=0
Noch ein Shop und mit 700Mhz

seahawk
2005-06-15, 12:29:21
Schnell ist der Fuad aber nicht mehr.

Ailuros
2005-06-15, 12:31:08
Ja, es sind endlich nur noch 600MHz-Speicher.....

Takt und Pipeanzahl sind altbekannt.......was mich allerdings wundert sind die 8 VertexShader.

Das mit "nur" 16Rops pfiffen ja auch schon alle Spatzen von den Dächern.

Das letzte was ich im Forum gelesen hatte, war das viele davon ausgingen, das er wie der nv40 nur 6VS haben soll?

Aber egal....die Specs die Fuad da nennt sind durchaus realistsich und mich würde es nicht Wundern, wenn nV genau diese am 22.06. nennt.


Was wundert Dich an den VS? Die geleakten slides sprachen von 860MTris/sec.

NV40 = 6*400=2400/4 = 600MTris/s
G70 = 8*430=3440/4 = 860MTris/s

Such die Datenbank durch; ich spekulierte stets auf 110nm 6quads/8VS und einer Taktrate von =/>400MHz.

Du meinst hier mit Rechenkraft die Shaderpower? Ja das müsste eigentlich schon klar sein, weil wenn man 50% mehr Pipes hat und noch Effizienzsteigerungen, dann kann das schon 50 % Mehrleistung sein. Aber ich denke diese Leistung geht eher in Artithmetikleistung, weil für Texturen glaube ich ist zuwenige Speicherbandbreite da! IMHO

Sollte wohl klar sein dass ich arithmetik meinte. Es schert sich sowieso keiner mehr ueber single-texturing und bei multitexturing werden ja selten mehr als 6-layers (eher quad texturing fuer die Mehrzahl) heute angewendet und so schnell wird sich das auch nicht aendern.

NV40 = 6400MPixels - quad texturing = 1600MPixels maximal

G70 = 10320MPixels - quad texturing = 2580MPixels maximal

ShadowXX
2005-06-15, 13:18:50
Was wundert Dich an den VS? Die geleakten slides sprachen von 860MTris/sec.

NV40 = 6*400=2400/4 = 600MTris/s
G70 = 8*430=3440/4 = 860MTris/s

Such die Datenbank durch; ich spekulierte stets auf 110nm 6quads/8VS und einer Taktrate von =/>400MHz.


Du hast schon recht....ich war halt nur der Meinung gewesen, das irgendjemand mal 6VS sagte und alle "nickten" bzw. kein widerspruch kam.

Aber da hab ich wohl entweder was im Kontext durcheinander gebracht oder es wahr schlicht eine falsche Erinnerug.

Ich bin jetzt allerdings erst mal auf unabhänige Benches mit möglichst vielen Games gespannt....vorher kann man sowieso nix verbindliches über die Leistung des G70 sagen.

Gast
2005-06-15, 13:23:50
Schnell ist der Fuad aber nicht mehr.

Liegt wahrscheinlich an der 'neuen' Qualitätskontrolle für seine Meldungen ;D

reunion
2005-06-15, 13:29:37
http://www.the-inquirer.net/images/articles/luna.jpg

NVIDIA HAS a new graphic babe called Luna.

http://www.the-inquirer.net/?article=23959

Wenig beeindruckend IMHO.

dildo4u
2005-06-15, 13:32:24
Die Presentaion auf der PS3 Konferenz mit dem demo war echt schon ganz nett um sieh herrum waren noch 3 Monsten wo man durchsichtige Haut und ein Skelettsystem darunter simulierte.

ShadowXX
2005-06-15, 13:34:28
http://www.the-inquirer.net/images/articles/luna.jpg

NVIDIA HAS a new graphic babe called Luna.

http://www.the-inquirer.net/?article=23959

Wenig beeindruckend IMHO.

Das besondere scheinen wohl wieder die Haare zu sein....zumindest auf dem Shot sehen diese IMHO besser aus als bei Nalu.

seahawk
2005-06-15, 13:50:40
http://www.the-inquirer.net/images/articles/luna.jpg

NVIDIA HAS a new graphic babe called Luna.

http://www.the-inquirer.net/?article=23959

Wenig beeindruckend IMHO.

Muss man in Bewegung sehen.

Quasar
2005-06-15, 13:51:34
[]http://www.the-inquirer.net/images/articles/luna.jpg[]

NVIDIA HAS a new graphic babe called Luna.

...ja, seit der PS3-Vorstellung. :uclap: Toll, Fudo...

Diskutator
2005-06-15, 13:55:26
Auf jedenfall. Falls die Punkte wirklich für den G70 zutreffen, wäre das enttäuschend, auch wenn 3DMark nicht das Maß der Dinge ist.

Konsolenfreund

Lieber Konsolenfreund,

Wenn ATI oder NVIDIA es schaffen, mit einer Karte über 7.000 Pkt. zu kommen und das bei einem Design welches ohne Kühlschrank kommt, wäre das sehr beeindruckend.

Ich erwarte auf gar keinen Fall mehr! Eher weniger bei beiden, weniger als 8.000pkt. mein Tip 7.500 ! :|

Demirug
2005-06-15, 13:56:40
Das besondere scheinen wohl wieder die Haare zu sein....zumindest auf dem Shot sehen diese IMHO besser aus als bei Nalu.

Casablanca, das falsche aber immer wieder verwendete Zitat soll dir den Weg zeigen.

*scnr*

Godmode
2005-06-15, 13:56:43
Nvidia also has some fat biker boy

hätte nicht geglaubt dass sie den Fettsack wirklich nehmen :wink:

Quasar
2005-06-15, 13:58:36
Casablanca, das falsche aber immer wieder verwendete Zitat soll dir den Weg zeigen.

*scnr*
Sagt Humphrey das denn im Original nicht?

dildo4u
2005-06-15, 13:58:40
Hier mal ein movie der G70/RSX Techemo http://web115.silverline-s15.de/demos/tech_demo_nvidia_fuer_ps3.rar

Demirug
2005-06-15, 14:00:06
Sagt Humprhey das denn im Original nicht?

Nein, auch im Original sagt er das nicht.

aths
2005-06-15, 14:00:32
Die Ideen standen schon (z.T. auch implizit) in deinen NV40 Artikel. Ja.Ja, auch das hatte ich im Chat erwähnt.

Quasar
2005-06-15, 14:03:18
Nein, auch im Original sagt er das nicht.
Was sagt er denn dann?

'Play it again, Sam'?

aths
2005-06-15, 14:05:34
Wie werden eigentlich die jetzigen Spitzenmodelle weitergeführt oder fallen die weg? Ich kann es mir zumindest nicht vorstellen, da es ja hieß, dass nur die 7800GTX SLI fähig sei.

Wenn sie weitergeführt werden, in 110 oder 130nm?So lange die 6800 von den Boardherstellern noch nachgefragt wird, und das zu einem Preis der NV genehm ist, wird der wohl weiter produziert. Selbst wenn es über Nacht einen Produktionsstop gibt, ehe die Lager geräumt sind, das dauert wohl noch ein Weilchen.

Demirug
2005-06-15, 14:07:57
Was sagt er denn dann?

'Play it again, Sam'?

Das andere falsche Zitat. Wie kommt man von Luna auf Sam?

Quasar
2005-06-15, 14:10:42
Das andere falsche Zitat. Wie kommt man von Luna auf Sam?
Nein, ich meinte schon das, was zu Luna passt. Aber ein anderes als "Play it again, Sam" fiel mir aus Casablanca nicht ein.

Sonst: http://www.oppisworld.de/filme/zitate.html

Demirug
2005-06-15, 14:12:15
Nein, ich meinte schon das, was zu Luna passt. Aber ein anderes als "Play it again, Sam" fiel mir aus Casablanca nicht ein.

Sonst: http://www.oppisworld.de/filme/zitate.html

http://lexikon.freenet.de/Casablanca_(Film)

robbitop
2005-06-15, 14:19:38
Ja, auch das hatte ich im Chat erwähnt.
Es gibt genug Dinge die ich auch schon vorher so wusste. Nur weil du sie wiederholst, habe ich sie nicht automatisch immer von dir :|
Siehe DXTC ;)

ShadowXX
2005-06-15, 14:19:55
http://lexikon.freenet.de/Casablanca_(Film)

"Schau mir in die Augen, kleines"??

Das richtige Originalzitat von "play it again, sam" ist übrigens "Play it, Sam. Play 'As Time Goes By.'"

aths
2005-06-15, 14:20:51
Du meinst hier mit Rechenkraft die Shaderpower? Ja das müsste eigentlich schon klar sein, weil wenn man 50% mehr Pipes hat und noch Effizienzsteigerungen, dann kann das schon 50 % Mehrleistung sein. Aber ich denke diese Leistung geht eher in Artithmetikleistung, weil für Texturen glaube ich ist zuwenige Speicherbandbreite da! IMHODas hängt davon ab, ob komprimierte Texturen genutzt werden oder nicht. Bei Nutzung DXT1-komprimierter Texturen sehe ich keine Bandbreiten-Probleme.

aths
2005-06-15, 14:21:38
Es gibt genug Dinge die ich auch schon vorher so wusste. Nur weil du sie wiederholst, habe ich sie nicht automatisch immer von dir :|
Siehe DXTC ;)Was ist mit DXTC?

Gast
2005-06-15, 14:28:12
http://www.the-inquirer.net/images/articles/luna.jpg

NVIDIA HAS a new graphic babe called Luna.

http://www.the-inquirer.net/?article=23959

Wenig beeindruckend IMHO.
Also das Video sieht sehr nice aus. Die Augen und die gesamte Mimik wirken einfach hyperealistisch. :)

Konsolenfreund

ShadowXX
2005-06-15, 14:29:59
Also das Video sieht sehr nice aus. Die Augen und die gesamte Mimik wirken einfach hyperealistisch. :)

Konsolenfreund

Also wohl wirklich "Schau mir in die Augen kleines"....

Gast
2005-06-15, 14:33:40
Also wohl wirklich "Schau mir in die Augen kleines"....
Ja, definitiv meinte Demi das Zitat. ;)

Konsolenfreund

DrumDub
2005-06-15, 16:15:05
Also das Video sieht sehr nice aus. Die Augen und die gesamte Mimik wirken einfach hyperealistisch. :)

Konsolenfreund ich find die transluzenz der viecher sehr geil. :D

Gast
2005-06-15, 16:19:39
ich find die transluzenz der viecher sehr geil. :D
Definitv. Sieht so richtig schön organisch aus. Die UE3 Engine bringt Transluzenz ja auch richtig Ingame. Die Haut-Flügel der großen Viecher sind auch transluzent. :)

Konsolenfreund

Godmode
2005-06-15, 17:45:33
Ja stimmt das mit den Fiechern sieht super aus, wie wenn man selber mit ner Taschenlampe auf die Rückseite der Finger leuchet, oder auf die Wange und den Mund aufmacht.

Das grüne Licht am Anfang sieht auch super aus, und natürlich die Liedbewegung.

Nur was soll das Ganze darstellen?

Edit:

Eine Frage noch: wurde dieses Vid wirklich bei der PS3 Vorstellung gezeigt, weil man davon nie was gesehen hat?

Hellfire-Torrod
2005-06-15, 18:21:37
Eine Frage noch: wurde dieses Vid wirklich bei der PS3 Vorstellung gezeigt, weil man davon nie was gesehen hat?

Ja, als abschluss des NV statements zum RSX. Davor gabs auch eine UT2007 Präsentation usw. Hab die komplette präsentation auf der Platte :cool:

dildo4u
2005-06-15, 18:22:28
Eine Frage noch: wurde dieses Vid wirklich bei der PS3 Vorstellung gezeigt, weil man davon nie was gesehen hat?
Jap must dir mal die Komplette Pressekonferenz angucken gibts z.B hier

http://www.gamespot.com/e3/e3live.html

Hellfire-Torrod
2005-06-15, 19:24:55
Wird der G70 wie der RSX eigendlich auch in 128bit rendern? oder ist das bei desktopchips noch unkonventionell?

Quasar
2005-06-15, 19:25:57
Das geht seit etwa zwei Jahren völlig problemlos bei allen GeForceFX (nur halt bissi langsam).

Godmode
2005-06-15, 19:45:39
Wird der G70 wie der RSX eigendlich auch in 128bit rendern? oder ist das bei desktopchips noch unkonventionell?

Ich glaube RSX und G70 werden "ziemlich" gleich sein von der Technik her.

Hellfire-Torrod
2005-06-15, 19:53:21
Ich glaube RSX und G70 werden "ziemlich" gleich sein von der Technik her.

Der RSX pralt ja damit, HDR durch 128bit noch präziser darzustellen. Aktuell rechnen die GeForce karten ja mit 32 bit und bisher waren die sprünge nicht so oft. SInd 128 Bit daher realistisch? das kostet doch mit sicherheit einiges an performance wenn immer mit 128 bit gerendert wird. Braucht man auf dem PC schon diese HD technik die bei Konsolen im kommen ist?

Quasar
2005-06-15, 20:02:38
GeForces können mit FP32 rechnen. Pro Kanal.
Üblicherweise hat "Grafik" vier Kanäle: RGB und A.

4x32= ?

Freunde, es ist NUR Marketing!!

ShadowXX
2005-06-15, 20:08:48
GeForces können mit FP32 rechnen. Pro Kanal.
Üblicherweise hat "Grafik" vier Kanäle: RGB und A.

4x32= ?

Freunde, es ist NUR Marketing!!

Ausserdem hilft es manchmal 2 Seiten im Thread zurückzublättern...da hatte ich Gaestle das gleiche schon mal "erklärt".

Coda
2005-06-15, 20:24:10
Denke auch dass die 7000-8000 gut hinkommen. Die "Generation" ist ja eher ein Refresh. Ich denke auch das R520 nicht viel schneller ist (auch wenn es toll wäre).

Gast
2005-06-15, 20:29:30
Denke auch dass die 7000-8000 gut hinkommen. Die "Generation" ist ja eher ein Refresh. Ich denke auch das R520 nicht viel schneller ist (auch wenn es toll wäre).
Wenn der R520 nun 10k schaffen würde...
Würdest du das als deutlich bezeichnen?

Godmode
2005-06-15, 20:30:16
Es müsste möglich sein in einen FP128 Framebuffer zu rendern, dann wäre das richtiges HDR. FP64 so wie jetzt ist, ist ja nur MDR laut aths Artikel.

Ich weis aber nicht wirklich ob hier 128 Bit Rendering - was ja mit NV30 angepriesen wurde - gemeint ist, oder ein FP128 Framebuffer gemeint ist, habe das ganze nicht verfolgt.

Bei einem FP128 Framebuffer ist halt das große Problem die Bandbreite, die ja bei FP64 schon schreit.

DrumDub
2005-06-15, 20:33:15
Bei einem FP128 Framebuffer ist halt das große Problem die Bandbreite, die ja bei FP64 schon schreit. exakt. deshalb wird das wohl auch keiner so schnell implementieren.

Demirug
2005-06-15, 20:34:31
Denke auch dass die 7000-8000 gut hinkommen. Die "Generation" ist ja eher ein Refresh. Ich denke auch das R520 nicht viel schneller ist (auch wenn es toll wäre).

IMHO wird der R520 den G70 beim 3DMark (default) schlagen. Was aber nichts über die Leistung in echten Spielen aussagt.

reunion
2005-06-15, 20:36:44
Was aber nichts über die Leistung in echten Spielen aussagt.


So würde ich das nicht sagen.

Quasar
2005-06-15, 20:37:55
Es müsste möglich sein in einen FP128 Framebuffer zu rendern, dann wäre das richtiges HDR. FP64 so wie jetzt ist, ist ja nur MDR laut aths Artikel.

Ich weis aber nicht wirklich ob hier 128 Bit Rendering - was ja mit NV30 angepriesen wurde - gemeint ist, oder ein FP128 Framebuffer gemeint ist, habe das ganze nicht verfolgt.

Bei einem FP128 Framebuffer ist halt das große Problem die Bandbreite, die ja bei FP64 schon schreit.
Merke:
Wenn Marketing etwas wegläßt, steckt da mit Sicherheit Absicht dahinter.

Also:
Immer vom schlimmsten Fall ausgehen. :)

Quasar
2005-06-15, 20:39:17
So würde ich das nicht sagen.
Begründung?

Welche Games sind ähnlich limitiert, wie der 3DMark05 - und rendern durchgehend in einer 2048²-Schattentextur?

Gast
2005-06-15, 20:41:14
IMHO wird der R520 den G70 beim 3DMark (default) schlagen. Was aber nichts über die Leistung in echten Spielen aussagt.
Das ist jetzt aber weit hergeholt, findest Du nicht?
Es ist doch bis jetzt so, dass ATI meistens in Spielen schneller ist, auch wenn in den Benchmarks Nvidia teilweise mithalten kann...

Quasar
2005-06-15, 20:44:26
Das ist jetzt aber weit hergeholt, findest Du nicht?
Es ist doch bis jetzt so, dass ATI meistens in Spielen schneller ist, auch wenn in den Benchmarks Nvidia teilweise mithalten kann...
Wieso?
Jetzt muss ATi zusätzlich zur Geschwindigkeitssteigerung auch einen ziemlichen Sprung in Sachen Features hinlegen - und man wird sich ja nicht die Blöße geben wollen, diese alle nur so schlecht zu implementieren, daß es grad mal für die WHQL-Tests reicht, nachdem man zuvor die FX bsw. als "DX9-Entschleuniger" oder das dynamic branching des nV40 als Performancekrücke bezeichnet hat.

Von daher sind diesmal IMO die Karten neu gemischt und man kann nicht einfach mehr von der Vergangenheit auf die Zukunft schließen.

Vielleicht gelingt es ATi ja, Technik und Leistung explodieren zu lassen - vielleicht aber auch nicht.

Demirug
2005-06-15, 20:45:33
Das ist jetzt aber weit hergeholt, findest Du nicht?
Es ist doch bis jetzt so, dass ATI meistens in Spielen schneller ist, auch wenn in den Benchmarks Nvidia teilweise mithalten kann...

Nein, finde ich nicht.

Unsymetrisches Skalierung vs. symetrische Skalierung in Verbindung mit dem besonderen Anforderungsprofile des 3dmarks lassen mich zu dieser Überlegung kommen.

Gast
2005-06-15, 20:50:26
Von daher sind diesmal IMO die Karten neu gemischt und man kann nicht einfach mehr von der Vergangenheit auf die Zukunft schließen.

Akzeptiert. :)

Unsymetrisches Skalierung vs. symetrische Skalierung in Verbindung mit dem besonderen Anforderungsprofile des 3dmarks lassen mich zu dieser Überlegung kommen.
Vielleicht hast Du Recht.

BTW Shaderreplacement kann Wunder bewirken, wie es Nvidia vorgemacht hat.
Ich hoffe Du verstehst diese Anspielung. :)

ShadowXX
2005-06-15, 20:51:36
IMHO wird der R520 den G70 beim 3DMark (default) schlagen. Was aber nichts über die Leistung in echten Spielen aussagt.

Wenn der 3D05 wirklich so VS-lastig ist wie immer gesagt wird, ist das in dem Falle auch keine Kunst.

8xVS@430MHz vs. 8xVS@6X0MHz......

Bei Games, die meistens nicht sooooo extrem auf dem VS rumtrampeln kann das dann schon wieder ganz anders aussehen.

Ich hoffe nur, das die Testsites nicht wieder nur Syntis als Benche laufen lassen werden...

Bin mal gespannt wie das ATI-Marketing die Mehrperformance im 3D05 "ausschlachten" wird.

reunion
2005-06-15, 20:52:34
Begründung?


Es hat keine direkten Zusammenhang, trozdem sagt jeder Benchmark irgendetwas über die Leistung aus, es kommt natürlich auf die App. an, ob diese von nutzen ist.

Oder anders: Warum ist R420 schneller im 3dmark05 als NV40 und warum ist er dies auch meistens bei "echten" Spielen?


Welche Games sind ähnlich limitiert, wie der 3DMark05 - und rendern durchgehend in einer 2048²-Schattentextur?

Keine, es würde aber bedeuten, dass R520 bei Dingen, die beim 3dmark05 limitieren schneller ist. Natürlich alles unter der Voraussetzung, dass dies auch zutrifft.

Gast
2005-06-15, 20:54:46
IMHO wird der R520 den G70 beim 3DMark (default) schlagen. Was aber nichts über die Leistung in echten Spielen aussagt.

stimmt dort wirds noch deutlicher sein

Gast
2005-06-15, 20:56:22
stimmt dort wirds noch deutlicher sein
Scheiße, zu viele Gäste hier. ;D

Konsolenfreund?

Was macht dich da so sicher?

reunion
2005-06-15, 20:58:14
Wenn der 3D05 wirklich so VS-lastig ist wie immer gesagt wird, ist das in dem Falle auch keine Kunst.

8xVS@430MHz vs. 8xVS@6X0MHz......

Bei Games, die meistens nicht sooooo extrem auf dem VS rumtrampeln kann das dann schon wieder ganz anders aussehen.

Ich hoffe nur, das die Testsites nicht wieder nur Syntis als Benche laufen lassen werden...

Bin mal gespannt wie das ATI-Marketing die Mehrperformance im 3D05 "ausschlachten" wird.


Warum liegt eine X700pro troz überlegener VS-Power max. gleichauf mit einer 6600GT?
Oder warum liegt eine 9800XT gleichauf mit einer X700pro, obwohl die 9800XT zwei VS weniger hat, und noch dazu etwas niedriger getaktet ist?

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/viermal_geforce_6600_gt_agp/10/#abschnitt_3dmark_05

Diskutator
2005-06-15, 21:07:14
Wenn der R520 nun 10k schaffen würde...
Würdest du das als deutlich bezeichnen?
Das ist nicht ralisierbar, Stand heute!

reunion
2005-06-15, 21:09:05
Das ist nicht ralisierbar, Stand heute!


Ich behaupte das Gegenteil. Was nun?

Diskutator
2005-06-15, 21:11:44
Wenn der 3D05 wirklich so VS-lastig ist wie immer gesagt wird, ist das in dem Falle auch keine Kunst.

8xVS@430MHz vs. 8xVS@6X0MHz......

Bei Games, die meistens nicht sooooo extrem auf dem VS rumtrampeln kann das dann schon wieder ganz anders aussehen.

Ich hoffe nur, das die Testsites nicht wieder nur Syntis als Benche laufen lassen werden...

Bin mal gespannt wie das ATI-Marketing die Mehrperformance im 3D05 "ausschlachten" wird.

Es wird keine Mehrperformance unter 3D05 geben! Die beiden Karten sind laut meiner Glaskugel gleich etwa schnell unter 3D05! ATI wird in den Games vorne liegen und das Thema hatten wir schon sehr oft und es wurde zum Ärger vieler noch nie besonders gut ausgeschlachtet von ATI.

Diskutator
2005-06-15, 21:13:51
Ich behaupte das Gegenteil. Was nun?
Es kommt immer darauf, auf welche Glaskugeln man Zugriff hat, daraus resultierend gibt es immer 2 Meinungen. :rolleyes:

Godmode
2005-06-15, 21:18:22
Es kommt immer darauf, auf welche Glaskugeln man Zugriff hat, daraus resultierend gibt es immer 2 Meinungen. :rolleyes:

Immer recht lustig vor großen Launches, da kommen neue Members die immer die Megaquellen haben sollen. Man könnte glatt sagen die kommen direkt von den IHVs :rolleyes:

Diskutator
2005-06-15, 21:19:40
Immer recht lustig vor großen Launches, da kommen neue Members die immer die Megaquellen haben sollen. Man könnte glatt sagen die kommen direkt von den IHVs :rolleyes:
Nein, ich bin schon länger on hier als du denkst ! In jedem 7.-ten Gast-Ei *früher einmal* :tongue:

Coda
2005-06-15, 21:43:05
8xVS@430MHz vs. 8xVS@6X0MHz......Die ATi Vertexshader sind auch noch schneller/Takt.

Warum liegt eine X700pro troz überlegener VS-Power max. gleichauf mit einer 6600GT?Weil sie woanders lahm ist?

Godmode
2005-06-15, 21:46:02
Die ATi Vertexshader sind auch noch schneller/Takt.

Weil sie woanders lahm ist?
Was mich interessieren würde warum ATI immer stärkere VS(mehr, schneller/Takt) verbaut, 3Dmark kann doch nicht der einzige Grund sein? Könnte das durch die Profi Karten resultieren, sprich FireGL,..

edit:
Theoretisch könnte man einen Chip basteln der auf den 3DMark zugschnitten ist, der dann genau die Sachen kann die 3DMark verwendet. Dann hätte man 50k Marks und viele würden glücklich sein und würden sich diese Karte kaufen, weil sie dann einfach die tollsten sind! Und sich immer wieder daran erfreuen, wenn sie anderen erzählen wieviele Marks sie doch schaffen :rolleyes:

robbitop
2005-06-15, 21:53:21
Die ATi Vertexshader sind auch noch schneller/Takt.


Sicher? Ich dachte immer die MIMD VS vom NV40 wären pro Takt schneller als die SIMD VS des R420.

ShadowXX
2005-06-15, 21:56:36
Es wird keine Mehrperformance unter 3D05 geben! Die beiden Karten sind laut meiner Glaskugel gleich etwa schnell unter 3D05! ATI wird in den Games vorne liegen und das Thema hatten wir schon sehr oft und es wurde zum Ärger vieler noch nie besonders gut ausgeschlachtet von ATI.

Wir werden es beim G70 launch sehen, denn ich gehe davon aus, das beim Launch des G70 mysteriöserweise plötzlich viele geleakte r520 Benches auftauchen werden.....

Oder sogar ATI direkt ein paar "Zahlen" präsentieren wird.

Wir könne ja mal um ein virtuelles Bier wetten...ich gehe davon aus, das der r520 im 3d05 den G70 schlagen wird (nicht überdeutlich, aber fürs Marketing deutlich genug...und für den Rest kann man ja dann auch noch super mit Balkengrafiken und den Skalen spielen, so das dann 2FPS wie 50-100% aussehen)

Diskutator
2005-06-15, 22:15:24
Wir werden es beim G70 launch sehen, denn ich gehe davon aus, das beim Launch des G70 mysteriöserweise plötzlich viele geleakte r520 Benches auftauchen werden.....

Oder sogar ATI direkt ein paar "Zahlen" präsentieren wird.

Wir könne ja mal um ein virtuelles Bier wetten...ich gehe davon aus, das der r520 im 3d05 den G70 schlagen wird (nicht überdeutlich, aber fürs Marketing deutlich genug...und für den Rest kann man ja dann auch noch super mit Balkengrafiken und den Skalen spielen, so das dann 2FPS wie 50-100% aussehen)

Ich setzte eine AIW 9800Pro 128MB 256Bit Bulk - Luüpt super als Wetteinsatz!
und du ???????????? lieber Shadow!

I wait*ggg* ;D

Ich sage GLEICHSTAND!

Ronny145
2005-06-15, 22:17:18
Ich sage GLEICHSTAND!


Auf den Punkt genau? :biggrin:

ShadowXX
2005-06-15, 22:27:59
Ich setzte eine AIW 9800Pro 128MB 256Bit Bulk - Luüpt super als Wetteinsatz!
und du ???????????? lieber Shadow!

I wait*ggg* ;D

Ich sage GLEICHSTAND!

Dann schätzt du den r520 scheinbar wesentlich schlechter ein als die meisten hier im Forum (ich denke auch nicht, das er die Überfliegerkarte des Jahres wird, aber ich glaube trotzdem das der den G70 zumindest im 3D05 schlagen wird).

Davon abgesehen....was definierst du unter Gleichstand? Ich reden von um die 300 Punkte abstand.
Wenn sowas für dich Gleichstand ist, hast du natürlich recht....

Meinen Einsatz kennst du...der wird auch nicht erhöht.

reunion
2005-06-15, 22:30:48
Weil sie woanders lahm ist?

Eben.

Und ja, ich weiß, dass die VS-Power auch einen Einfluss auf den 3dmark-Score hat, dieser ist aber um einiges geringer als viele glauben.

Quasar
2005-06-15, 22:39:22
Sicher? Ich dachte immer die MIMD VS vom NV40 wären pro Takt schneller als die SIMD VS des R420.
Nicht im 3DMark.
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance_report/4/#abschnitt_feature_test

reunion
2005-06-15, 22:46:55
Es kommt immer darauf, auf welche Glaskugeln man Zugriff hat, daraus resultierend gibt es immer 2 Meinungen. :rolleyes:


Ich habe überhaupt keine Glaskugel, ich habe ebenso keine Quelle über irgendwelche 3dmark-Werte des R520. Ich behaupte aber im Gegensatz zu dir, dass es heute möglich wäre 10K zu erreichen.

Gast
2005-06-15, 22:48:30
möglich is alles :P auch 32 pipes

robbitop
2005-06-15, 22:57:19
Ich habe überhaupt keine Glaskugel, ich habe ebenso keine Quelle über irgendwelche 3dmark-Werte des R520. Ich behaupte aber im Gegensatz zu dir, dass es heute möglich wäre 10K zu erreichen.
Dafür wären ~700MHz bei 6 Quads oder ~525MHz bei 8 Quads nötig (mit einer NV40 oder R420 artigen Architektur zumindist).
Möglich dank 90nm vieleicht schon. Sinnvoll? Eher nein.

Diskutator
2005-06-15, 23:06:17
Dann schätzt du den r520 scheinbar wesentlich schlechter ein als die meisten hier im Forum (ich denke auch nicht, das er die Überfliegerkarte des Jahres wird, aber ich glaube trotzdem das der den G70 zumindest im 3D05 schlagen wird).

Davon abgesehen....was definierst du unter Gleichstand? Ich reden von um die 300 Punkte abstand.
Wenn sowas für dich Gleichstand ist, hast du natürlich recht....

Meinen Einsatz kennst du...der wird auch nicht erhöht.

Ne, komm! Ich sag mal so! Gleichstand heißt für mich max. 2% Unterschied.
Als Wetteinsatz lass ich ne Kiste Bier gelten!

Ronny145
2005-06-15, 23:09:59
Ne, komm! Ich sag mal so! Gleichstand heißt für mich max. 2% Unterschied.
Als Wetteinsatz lass ich ne Kiste Bier gelten!

Weißt du zufällig schon ein Ergebnis vom R520? Oder warum willst du das so genau wissen?

Diskutator
2005-06-15, 23:10:07
Ich habe überhaupt keine Glaskugel, ich habe ebenso keine Quelle über irgendwelche 3dmark-Werte des R520. Ich behaupte aber im Gegensatz zu dir, dass es heute möglich wäre 10K zu erreichen.

Möglich wäre alles! Ich meine G70 oder R520! :rolleyes:

Diskutator
2005-06-15, 23:11:56
Weißt du zufällig schon ein Ergebnis vom R520? Oder warum willst du das so genau wissen?
Nein, ich kenne kein Ergebnis! Reiner Tipp!
Ich wundere mich aber, das es dazu noch keine Wette bei opodo.de gibt :eek:

reunion
2005-06-15, 23:14:13
Möglich wäre alles! Ich meine G70 oder R520! :rolleyes:

Dann schreib' das doch auch. :)

Demirug
2005-06-15, 23:15:36
Nur mal so als Hint wie VS lastig der 3dMark ist:

NV40
16PS+4VS = 4125
12PS+6VS = 4213

Diskutator
2005-06-15, 23:17:24
Dann schreib' das doch auch. :)
Hab ich das nicht ? :rolleyes:

Coda
2005-06-15, 23:18:14
Sicher? Ich dachte immer die MIMD VS vom NV40 wären pro Takt schneller als die SIMD VS des R420.Also ich kenn zumindest einen Entwickler der sich mal darüber beschwert hat was die VS Performance bei nVIDIA angeht.

reunion
2005-06-15, 23:18:17
Hab ich das nicht ? :rolleyes:

Das ist nicht ralisierbar, Stand heute!

Diskutator
2005-06-15, 23:18:34
Nur mal so als Hint wie VS lastig der 3dMark ist:

NV40
16PS+4VS = 4125
12PS+6VS = 4213

Demirug;

wie ist der Unterschied bezüglich Core MHz zu bewerten, sagen wir mal 400MHz Core und 500MHz Core bei gleichem PS&VS?

Diskutator
2005-06-15, 23:19:27
Axo, damit bezog ich mich auf die Diskussion zu G70 im Vergleich zu R520, ups! :eek: Han isch vergessen zu sagen!

reunion
2005-06-15, 23:20:13
Nur mal so als Hint wie VS lastig der 3dMark ist:

NV40
16PS+4VS = 4125
12PS+6VS = 4213

NV40 ist in punkto VS-Power auch ziemlich schwachbrüstig.
Siehe X700pro vs. 9800XT - annähernd gleiche Punkteanzahl, trotz deutlich höherer VS-Power bei ersterem.

Diskutator
2005-06-15, 23:20:55
NV40 ist in punkto VS-Power auch ziemlich schwachbrüstig. Stimmt, mich würde das mal mit dem Core interessieren, habe keine NV40 hier!

reunion
2005-06-15, 23:23:23
Stimmt, mich würde das mal mit dem Core interessieren, habe keine NV40 hier!


Wieso?
Ein höherer Coretakt würde sowohl die VS- als auch die PS-Performance gleichermaßen erhöhen.

Diskutator
2005-06-15, 23:26:36
Wieso?
Ein höherer Coretakt würde sowohl die VS- als auch die PS-Performance gleichermaßen erhöhen.
Die Frage die ich mir dabei stelle, ist der % Anteil an Zuwachs, ich mache gerade nebenbei einen Test mit einer X850XT PE mit auf meinem Gamer-PC mit entsprechenden Cores!*g* Sagt man das so :) egal ist 23:35, da sagt man das so ;D

reunion
2005-06-15, 23:32:08
Demirug, wie deaktivierst du die VS?

Quasar
2005-06-15, 23:36:28
Vermutlich über den RivaTuner...

Demirug
2005-06-15, 23:37:28
Für unterschiedliche Coretakte habe ich keine Messungen.

Bei 16PS+6VS = 4620. Also 2 VS mehr gibt fast 500 Punkte.

@reunion, RivaTuner

reunion
2005-06-15, 23:37:44
Vermutlich über den RivaTuner...

Ist dies auch mit ATi-Karten möglich?

Demirug
2005-06-15, 23:39:11
Ist dies auch mit ATi-Karten möglich?

Nein, Warum denkst du verkauft ATI aktuell nur neue Chips mit 6VS?

reunion
2005-06-15, 23:39:45
Bei 16PS+6VS = 4620. Also 2 VS mehr gibt fast 500 Punkte.


Und mit 5VS?

reunion
2005-06-15, 23:41:14
Nein, Warum denkst du verkauft ATI aktuell nur neue Chips mit 6VS?

Logisch, thx.

Demirug
2005-06-16, 00:03:53
Und mit 5VS?

Da ich die Werte von ChrisRay habe und er sie gerade nochmal gepostet hat kannst du auch selber nachschauen:

http://www.nvnews.net/vbulletin/showpost.php?p=630325&postcount=22

reunion
2005-06-16, 00:09:18
Da ich die Werte von ChrisRay habe und er sie gerade nochmal gepostet hat kannst du auch selber nachschauen:

http://www.nvnews.net/vbulletin/showpost.php?p=630325&postcount=22

Thx.

Wie erwartet, zwischen 5- und 6-VS besteht nurnoch ein Unterschied von 141 Punkte. Mehr als 6 NV40-VS sollten also kaum noch etwas bringen.

Ich denke also nicht, dass R520 Vorteile durch die höhere VS-Power hat, nichtmal im 3dmark. ;)

Gast
2005-06-16, 00:09:55
Könnte man ein 6800Ultra SLI System mal auf die Hälfte der VS limitieren und schauen was dabei rauskommt?

Coda
2005-06-16, 00:20:27
Reunion setz bitte mal deine Fanboybrille ab, das ist ja unerträglich.

Die Vertexlimitierung ist mehr als offensichtlich, es gibt keinen Grund warum das nach 6 VS auf einmal steil abflachen sollte.

Vor allem sollte der spekulative R520 mehr als doppelt so hohe 3DMark05-Vertexpower haben wie G70, den Rest kannst du dir ja denken.

Diskutator
2005-06-16, 00:27:57
Reunion setz bitte mal deine Fanboybrille ab, das ist ja unerträglich.

Die Vertexlimitierung ist mehr als offensichtlich, es gibt keinen Grund warum das nach 6 VS auf einmal steil abflachen sollte.

Vor allem sollte der spekulative R520 mehr als doppelt so hohe 3DMark05-Vertexpower haben wie G70, den Rest kannst du dir ja denken.

Die Frage ist in wie weit gewisse :whistle: Optimierungen im Treiber bei beiden mal wieder bei 3D05 eine Rolle spielen werden!

Mittlerweile ist es ja auch Doping-Wissenschaftlern gelungen an Testeron Wasserstoff-Atome dranzuhängen und diese Kombination erkennt der Schnelltest nicht! GN all! :|

Coda
2005-06-16, 00:31:01
Ja natürlich, ich würde dem 3D Mark sowieso keine Relevanz zumessen.

Crushinator
2005-06-16, 00:35:53
Reunion setz bitte mal deine Fanboybrille ab, das ist ja unerträglich. (...)
Flamen in dieser Form ist ein Verstoß gegen die Forumsregeln. Mit dieser Verwarnung bitte ich um die Einhaltung der besagten Regeln, welche ausnahmslos für alle gelten!

reunion
2005-06-16, 00:39:46
Die Vertexlimitierung ist mehr als offensichtlich, es gibt keinen Grund warum das nach 6 VS auf einmal steil abflachen sollte.


4VS: 4125
5VS: + 356
6VS: + 141
7VS: + ?

Wenn du aus diesen Daten nicht herauslesen kannst, dass die Kurve abflacht, kann ich dir auch nicht helfen.
(Leider kann man ja auf dem R420 keine VS deaktivieren.)

Coda
2005-06-16, 00:52:31
Da es bei allen Pipelinekonfigurationen gleich stark abflacht würde ich sagen dass da eher die CPU limitiert...

Aber egal, streiten wir nicht länger darüber. Du hast schon in gewisser Weiße recht, aber ich halte 3DMark trotzdem für viel zu vertexlimitiert.

Leonidas
2005-06-16, 01:00:00
600+ Euro ist dennoch sehr happig. Die Karten der großen Anbieter wird vielleicht noch empfindlich teurer sein.


Mag sein. Jedoch sind Vorstart-Preise in den seltensten Fällen wirklich repräsentativ, sondern meist um 10-20% überzogen.

Leonidas
2005-06-16, 01:02:40
Wie werden eigentlich die jetzigen Spitzenmodelle weitergeführt oder fallen die weg? Ich kann es mir zumindest nicht vorstellen, da es ja hieß, dass nur die 7800GTX SLI fähig sei.

Wenn sie weitergeführt werden, in 110 oder 130nm?


Ich gehe davon aus, daß die jetzigen Spitzenmodelle unverändert weitergeführt werden, nur eben im Preis gesenkt.

SKYNET
2005-06-16, 01:03:18
Ich gehe davon aus, daß die jetzigen Spitzenmodelle unverändert weitergeführt werden, nur eben im Preis gesenkt.


jupp, die 6800U PCIe gibbet inzwischen ab 333€

mapel110
2005-06-16, 01:07:58
Ich gehe davon aus, daß die jetzigen Spitzenmodelle unverändert weitergeführt werden, nur eben im Preis gesenkt.
Ja, warum sollte nvidia das Lineup ändern?! Sie bieten ja SM3 durchweg bereits an, nur am Speed wurde doch wohl hauptsächlich gefeilt.

Einen shrink brauchen sie wohl auch nicht mehr. Den G70 können sie doch wohl auch als 6800 GT/Ultra umläbeln. Mit ein paar Treiberspielchen, wo man das eine oder andere zusätzliche Feature des G70 abschaltet und fertig ists.

Ailuros
2005-06-16, 01:49:16
Es hat keine direkten Zusammenhang, trozdem sagt jeder Benchmark irgendetwas über die Leistung aus, es kommt natürlich auf die App. an, ob diese von nutzen ist.

Oder anders: Warum ist R420 schneller im 3dmark05 als NV40 und warum ist er dies auch meistens bei "echten" Spielen?

Weil die Frequenz und ergo die Fuellrate hoeher ist bei R420 aber dann nur bitte schoen bei der Schlacht zwischen 6800Ultra und X800XT PE. Sobald sich die Fuellraten naehern bei kleinere Modellen, wird der Leistungsunterschied so klein dass man leicht Gleichstand behaupten kann.

Ich schaetze aber momentan R520 nicht mehr als mit ~10.5GPixel/sec ein. Wie sieht es in diesem hypothetischen Fall gegen G70 aus? Vorsicht mit den Schlussfolgerungen denn ihr habt immer noch keine Ahnung ueber den internen Aufbau....

Ailuros
2005-06-16, 01:54:52
Thx.

Wie erwartet, zwischen 5- und 6-VS besteht nurnoch ein Unterschied von 141 Punkte. Mehr als 6 NV40-VS sollten also kaum noch etwas bringen.

Ich denke also nicht, dass R520 Vorteile durch die höhere VS-Power hat, nichtmal im 3dmark. ;)

In den spezialisierten VS Tests dann aber schon; anstatt konstant die eher sinnlosen Gesamtscores von diesem synthetischen Test zu analysieren, waere es ebenso wuenschenswert wenn ihr auch mal jeden individuellen Test unter die Lupe nehmen wuerdet; auf jeden Fall haben diese eine groessere Aussagskraft als eine oede Durchschnittszahl.

G70 = 860MTris/sec
R520 =/> 1300MTris/sec

Ailuros
2005-06-16, 02:09:40
Reunion setz bitte mal deine Fanboybrille ab, das ist ja unerträglich.

Die Vertexlimitierung ist mehr als offensichtlich, es gibt keinen Grund warum das nach 6 VS auf einmal steil abflachen sollte.

Vor allem sollte der spekulative R520 mehr als doppelt so hohe 3DMark05-Vertexpower haben wie G70, den Rest kannst du dir ja denken.

+50 Vertexpower und nicht +100% (siehe voriger Post).

Von dem abgesehen; Gedankensporn (und nur mal so weil diese Debatte ueber den 3dfart wirklich nichts wert ist):

X850XT PE = 8320 MPixels/s = ~6200 Punkte

(6 VS * 520MHz / 4 = 780MTris/sec, 16 SIMD channels @ 520MHz)

2*6600GT = 8000 MPixels/s = ~ 6000 Punkte

(6 VS * 500MHz / 4 = 750MTris/sec, 16 SIMD channels @ 500MHz)

7800 GTX = 10320 MPixels/sec = ~ 7800 Punkte

(8 VS * 430MHz / 4 = 860MTris/sec, 24 SIMD channels @ 430MHz)

G70 hat 29% mehr Fuellrate wie NV43@SLi, wieso macht die extra VS Power hier nichts aus?

Zweite Frage: wehr froehlich rechnen will fuer Spekulationen sollte vom R420 score ausgehen; 10.4 vs. 8.3 sind nur +25%.....bon apetit ;)

seahawk
2005-06-16, 08:36:33
Thx.

Wie erwartet, zwischen 5- und 6-VS besteht nurnoch ein Unterschied von 141 Punkte. Mehr als 6 NV40-VS sollten also kaum noch etwas bringen.

Ich denke also nicht, dass R520 Vorteile durch die höhere VS-Power hat, nichtmal im 3dmark. ;)

Je höher die Pixelfüllrate, desto stärker ist der 3D Mark Vertex limitiert.

reunion
2005-06-16, 08:49:40
Da es bei allen Pipelinekonfigurationen gleich stark abflacht würde ich sagen dass da eher die CPU limitiert...


In jeder anderen Anwendung würde ich dir zustimmen, aber nicht im 3dmark05.

reunion
2005-06-16, 08:51:36
Je höher die Pixelfüllrate, desto stärker ist der 3D Mark Vertex limitiert.

Ich weiß, nur hat G70 eben auch mehr VS-Power.

Demirug
2005-06-16, 08:54:43
Ich weiß, nur hat G70 eben auch mehr VS-Power.

Aber eine asymetrische Skalierung im Vergleich zum NV40.

BTW: ab einem Punkt kommt dann auch noch das Trisetup ins Spiel. Das könnte für das Abflachen der VS Skalierungskurven verantwortlich sein.

reunion
2005-06-16, 08:58:49
Weil die Frequenz und ergo die Fuellrate hoeher ist bei R420 aber dann nur bitte schoen bei der Schlacht zwischen 6800Ultra und X800XT PE. Sobald sich die Fuellraten naehern bei kleinere Modellen, wird der Leistungsunterschied so klein dass man leicht Gleichstand behaupten kann.


Eben, also wäre für den natürlich rein hypotetischen Fall, dass R520 im 3dmark05 deutlich schneller wäre als G70, mit einer höheren Füllrate von R520 zu rechnen. Und nicht mit mehr VS-Performance.

So gesehen sagt der 3dmark also sehrwohl was über die Performance bei "realen" Spielen aus, und um nichts anderes ging es mir. Es limitiert ab einer gewissen VS-Leistung die Füllrate.


Ich schaetze aber momentan R520 nicht mehr als mit ~10.5GPixel/sec ein. Wie sieht es in diesem hypothetischen Fall gegen G70 aus? Vorsicht mit den Schlussfolgerungen denn ihr habt immer noch keine Ahnung ueber den internen Aufbau....

Gleichstand.

Winter[Raven]
2005-06-16, 09:03:35
Gleichstand.

Was passiert mit dem gleichstand wenn man Vertex Power gegen Shaderpower eintauscht? ... ;D

reunion
2005-06-16, 09:20:46
Aber eine asymetrische Skalierung im Vergleich zum NV40.


Richtig, G70 hat 60% mehr Füllrate bei 43% mehr VS-Leistung, ich glaube jedoch trozdem nicht, dass sich das beim 3dmark auswirkt.

NV40: 6400MPixel/s ~5000 Punkte
G70: 10320MPixel/s ~7700 Punkte

Wie man sieht, skaliert G70 annähernd linear mit der steigenden Füllrate. Deshalb rechne ich nicht mit einem Vorteil für R520 aufgrund der höheren VS-Power.


BTW: ab einem Punkt kommt dann auch noch das Trisetup ins Spiel. Das könnte für das Abflachen der VS Skalierungskurven verantwortlich sein.

Wäre natürlich ebenfalls eine Möglichkeit.

robbitop
2005-06-16, 09:22:06
Aber eine asymetrische Skalierung im Vergleich zum NV40.

BTW: ab einem Punkt kommt dann auch noch das Trisetup ins Spiel. Das könnte für das Abflachen der VS Skalierungskurven verantwortlich sein.
Was ist denn so anders an einer asymetrischen Skallierung als an einer symetrischen für 3DM05?

Das Trisetup könnte limitieren? Das klingt aber nach einem ungünstigen Designflaschenhals.