PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15

Gast
2005-06-02, 23:45:33
Wobei ich mich Frage ob es wirklich ein 24 Pipe Design ist oder nicht doch eher ein 28 Pipe Design. Beim Cell hat sich Sony ja auch eine Sicherheitsreserve gelasen.
Mal ne Frage zum Cell. Kann es sein, dass alle 8 Cells funktionieren müssen und das der Cell die SPUs hin und wieder wechselt aus thermischen Gründen? Sowas in der Art gab es auf der Cell Präsentation von IBM zu hören.

Botcruscher
2005-06-02, 23:45:44
Wie ist eigentlich eDRAM in der Herstellung? Wieviel würde man beim PC brauchen? 20 MB?

SKYNET
2005-06-02, 23:49:00
Wie ist eigentlich eDRAM in der Herstellung? Wieviel würde man beim PC brauchen? 20 MB?


mehr, min 32MB würde ich mal sagen.
eher 64MB, weil die auflösungen am PC sind ja deutlich höher(up to 2048*1536).

Gast
2005-06-02, 23:51:19
Wie ist eigentlich eDRAM in der Herstellung? Wieviel würde man beim PC brauchen? 20 MB?
20 MB wäre beim PC wohl ausreichend. Jedenfalls bis 1600*1200. eDRAM kann direkt auf dem Chip realisiert werden, dann kann er mit hoher Busbreite (2048bit und mehr) und Chiptakt betrieben werden, was allerdings recht teuer und schwierig in der Herstellung ist. Beim R500 sind zwei Speicherchips auf dem Chipträger montiert. Das ist also ein Zwischending und die Busbreite zur GPU ist auch nicht nicht so hoch, wie es beim echten eDRAM möglich wäre. Dafür ist eine 3D Logik in den Speicherchips, die für superschnelles AA sorgt.


Konsolenfreund

Demirug
2005-06-02, 23:55:06
Haben sie aber nicht und das nicht ohne Grund. Unified Shader zu bringen, die unter DX9 ihre Vorteile nicht auspielen können, haben sie nicht umsonst stecken lassen. Und ob der R500 so ausgesehen hätte, wenn er für den PC gekommen wäre bezweifel ich. ATI hat das R500 Design, was auf zwar auf dem R400 (für PC entwickelt) basiert, speziell für die Xbox entwickelt und da werden sie wohl auf die Wünsche von Microsoft eingegangen sein, denn der R500 wird nicht auf dem PC erscheinen und ist eine Entwicklung für die XBox, egal was die Ausgangsbasis war.

Konsolenfreund

Der Vorteil von Unified Shader ist das Load Balencing und das hätte sehr wohl auch was unter DX9 gebracht. Der R400 wurde gecancelt weil er nicht performant genug war.

NV2A wurde damals auch speziell für die XBox entwickelt und ist in der Form auch nicht für eine Grafikkarte zu gebrauchen. Entsprechenden ist auch der R500 nicht direkt für den PC verwendbar. Die Änderungen die notwendig wären sind aber dermassen gering das man einen solchen PC Chip in die gleiche Familie einordnen müsste. Nur macht es keinen Sinn eine solche Variante zu entwickeln weil man damit gegenüber der R4XX Linie keinen ausreichenden Performancevorteil erreichen kann.

Demirug
2005-06-02, 23:57:34
Mal ne Frage zum Cell. Kann es sein, dass alle 8 Cells funktionieren müssen und das der Cell die SPUs hin und wieder wechselt aus thermischen Gründen? Sowas in der Art gab es auf der Cell Präsentation von IBM zu hören.

Für mich hörte sich das bisher eher nach einer Sicherheitsreserve für die Produktion an. Vorallem weil ein automatische Wechseln gar nicht so einfach zu realiseren wäre und interne Bandbreite klauen würde.

Gast
2005-06-03, 00:02:08
Der Vorteil von Unified Shader ist das Load Balencing und das hätte sehr wohl auch was unter DX9 gebracht. Der R400 wurde gecancelt weil er nicht performant genug war.
Das stimmt allerdings. Kann man ja an aktuellen GPUs sehen. Trotzdem hat die Architektur Leistung weggeschmissen. Mir geht es primär darum, dass man den R500 nicht als PC GPU bezeichnen kann, nur weil er auf dem R400 aufbaut als Basis. Der R500 wurde explizit für die Xbox 360 entwickelt und wie nahe der R500 am R400 weiß niemand, außer ATI selbst. Und man kann wohl davon ausgehen, dass ATI sich nach Microsofts Wünschen gerichtet hat, wenn sie einen R500 entwickeln, der nicht für den PC kommt und weit weg vom R520 ist.

NV2A wurde damals auch speziell für die XBox entwickelt und ist in der Form auch nicht für eine Grafikkarte zu gebrauchen. Entsprechenden ist auch der R500 nicht direkt für den PC verwendbar. Die Änderungen die notwendig wären sind aber dermassen gering das man einen solchen PC Chip in die gleiche Familie einordnen müsste. Nur macht es keinen Sinn eine solche Variante zu entwickeln weil man damit gegenüber der R4XX Linie keinen ausreichenden Performancevorteil erreichen kann.
Nun, die Unterschiede zwischen NV2a und NV20 sind wohl erheblich geringer, als zwischen R500 und R520. Oder wolltest damit auf den Vergleich zwischen RSX und G70 anspielen?

Konsolenfreund

Gast
2005-06-03, 00:07:55
Für mich hörte sich das bisher eher nach einer Sicherheitsreserve für die Produktion an. Vorallem weil ein automatische Wechseln gar nicht so einfach zu realiseren wäre und interne Bandbreite klauen würde.
So habe ich das bisher auch verstanden. Der Gedanke kam mir nur gerade, weil mir plötzlich die IBM Präsentaion in den Sinn kam, wo sie davon geredet haben, dass Der Cell eine hohe Anzahl an Tempetatursensoren besitzt, die die Lastverteilung der SPUs steuern und ganze SPUs vorrübergehend ausschalten kann. Bei einer Konsole braucht man ja einen fixen Leitungspeak, daher kam mir der Gedanke, dass man bei zu hohen Temps einfach zwischen einer inaktive kühlen 8. SPU und einer der aktiven heißen 7 SPUs switched. Wobei ich auch glaube, dass einfach eine deaktiviert wird, um einen höhern Yield zu erzielen. War nur so ein Gedanke.

Konsolenfreund

Gast
2005-06-03, 00:21:20
NV2A wurde damals auch speziell für die XBox entwickelt und ist in der Form auch nicht für eine Grafikkarte zu gebrauchen. Entsprechenden ist auch der R500 nicht direkt für den PC verwendbar. Die Änderungen die notwendig wären sind aber dermassen gering das man einen solchen PC Chip in die gleiche Familie einordnen müsste. Nur macht es keinen Sinn eine solche Variante zu entwickeln weil man damit gegenüber der R4XX Linie keinen ausreichenden Performancevorteil erreichen kann.
Sorry, ich hatte den Teil nicht ganz zu ende gelesen. Natürlich wäre der R500 auch im PC einsetzbar, aber halt nicht mit hoher Effizienz. Dass sich Microsoft eine Architektur zimmern lässt, mit der sie klar kommen, d.h. also eine Architektur, die PC (DX9/WGF2.o) ähnlich ist, sollte wohl klar sein, wo man doch Synergien zwischen Windows und Xbox 360 nutzen will in der Entwicklung. Und trotzdem ist der R500 nicht für den PC entworfen worden und würde dort eher schlecht als recht seine Arbeit verrichten.

Konsolenfreund

Ailuros
2005-06-03, 00:51:31
20 MB wäre beim PC wohl ausreichend. Jedenfalls bis 1600*1200. eDRAM kann direkt auf dem Chip realisiert werden, dann kann er mit hoher Busbreite (2048bit und mehr) und Chiptakt betrieben werden, was allerdings recht teuer und schwierig in der Herstellung ist. Beim R500 sind zwei Speicherchips auf dem Chipträger montiert. Das ist also ein Zwischending und die Busbreite zur GPU ist auch nicht nicht so hoch, wie es beim echten eDRAM möglich wäre. Dafür ist eine 3D Logik in den Speicherchips, die für superschnelles AA sorgt.


Konsolenfreund

Wenn IHVs wirklich "superschnelles" AA wollen mit minimalem Framebuffer-verbrauch dann koennen sie entweder in der Zukunft zu analytischen AA-Algorithmen greifen, oder (warnung: die uebliche Blasphemie folgt....) eben gleich zu TBDRs umschwingen.

Ganz zu schweigen von AA+ float HDR Kombinationen.

***edit: gibt es eigentlich eine verstaendliche Formel mit der man Framebuffer-Verbrauch mit eDRAM ausrechnen koennte?

Quasar
2005-06-03, 08:02:21
Fakt ist nun aber, egal ob der R500 nun in Form eines R400 mal als PC GPU gedacht war, dass der R500 nichts mit einer PC GPU von ATI gemein hat. Weder der Aufbau der Shaderunits, och das eDRAM was FP Logik von ATI enthält.
Der Aufbau der (einzelnen!) Shader ähnelt laut einer Folie, auf die ich hingewiesen worden bin, doch ein kleines bißchen den Vertexshadern im R300. FP32, Vec4+1...

Quasar
2005-06-03, 08:09:21
2. einen eDRAM Chip zu "entwickeln" ist wohl eher das geringste Problem. [...] und die ROPs in diesen Chip hineinzutun ebenso nicht.

Wobei ich letzteres ziemlich einfach, aber genial finde, solange man mit einer kalkulierbaren Framebuffer-Größe arbeiten kann. Und sorry, wenn das jetzt blasphemisch klingt, 4xAA (wenn wir uns jetzt mal rein auf die Kantenglättungswirkung beschränken) finde ich in der höheren HDTV-Standardauflösung völlig ausreichen.

Bis hin zum Fotorealismus sollte man erstmal an vernünftigem Textur- und Geometriecontent arbeiten, bevor man sich auf die allerletzten Pixeltreppchen stürzt.

Quasar
2005-06-03, 08:13:38
Haben sie aber nicht und das nicht ohne Grund. Unified Shader zu bringen, die unter DX9 ihre Vorteile nicht auspielen können,[...]
Natürlich können unified shader ihre Vorteile unter DX9 ausspielen, auch unter DX8 oder DX7.

Bis zu den 3DMarks und vielleicht einzelnen Ausreissern, gab es kaum Spiele, die Geometrielimitiert waren. Von den Sechs Vertexshadern hätte man so gut und gern vier abknappsen können und hätte dafür ein zusätzliches Pixelquad bekommen können (Transistorcount jetzt mal aussen vor, es geht eher ums Prinzip).
Je nach Entwicklung hätte man dann geometrielastigeren Anwendungen mehr Geometrierechenleistung zur Verfügung stellen können.

Davon abgesehen hast du natürlich recht, daß spezialisierte Schaltkreise mit gegebenen Mitteln eigentlich immer schneller sind, als global programmierbare Schaltkreise.

edit:
pls disregard, wurde ja schon besprochen.

wuzetti
2005-06-03, 08:22:41
Humbug IMO; natuerlich wird es eine schneller getaktete G70 auf 90nm irgendwann in der Zukunft geben, aber ich wuerde mich an Eurer Stelle erstmal fragen warum RSX gerade momentan vor seinem finalen tapeout liegt.

Schon 430MHz ist nicht gerade wenig fuer 6 quads@110nm und ich hatte vor einem halben Jahr ungefaehr 400MHz erwartet.

Zwischen 430MHz G70@110nm und 550MHz G7x@90nm wird es wohl auch einen gesunden Leistungsunterschied geben. Selbst wenn NVIDIA schon einen fertigen 90nm desktop chip haette wuerde man wohl nicht gleich alle Karten ausspielen, ueberhaupt wenn man weiss dass noch ein R580 bevorsteht.

ich meine keine wie immer getaufte ultra version in 90nm, sondern einen lediglich etwas höher getakteten G70@110nm, so in etwa mit 460 - 470 Mhz. was sollte NV davon abhalten, so etwas zu bringen, wenn sie damit jegliches R520 modell schlagen können?
ok, die verfügbarkeit vielleicht. aber verfügbar war die die 6800 Ultra auch nicht wirklich über einen sehr langen zeitraum nach der vorstellung. und wie es bei ATI mit XT PE ausgeschaut hat, wissen wir ja alle.
ist aber alles höchst spekulativ, damit hier keine missverständnisse aufkommen!

Gast
2005-06-03, 08:55:38
ich meine keine wie immer getaufte ultra version in 90nm, sondern einen lediglich etwas höher getakteten G70@110nm, so in etwa mit 460 - 470 Mhz. was sollte NV davon abhalten, so etwas zu bringen, wenn sie damit jegliches R520 modell schlagen können?
ok, die verfügbarkeit vielleicht. aber verfügbar war die die 6800 Ultra auch nicht wirklich über einen sehr langen zeitraum nach der vorstellung. und wie es bei ATI mit XT PE ausgeschaut hat, wissen wir ja alle.
ist aber alles höchst spekulativ, damit hier keine missverständnisse aufkommen!
Die Verfügbarkeit dürfte dann ja kaum schlechter sein als die von ATI.
Ich meine, wenn sie es auf 0.11 schaffen so einen riesigen Chip zu bringen, dann traue ich ihnen momentan auf 0.09 mehr zu als ATI.
Sie haben schon bei der aktuellen Generation mehr aus den Fertigungsprozessen rausgeholt. Man muss sich ja vor Augen halten, welchen Transistormehraufwand Nvidia gegenüber ATI hat und trozdem gibt es die Super 6800GT und die 6600GT.
Nvidia war und ist voll konkurenzfähig trotz erheblich mehr Komplexität.
Deshalb halte ich es für nicht unmöglich, dass Nvidia sobald ATI den R520 bringt mit einem eigenen 0.09 Chip kontert der den R520 dann übertrumpft.
Die Verfügbarkeit sollte sich mindestens im gleichen Rahmen bewegen.

wuzetti
2005-06-03, 09:00:52
Die Verfügbarkeit dürfte dann ja kaum schlechter sein als die von ATI.
Ich meine, wenn sie es auf 0.11 schaffen so einen riesigen Chip zu bringen, dann traue ich ihnen momentan auf 0.09 mehr zu als ATI.
Sie haben schon bei der aktuellen Generation mehr aus den Fertigungsprozessen rausgeholt. Man muss sich ja vor Augen halten, welchen Transistormehraufwand Nvidia gegenüber ATI hat und trozdem gibt es die Super 6800GT und die 6600GT.
Nvidia war und ist voll konkurenzfähig trotz erheblich mehr Komplexität.
Deshalb halte ich es für nicht unmöglich, dass Nvidia sobald ATI den R520 bringt mit einem eigenen 0.09 Chip kontert der den R520 dann übertrumpft.
Die Verfügbarkeit sollte sich mindestens im gleichen Rahmen bewegen.

ein G70@90nm macht für mich nur als "refresh" sinn, und zwar entweder in Q4 2005 oder wahrscheinlich eher in Q1 2006 (siehe Playstation3 GPU). sonst stimmt bis zur vorstellung der WGF 2.0 GPU's ja überhaupt nix mehr zusammen .

Gast
2005-06-03, 09:10:53
ein G70@90nm macht für mich nur als "refresh" sinn, und zwar entweder in Q4 2005 oder wahrscheinlich eher in Q1 2006 (siehe Playstation3 GPU). sonst stimmt bis zur vorstellung der WGF 2.0 GPU's ja überhaupt nix mehr zusammen .

wieso es spricht ja nix dagegen direkt zum R520 launch einen G70 Refresh mit mehr Takt auf 0.09 herauszubringen und später dann nochmal eine GPU mit 32 Pipes auf 0.09, wenn der Prozess reifer ist.
Andersrum geht es natürlich genauso.

Mein Tipp liegt ganz klar darauf, dass nvidia hier parallel entwickelt hat. Sie sind wegen des RSX sowieso dazu gezwungen mit 0.09 zu arbeiten. Da der RSX und der G70 anscheinend deutlich mehr gemeinsam haben als der R500 und R520, bin ich mir zu über 70% sicher, dass Nvidia hier sich für einige Eventualitäten vorbereitet hat. Man darf ja nicht vergessen, dass sie mit CineFX1, 2 und 3 sehr frühzeitig den Grundstein gelegt haben was DX9.1 angeht. Sie dürften sich also seit einiger mit mehr Performance, breiterer Architektur und Fertigungslayout bzw. Prozessen beschäftigt haben.

robbitop
2005-06-03, 09:11:12
@Gast (Konsolenfreund)

für sowas wirst du keine präzise Quelle bekommen können, da solche Dinge eben nie direkt in die Öffentlichkeit ohne PR Kram kommen.
Meine Behauptungen basieren auf Aussagen von Entwicklern und Leuten mit verdammt guten Quellen (bsw Dave Bauman) und meinen eigenen Quellen. Hinzu kommt natürlich Erfahrung und Abschätzung, was mit gegebenen R&D und Geldmitteln in etwa möglich ist. Schau dich einfach mal eine Weile auf Beyond3D um, dann wirst du zu ähnlichen Schlussfolgerungen kommen.

Nintendo6 wird btw vermutlich ebenso einen R500 Ableger bekommen. Ich würde an deiner Stelle nicht alles glauben, was das Marketing sagt. Die Entwicklung eines Designs kostet heutzutage 400 Mio $. Und dazu will man noch Gewinn machen. Das holst du nie durch bloß einen einzigen Konsolendeal rein. Deswegen setzt man diese Technologie noch woanders ein (Nintendo6 und den aufgebohrten R500 aka R600 im PC Bereich). Andernfalls würde sich soetwas nicht lohnen. Man verkauft schließlich nur IP.
Die bezeichnen auch mal sehr sehr schnell einen Chip als "neue Architektur".
R500 ist nämlich auch nur ein aufgebohrter R400, den man sowieso schon in der Schublade hatte. An Shaderunits ändert man in gleichen Architekturserien kaum/nichts. Das sind tiefe Eingriffe in den Pixelprozessor, das kostet viel zu viel Zeit und Entwicklungskosten.

Und natürlich wäre eDRAM für RSX denkbar, allerdings warb man damit nicht. Somit ist die Wahrscheinlichkeit gering, dass dieser vorhanden ist. Das sagen sogar Entwickler wie Demirug.

edit: wäre schön, wenn du dich hier im 3DC Forum registrieren würdest und wir ein neues interessantes Member bekämen :up:

Zippi
2005-06-03, 09:17:33
http://www.heise.de/newsticker/meldung/60220

robbitop
2005-06-03, 09:25:23
Mein Tipp liegt ganz klar darauf, dass nvidia hier parallel entwickelt hat. Sie sind wegen des RSX sowieso dazu gezwungen mit 0.09 zu arbeiten. Da der RSX und der G70 anscheinend deutlich mehr gemeinsam haben als der R500 und R520, bin ich mir zu über 70% sicher, dass Nvidia hier sich für einige Eventualitäten vorbereitet hat. Man darf ja nicht vergessen, dass sie mit CineFX1, 2 und 3 sehr frühzeitig den Grundstein gelegt haben was DX9.1 angeht. Sie dürften sich also seit einiger mit mehr Performance, breiterer Architektur und Fertigungslayout bzw. Prozessen beschäftigt haben.

Allerdings hat RSX erst viel später sein TapeOut. G70 hatte seine Tapeouts bereits 2004. RSX bekommt erst jetzt oder in ein paar Wochen sein TapeOut. Nicht viel später müsste auch G80 (man munkelt ein G70@90nm) sein TapeOut bekommen. Zu bedenken ist, dass RSX bei Sony produziert wird und die Foundry Parameter anders als bei TSMC sind. Das kostet etwas Zeit und Leute. Die RSX Entwicklung selbst war vermutlich keine lange, da ja nur ein NV4x Derivat.

Du meinst DX9.0c. Sagen wir lieber Shader Model 3. Bereits NV30 war ein sehr ambitioniertes Projekt und strebte nach SM3. Doch fehlten letztendlich noch dynamic flow control im Pixelteil und dynamic branching/looping im Pixelteil (wobei NV30 schon gute Vorraussetzungen der Pointer dafür hatte).

Wie auch immer 90nm war ja sowieso geplant für Q3/4 05 mit G80. Der Grund weswegegen man vorerst mit 110nm vorlieb nimmt ist verringertes Risiko und Verfügbarkeit. Man hat sich mit 130nm lowk schon einmal übernommen.

Gast
2005-06-03, 10:49:29
Allerdings hat RSX erst viel später sein TapeOut. G70 hatte seine Tapeouts bereits 2004. RSX bekommt erst jetzt oder in ein paar Wochen sein TapeOut. Nicht viel später müsste auch G80 (man munkelt ein G70@90nm) sein TapeOut bekommen. Zu bedenken ist, dass RSX bei Sony produziert wird und die Foundry Parameter anders als bei TSMC sind. Das kostet etwas Zeit und Leute. Die RSX Entwicklung selbst war vermutlich keine lange, da ja nur ein NV4x Derivat.



die rede war ja immer von einem technologie-austausch zwischen sony und nvidia, vielleicht besteht dieser darin dass sony die 90nm-gpu auch für nvidia fertigt?

robbitop
2005-06-03, 10:56:14
die rede war ja immer von einem technologie-austausch zwischen sony und nvidia, vielleicht besteht dieser darin dass sony die 90nm-gpu auch für nvidia fertigt?
Du meinst G80? Möglich. Warum nicht?

Ich glaube jedenfalls nicht, dass Sony viel an der Technologie eines relativ fertigen NV4x Derivats ändern konnte. Vieleicht hat man noch das Interface in Richtung Cell angepasst und das ganze evaluiert.

Ailuros
2005-06-03, 11:24:31
Wie sicher ist es eigentlich dass G80 der 90nm-refresh von G70 ist? Ich hab natuerlich keine Ahnung was das Thema betrifft, aber warum nicht auch G7x?

Gibt es ueberhaupt irgendwelche Anzeichen in heutigen Treibern die auf >dx9.0 Funktionalitaeten deuten?

robbitop
2005-06-03, 11:37:33
Wie sicher ist es eigentlich dass G80 der 90nm-refresh von G70 ist? Ich hab natuerlich keine Ahnung was das Thema betrifft, aber warum nicht auch G7x?

Gibt es ueberhaupt irgendwelche Anzeichen in heutigen Treibern die auf >dx9.0 Funktionalitaeten deuten?

Gar nicht sicher. Ist eine logische Schlussfolgerung, wenn er dieses Jahr (Ende 05) noch kommen soll. Denn zeitlich würde es nicht ausreichen, noch groß etwas zu ändern.

TheGamer
2005-06-03, 11:40:13
Naechtsten Monat kann man den G70 schon kaufen, wenn alles glatt geht *freu*

SKYNET
2005-06-03, 11:47:16
Gar nicht sicher. Ist eine logische Schlussfolgerung, wenn er dieses Jahr (Ende 05) noch kommen soll. Denn zeitlich würde es nicht ausreichen, noch groß etwas zu ändern.



naja, bei NV spielt zeit wohl keine rolle.... hat auch keiner gerechnet das der NV40 so ein monster wird.
der wurde ja auch "nebenher" entwickelt zum NV3x.

Ailuros
2005-06-03, 11:47:55
Wobei ich letzteres ziemlich einfach, aber genial finde, solange man mit einer kalkulierbaren Framebuffer-Größe arbeiten kann. Und sorry, wenn das jetzt blasphemisch klingt, 4xAA (wenn wir uns jetzt mal rein auf die Kantenglättungswirkung beschränken) finde ich in der höheren HDTV-Standardauflösung völlig ausreichen.

Bis hin zum Fotorealismus sollte man erstmal an vernünftigem Textur- und Geometriecontent arbeiten, bevor man sich auf die allerletzten Pixeltreppchen stürzt.

Von wirklich advanced HOS sehe ich aber auch nichts selbst in WGF2.0; beim R500 wird ja eine gesunde Portion jeglicher Tesselation auf die CPU verfrachtet.

Blasphemischer im Vergleich zu meiner eigenen vorigen Blasphemie klingt das obrige bestimmt nicht, aber rechne mir mal den Transistoren-Aufwand fuer die 10MB eDRAM aus und bedenke dann dass der Framebuffer Verbrauch fuer MSAA bei 1280*720 bei 1280*720*4*(1+1) fuer einen TBDR liegen wuerde. Hoehere Sample-Anzahlen erhoehen dann lediglich minimal die externen Speicherzugriffe und es werden eben auch mehr Tiles bearbeitet.

Kann man ueberhaupt float HDR mit MSAA auf R500 kombinieren?

seahawk
2005-06-03, 11:53:37
Wie sicher ist es eigentlich dass G80 der 90nm-refresh von G70 ist? Ich hab natuerlich keine Ahnung was das Thema betrifft, aber warum nicht auch G7x?

Gibt es ueberhaupt irgendwelche Anzeichen in heutigen Treibern die auf >dx9.0 Funktionalitaeten deuten?

Sagen wir es ist eine der Möglichkeiten.

Bendeke, dass NV ja angeblich auch immer einen Shrink vom NV45 andachte. Momentan gehe ich davon aus, dass G80 mehr ist als ein G70@90nm. Wobei ich nicht mehr Funktionaölität erwarte. Also immer noch ein SM3.0 Chip.

Ailuros
2005-06-03, 12:08:33
Sagen wir es ist eine der Möglichkeiten.

Bendeke, dass NV ja angeblich auch immer einen Shrink vom NV45 andachte. Momentan gehe ich davon aus, dass G80 mehr ist als ein G70@90nm. Wobei ich nicht mehr Funktionaölität erwarte. Also immer noch ein SM3.0 Chip.

Was fuer ein "shrink" fuer welchen "NV45"? Mir war nur stets ein NV45 bekannt als NV40 + PCI-E.

Natuerlich wird der 90nm chip nur SM3.0 sein.

robbitop
2005-06-03, 12:18:23
naja, bei NV spielt zeit wohl keine rolle.... hat auch keiner gerechnet das der NV40 so ein monster wird.
der wurde ja auch "nebenher" entwickelt zum NV3x.
Die wurde nicht nebenher entwickelt sondern danach. Die Entwicklung des reinen NV30 Designs war Anfang 2002 abgeschlossen und dann begann die Entwicklung von NV40. Man erhöte dort lediglich die Granularität (aufspaltung des Shadercores) und die Anzahl an Ausführungseinheiten und ein paar kleinere Änderungen (FP16 ROPs/TMUs/VP/die vollendung der dynamischen Flusskontrolle/Verzweigung/Sprünge ...vieles war schon im NV30 Design vorbereitet). Ich würde es mit der Entwicklung vom R200 -> R300 gleichsetzen. Es war einiges zu tun aber nicht übermäßig. Das Ergebnis hingegen war klasse, die Entwicklungsdauer kommt auch ungefähr hin.

seahawk
2005-06-03, 12:33:49
Was fuer ein "shrink" fuer welchen "NV45"? Mir war nur stets ein NV45 bekannt als NV40 + PCI-E.

Natuerlich wird der 90nm chip nur SM3.0 sein.

Die NV47/48 Gerüchte. Einer war ein Chip mit mehr Pipes, der andere eine höher taktende Version des NV45 mit nativer PCI-E Unterstützung.

deekey777
2005-06-03, 14:26:58
Naechtsten Monat kann man den G70 schon kaufen, wenn alles glatt geht *freu*

Wenn die Vorstellung am 22. Juni (am 21. Juni (http://www.gamespot.com/news/2005/06/02/news_6126883.html) ist, könnte es knapp werden. ;)

Wenn ich den Leistungssprung aus dem letzten Jahr bedenke, bekomme ich Angst.

Winter[Raven]
2005-06-03, 14:28:39
Wenn die Vorstellung am 22. Juni (am 21. Juni (http://www.gamespot.com/news/2005/06/02/news_6126883.html) ist, könnte es knapp werden. ;)

Wenn ich den Leistungssprung aus dem letzten Jahr bedenke, bekomme ich Angst.

Nvidia scheint selber nicht zuwissen was die nun die G7x Reihe präsentieren wollen. Viele meinten die Offizielle vorstellung würde wenige Tage nach Comdex kommen, also vielleicht nächste Woche *gg*

Godmode
2005-06-03, 14:39:20
http://www.heise.de/newsticker/meldung/60220

50 % effizienter, jetzt stellt sich die Frage ob das nur Marketingquatch ist, oder wurde etwa doch was geändert? Wie sie aber die Performance von 2x6800U mit nur 700MHz Speicher erreichen wollen ist mir noch ziemlich unklar.

ShadowXX
2005-06-03, 14:53:02
50 % effizienter, jetzt stellt sich die Frage ob das nur Marketingquatch ist, oder wurde etwa doch was geändert? Wie sie aber die Performance von 2x6800U mit nur 700MHz Speicher erreichen wollen ist mir noch ziemlich unklar.


Wenn Sie denn überhaupt 700MHz-Speicher benutzen.....so klar ist das nicht.

Auf den relativ offiziell wirkenden nv-Folien war von 38.4GB/s Bandbreite die Rede....das wären aber nur 600MHz Speicherchips.

Wobei ich mir das inzwischen auch nicht mehr vorstellen kann...zumindest für die GTX.

r3ptil3
2005-06-03, 14:56:59
http://www.giga.de/index.php?storyid=120380

Falls die 7800 x wirklich schon im Handel steht dann denke ich das ATi nicht länger warten wird.

Gast
2005-06-03, 15:20:34
@Gast (Konsolenfreund)

für sowas wirst du keine präzise Quelle bekommen können, da solche Dinge eben nie direkt in die Öffentlichkeit ohne PR Kram kommen.
Meine Behauptungen basieren auf Aussagen von Entwicklern und Leuten mit verdammt guten Quellen (bsw Dave Bauman) und meinen eigenen Quellen. Hinzu kommt natürlich Erfahrung und Abschätzung, was mit gegebenen R&D und Geldmitteln in etwa möglich ist. Schau dich einfach mal eine Weile auf Beyond3D um, dann wirst du zu ähnlichen Schlussfolgerungen kommen.

Nintendo6 wird btw vermutlich ebenso einen R500 Ableger bekommen. Ich würde an deiner Stelle nicht alles glauben, was das Marketing sagt. Die Entwicklung eines Designs kostet heutzutage 400 Mio $. Und dazu will man noch Gewinn machen. Das holst du nie durch bloß einen einzigen Konsolendeal rein. Deswegen setzt man diese Technologie noch woanders ein (Nintendo6 und den aufgebohrten R500 aka R600 im PC Bereich). Andernfalls würde sich soetwas nicht lohnen. Man verkauft schließlich nur IP.
Die bezeichnen auch mal sehr sehr schnell einen Chip als "neue Architektur".
R500 ist nämlich auch nur ein aufgebohrter R400, den man sowieso schon in der Schublade hatte. An Shaderunits ändert man in gleichen Architekturserien kaum/nichts. Das sind tiefe Eingriffe in den Pixelprozessor, das kostet viel zu viel Zeit und Entwicklungskosten.

Und natürlich wäre eDRAM für RSX denkbar, allerdings warb man damit nicht. Somit ist die Wahrscheinlichkeit gering, dass dieser vorhanden ist. Das sagen sogar Entwickler wie Demirug.

edit: wäre schön, wenn du dich hier im 3DC Forum registrieren würdest und wir ein neues interessantes Member bekämen :up:
Ich habe ja auch nie abgestritten, dass der R500 auf Basis des R400 entwickelt wurde und somit Ähnlichkeiten vorhanden sind. Nur wurde in diversen Interviews gesagt, dass der R500 nach Micorsoft Wünschen entwickelt wurde und wieviel Ähnlichkeit der R500 noch mit dem eigentlichen R400 ist meiner Meinung nach unbekannt, auch wenn deine Mutmaßung deswegen nicht falsch sein muss. Aber es ist halt eine Mutmaßung, weil man die Specs des R400 nur sehr grob kennt. Für mich hört sich das alles bisher schon so an, dass der R500 != R400 ist, auch wenn der R500 keine von grundauf neu entwickelte Architektur darstellt.

Was Nintendo angeht vertrete ich auch eine andere Meinung ;). Ich würde nicht denken, dass sie einen R500 Ableger bekommen, sondern einen R520 Ableger ohne Unified Shader. Wobei man ja so weit ich weiß nichtmal genau weiß, wie genau der R520 aussehen wird und wie er die SM3.0 Funktionalität erlangen wird. Jedenfalls denke ich, dass Microsoft die R500 Architektur exklusiv für die Xbox 360 bekommt und Nintendo was anderes bekommen wird.

Und was den RSX angeht - man warb ja eigentlich kaum mit dem RSX seitens Sony. Außer der nichtssagende Vergleich zwischen der Rohpower zwei 6800Ultras gab es nichts zu hören. Also entweder der RSX ist wirklich nicht mehr als eine PC GPU mit Cell Interface, oder aber Sony hat es schlicht nicht für nötig gehalten zum Zeitpunkt der E3 mit dem RSX zu werben, weil dieser noch nicht sein finales Tapeout hatte und Sony sich noch Raum für Änderungen offen lassen will. Ich denke der RSX wird sich deutlich vom G70 unterscheiden. Aber das ist natürlich nur so ein Gefühl, was mir sagt, dass Sony nicht die Art Konsolenhersteller ist, die einfach einen G70 in deren Cell Konsolen reinflanschen. Auch das noch nicht erfolgte Tapeout deutet darauf hin, dass RSX != G70 ist und das nicht nur, weil Sony das Teil fertigen lässt. Ich bin wirklich mal gespannt was beim RSX am Ende rauskommt. Und wenn Sony beim Start der Xbox 360 Werbekampagne die Specs des RSX bekannt gibt, ggf. sogar verlauten lässt, dass man beim RSX über 16MB eDRAM verfügt, wäre das ein ideales Beispiel für kontolliertes Marketing.

Und danke für die nette Einladung, aber als Gast fühl ich mich zur Zeit wohl. ;)


Konsolenfreund

DrumDub
2005-06-03, 15:27:46
Ich denke der RSX wird sich deutlich vom G70 unterscheiden. hmmm... obs wirklich soe deutlich ist, bis auf das interface: Nvidia has indicated in the past that its next-generation desktop GPU will be similar to the GPU designed for the Sony PlayStation 3. http://www.gamespot.com/news/2005/06/02/news_6126883.html

Gast
2005-06-03, 15:45:59
hmmm... obs wirklich soe deutlich ist, bis auf das interface: http://www.gamespot.com/news/2005/06/02/news_6126883.html
Naja, da wird ja nur Bezug genommen auf irgendwelche Andeutungen, die wir schon alle kennen, nämlich dass der RSX Technolgien vom G70/G80 nutzt. Das bestreite ich ja auch garnicht. Somit wird der RSX schon Ähnlichkeiten zum G70 aufweisen, nur ist das natürlich alles ziemlich schwammig und Ähnlichkeiten zwischen G70 und RSX bedeuten ja nicht zwingend: G70 = RSX plus Cellinterface.

Konsolenfreund

DrumDub
2005-06-03, 16:06:16
Naja, da wird ja nur Bezug genommen auf irgendwelche Andeutungen, die wir schon alle kennen, nämlich dass der RSX Technolgien vom G70/G80 nutzt. Das bestreite ich ja auch garnicht. Somit wird der RSX schon Ähnlichkeiten zum G70 aufweisen, nur ist das natürlich alles ziemlich schwammig und Ähnlichkeiten zwischen G70 und RSX bedeuten ja nicht zwingend: G70 = RSX plus Cellinterface.

Konsolenfreund stimmt auch wiederum. warten wirs einfach ab... ;)

reunion
2005-06-03, 20:26:42
Auch nicht unintressant:

NV40:
http://img152.echo.cx/my.php?image=116ao.jpg

G70:
http://img152.echo.cx/my.php?image=107mj.jpg

Wobei es so aussieht, also ob der G70-Core "höher" ist als der NV40.
Was zusammen mit dem 110nm Prozess wohl auf eine beachtliche Transistorenzunahme schließen lässt.

BvB123
2005-06-03, 20:36:21
Auch nicht unintressant:

NV40:
http://img152.echo.cx/my.php?image=116ao.jpg

G70:
http://img152.echo.cx/my.php?image=107mj.jpg

Wobei es so aussieht, also ob der G70-Core "höher" ist als der NV40.
Was zusammen mit dem 110nm Prozess wohl auf eine beachtliche Transistorenzunahme schließen lässt.
Jop da sind die 300 denke ich locker geknackt, oder?


Gruß

ShadowXX
2005-06-03, 21:13:01
Jop da sind die 300 denke ich locker geknackt, oder?


Gruß

Es ist wirklich interesant, was nV (und TMSC) aus dem einstigen "nicht-so-gut-für-High-End-und-viele-Transistoren"-110nm Prozess rausholen.

Erinnert ein bisserl an den r300.......

Leonidas
2005-06-03, 21:14:04
ich vermute, dass die x800xt pe letztes jahr nur eine reaktion auf die 6800u war, denn eigentlich war nur die x800xt geplant.


Volltreffer. Die ersten Specs sagten ja auch 500/500 aus. Und dann hat man anfänglich die Existenz einer normalen XT geleugnet, um nicht in den Verdacht zu geraten, daß dies die eigentlich geplante Karte gewesen war. Die Reaktion von nVidia war dann aber ähnlich kindisch: Wenn ihr Pösen eine übertaktete Karte (XT-PE) bringt, dann bringen wir die GF6800 Ultra Extreme.

Naja, Marketing-Spielchen halt ... muß man drüber wegsehen.

Winter[Raven]
2005-06-03, 21:22:25
Auch nicht unintressant:

NV40:
http://img152.echo.cx/my.php?image=116ao.jpg

G70:
http://img152.echo.cx/my.php?image=107mj.jpg

Wobei es so aussieht, also ob der G70-Core "höher" ist als der NV40.
Was zusammen mit dem 110nm Prozess wohl auf eine beachtliche Transistorenzunahme schließen lässt.

Zweites Bild sieht arg nach fake aus...

r3ptil3
2005-06-03, 21:24:49
']Zweites Bild sieht arg nach fake aus...

Ja vorallem weil der Chip so merkwürdig gleichmässig glänzend schwarz ist...

deekey777
2005-06-03, 21:28:57
']Zweites Bild sieht arg nach fake aus...

Dann such nach einem Fehler, zB hier http://www.anandtech.com/tradeshows/showdoc.aspx?i=2434&p=3 .
(Es gibt noch weitere Pics.)

Ich konnte keine finden. Es wäre nur logisch, daß drauf auch mehr Transen drauf sind, bei gleicher DIE Fläche.

r3ptil3
2005-06-03, 21:34:04
Dann such nach einem Fehler, zB hier http://www.anandtech.com/tradeshows/showdoc.aspx?i=2434&p=3 .
(Es gibt noch weitere Pics.)

Ich konnte keine finden. Es wäre nur logisch, daß drauf auch mehr Transen drauf sind, bei gleicher DIE Fläche.

Offiziell ist es aber trotzdem nicht...

Gast
2005-06-03, 22:54:40
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/juni/termin_preis_g70/

SKYNET
2005-06-04, 01:04:35
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/juni/termin_preis_g70/



*rrrr* sehr gute news! :cool:

r3ptil3
2005-06-04, 01:19:04
Boa so LoL, bei den Comments zu dieser News protzen ja alle mit ihren geheimen Quellen. Sagt der eine; Aus meinen geheimen Quellen weis ich das G70 schneller ist. Der andere daraufhin; Und ich weis laut meinen geheimen Quellen das R520 schneller ist! Einfach zum lachen :D

Ailuros
2005-06-04, 11:37:56
Die NV47/48 Gerüchte. Einer war ein Chip mit mehr Pipes, der andere eine höher taktende Version des NV45 mit nativer PCI-E Unterstützung.

NV48 = NV4x mit 512mb ram
NV47 = G70

Ailuros
2005-06-04, 11:42:39
Die wurde nicht nebenher entwickelt sondern danach. Die Entwicklung des reinen NV30 Designs war Anfang 2002 abgeschlossen und dann begann die Entwicklung von NV40. Man erhöte dort lediglich die Granularität (aufspaltung des Shadercores) und die Anzahl an Ausführungseinheiten und ein paar kleinere Änderungen (FP16 ROPs/TMUs/VP/die vollendung der dynamischen Flusskontrolle/Verzweigung/Sprünge ...vieles war schon im NV30 Design vorbereitet). Ich würde es mit der Entwicklung vom R200 -> R300 gleichsetzen. Es war einiges zu tun aber nicht übermäßig. Das Ergebnis hingegen war klasse, die Entwicklungsdauer kommt auch ungefähr hin.

Die Aenderungen erscheinen "klein" nach aussen, wobei sie es IMHLO eigentlich doch nicht so klein sind am Ende.

Erst der WGF2.0 chip wird das Bild vielleicht etwas klarer machen.

Ailuros
2005-06-04, 12:07:55
Wenn Sie denn überhaupt 700MHz-Speicher benutzen.....so klar ist das nicht.

Auf den relativ offiziell wirkenden nv-Folien war von 38.4GB/s Bandbreite die Rede....das wären aber nur 600MHz Speicherchips.

Wobei ich mir das inzwischen auch nicht mehr vorstellen kann...zumindest für die GTX.

RSX soll theoretisch auch nur mit 700MHz GDDR3 auskommen und das bei ~550MHz.

Gedankensporn aber muss nicht unbedingt zutreffen oder relevant sein:

Scalable Performance - With Clarity™ FSAA, IDX IGs achieve high SPS factors using reduced on-chip anti-aliasing, which provides IDX with a significant performance advantage over conventional PC-based IGs. IDX also supports “Performance Tiling”, which subdivides the screen into multiple viewport tiles that effectively reduce the resolution per IGR, thereby increasing the channel’s effective fill rate and enhancing the overall throughput of the IG. Performance Tiling and Clarity enable IDX 2500 to deliver unmatched levels of performance, while maintaining high image quality. With 8 SPS FSAA and trilinear filtering enabled (at 1600 x 1200), IDX 2500 with 1, 2, 4, or 8 IGRs per channel delivers peak, sustained pixel fill performance between 1.6 and 8.97 billion pixels per second—which is approximately twice that of IDX 2000 and between 4 and 20 times the performance of a merchant PC equipped with GeForceFX 6800 Ultra. IDX 2500 delivers the following peak, sustained triangle performance between 8.5 million to 10 million independent triangles per second and 25.6 million to 35 million meshed triangles per second.

Wenig klingt 38GB/sec momentan schon; aber hat Intellisample 4.0 irgendwelche Tricks die einen guten Batzen an Bandbreite sparen beim antialiasing, ist man schon einen Schritt weiter. Es ist nur so eine Idee denn das Ganze macht mir auch nicht unbedingt so Sinn wenn ich auf NV40/35GB denke.

***edit:

ganz so nebenbei: 16c/32z @ 550MHz vs. 16c/32z @ 600MHz ;)

Godmode
2005-06-04, 15:21:09
Mir ist die Montierung der Speicherchips am G70 Board etwas komisch vorgekommen, 4 hinten und 4 vorne! Könnte das auf irgendeine Optimierung hindeuten, oder warum wurde das geändert? Beim NV40 wurden ja auch immer etweder 8 auf einer Seite oder 8 auf beiden bei 512 MB Modellen verbaut!

Demirug
2005-06-04, 15:36:56
Mir ist die Montierung der Speicherchips am G70 Board etwas komisch vorgekommen, 4 hinten und 4 vorne! Könnte das auf irgendeine Optimierung hindeuten, oder warum wurde das geändert? Beim NV40 wurden ja auch immer etweder 8 auf einer Seite oder 8 auf beiden bei 512 MB Modellen verbaut!

Rein termisch ist das natürlich besser.

Im Gegenzug braucht man aber mehr Signalleitungen auf der Platine.

seahawk
2005-06-04, 16:04:58
NV48 = NV4x mit 512mb ram
NV47 = G70

Erinnerst Du Dich nicht an die Gerüchte einer höhertaktenden Version ?

Die aber nie das licht der Welt erblickte.

ShadowXX
2005-06-04, 16:33:51
RSX soll theoretisch auch nur mit 700MHz GDDR3 auskommen und das bei ~550MHz.

Gedankensporn aber muss nicht unbedingt zutreffen oder relevant sein:



Wenig klingt 38GB/sec momentan schon; aber hat Intellisample 4.0 irgendwelche Tricks die einen guten Batzen an Bandbreite sparen beim antialiasing, ist man schon einen Schritt weiter. Es ist nur so eine Idee denn das Ganze macht mir auch nicht unbedingt so Sinn wenn ich auf NV40/35GB denke.

***edit:

ganz so nebenbei: 16c/32z @ 550MHz vs. 16c/32z @ 600MHz ;)

Es stimmt schon....irgendetwas wird sich nV schon dabei gedacht haben.

Man wird sehen (hoffentlich wirklich so bald wie angekündigt), was das "Geheimnis" von Intellisample4 ist.

Wenn nicht...dann haben wir im 3D05 dank höherer Shaderpower zwar knapp 68U-SLI-Ergebnisse vom G70...aber in allen nicht Shaderlastigen sachen "relativ" geringe Steigerungen. Und ab gewissen Auflösungen + hohem AA gehts dann Richtung gleichstand.

Allerdings ist es ja auch nur ein "Refresh"......auch wenn man sich für mein Empfinden diesmal ziemlich viel Zeit gelassen hat.

In knapp 3 Wochen sind wir schlauer....

Godmode
2005-06-04, 16:44:03
Wenn nicht...dann haben wir im 3D05 dank höherer Shaderpower zwar knapp 68U-SLI-Ergebnisse vom G70...aber in allen nicht Shaderlastigen Sachen "relativ" geringe Steigerungen. Und ab gewissen Auflösungen + hohem AA gehts dann Richtung Gleichstand.


Ich denke für zukünftige Spiele wie zb Spiele mit Unreal3 Engine wird die Shaderperformance sicher viel wichtiger sein als sie jetzt noch ist. Ok bei aktuellen Games könnte es dann wirklich nur zu geringen Steigerungen kommen!

Gast
2005-06-04, 17:09:22
Ok bei aktuellen Games könnte es dann wirklich nur zu geringen Steigerungen kommen!
Auch deswegen halte ich den Kauf einer G70 Karte bevor der R520 kommt für ziemlich sinnlos. Und falls die ATI dann deutlich schneller sein sollte auch mit einem Gewissen finanziellen Risiko.

Xmas
2005-06-04, 18:06:33
Im Gegenzug braucht man aber mehr Signalleitungen auf der Platine.
Das musst du mir jetzt aber mal erklären.

Demirug
2005-06-04, 18:23:16
Das musst du mir jetzt aber mal erklären.

Ganz einfach. GDDR Chips haben ein Grid Layout das es erlaubt das 2 Chips welche auf den beiden Seiten des PCBs montiert sind die Daten und Address Leitungen teilen können indem man die Platine einfach komplett durchkontaktiert. Lediglich ein Chip select Signal muss zu jedem Chip getrennt geführt werden.

Bilden nun 2 Chips auf einer Seite einen gemeinsamen Block muss man die Signale entsprechenden vom ersten Chip zu zweiten weiterleiten.

Wie gesagt macht das was nVidia da gemacht hat nur Sinn wenn man die hälfte der Chips bei den 256MB Karten aus termischen Gründen auf der Rückseite haben wollte oder das Ding einen 512 Bit Bus hat. Danach sah das PCB aber nicht unbedingt aus wobei ich es mir dahingehend nicht so genau angeschaut habe.

seahawk
2005-06-04, 18:26:22
Ganz einfach. GDDR Chips haben ein Grid Layout das es erlaubt das 2 Chips welche auf den beiden Seiten des PCBs montiert sind die Daten und Address Leitungen teilen können indem man die Platine einfach komplett durchkontaktiert. Lediglich ein Chip select Signal muss zu jedem Chip getrennt geführt werden.

Bilden nun 2 Chips auf einer Seite einen gemeinsamen Block muss man die Signale entsprechenden vom ersten Chip zu zweiten weiterleiten.

Wie gesagt macht das was nVidia da gemacht hat nur Sinn wenn man die hälfte der Chips bei den 256MB Karten aus termischen Gründen auf der Rückseite haben wollte oder das Ding einen 512 Bit Bus hat. Danach sah das PCB aber nicht unbedingt aus wobei ich es mir dahingehend nicht so genau angeschaut habe.

Oder einen 512 BIt bus haben könnte, wenn man vollbestückt ?

Demirug
2005-06-04, 18:29:36
Oder einen 512 BIt bus haben könnte, wenn man vollbestückt ?

Klar in dem Fall müsste 512 MB bzw. 1GB auf das PCB.

Winter[Raven]
2005-06-04, 18:42:08
Hehe

24Pipes, bei 430 Mhz mit 512 Bit Interface .... und 1 GB Ram ... *schon mal bei der Bannk nach einem Kredit nachfrag*

Naja ... 512 Sehr unwarscheinlich *gg*

Demirug
2005-06-04, 18:44:25
Ich sagte ja das dieses PCB eigentlich nicht nach einem 512 Bit Bus aussah.

Godmode
2005-06-04, 19:16:04
Ich sagte ja das dieses PCB eigentlich nicht nach einem 512 Bit Bus aussah.

Wie erkennt man den ein 512Bit PCB? Zählst du die Layer oder die Leiterbahnen auf dem PCB?

Wenn du dir die beiden Boards hier mal ansiehst:
http://img152.echo.cx/my.php?image=107mj.jpg
http://img152.echo.cx/my.php?image=116ao.jpg

Auf dem G70 Board sind die Leiterbahnen zu den Speicherchips nicht in der obersten Schicht, beim NV40 hingegen schon! Was könnte das in sich haben?

Demirug
2005-06-04, 19:30:39
Die Schicht in welcher die Bahnen verlaufen ist relative egal solange die Schirmung stimmt.

Gerade die Verbindungen zwischen den beiden Chips auf einer Seite lässt mich eben glauben das es kein 512 Bit Bus ist. Ich müsste allerdings die genaue Pinbelegung ruasholen und schauen welche Signale da verbunden sind.

Xmas
2005-06-04, 19:55:10
Ganz einfach. GDDR Chips haben ein Grid Layout das es erlaubt das 2 Chips welche auf den beiden Seiten des PCBs montiert sind die Daten und Address Leitungen teilen können indem man die Platine einfach komplett durchkontaktiert. Lediglich ein Chip select Signal muss zu jedem Chip getrennt geführt werden.

Bilden nun 2 Chips auf einer Seite einen gemeinsamen Block muss man die Signale entsprechenden vom ersten Chip zu zweiten weiterleiten.
Das ist mir bekannt, nur woran siehst du denn bitte, dass hier 2 Chips auf einer Seite einen Block bilden? ;)
IMO hat sich diesbezüglich gegenüber dem NV40-PCB nichts geändert, es ist bei halber Bestückung doch egal ob der einzige Chip pro Block auf der Vorderseite oder der Rückseite ist.

http://img16.echo.cx/my.php?image=023yh.jpg
http://img16.echo.cx/my.php?image=032wi.jpg
Es sind nicht dieselben Pads bestückt.

Demirug
2005-06-04, 20:07:10
Das ist mir bekannt, nur woran siehst du denn bitte, dass hier 2 Chips auf einer Seite einen Block bilden? ;)
IMO hat sich diesbezüglich gegenüber dem NV40-PCB nichts geändert, es ist bei halber Bestückung doch egal ob der einzige Chip pro Block auf der Vorderseite oder der Rückseite ist.

http://img16.echo.cx/my.php?image=023yh.jpg
http://img16.echo.cx/my.php?image=032wi.jpg
Es sind nicht dieselben Pads bestückt.

OK, du hast gewonnen. Das es nicht der gleiche Platz ist habe ich doch glatt übersehen.

Dann hat man das wohl wirklich nur aus termischen Gründen gemacht.

Gast
2005-06-04, 20:09:50
Erinnerst Du Dich nicht an die Gerüchte einer höhertaktenden Version ?

Die aber nie das licht der Welt erblickte. wieso? der nv45 (6800u pcie) ist doch mit 425mhz getaktet und entspricht damit der damals angekündigten extrem variante.

Gast
2005-06-04, 20:10:38
die ultra-extreme sollte 450MHz haben

Gast
2005-06-04, 20:13:27
die ultra-extreme sollte 450MHz haben

Eine ultra extrem hat es und wird es bei der 6-er Reihe nie geben! Ultra Extrem stand laut nvidia nur dafür das man die ultra meistens höher takten kann als 400mhz!

r3ptil3
2005-06-04, 20:16:53
Eine ultra extrem hat es und wird es bei der 6-er Reihe nie geben! Ultra Extrem stand laut nvidia nur dafür das man die ultra meistens höher takten kann als 400mhz!

Nur von Gainward gab/gibt es eine 6800 Ultra mit Wakü die mit 450/600mhz taktet aber auch eben KEINE Ultra Extreme.http://www.digitec.ch/index2.php?artikel=111081&referer=Toppreise

Ailuros
2005-06-05, 02:51:03
Es stimmt schon....irgendetwas wird sich nV schon dabei gedacht haben.

Man wird sehen (hoffentlich wirklich so bald wie angekündigt), was das "Geheimnis" von Intellisample4 ist.

Wenn nicht...dann haben wir im 3D05 dank höherer Shaderpower zwar knapp 68U-SLI-Ergebnisse vom G70...aber in allen nicht Shaderlastigen sachen "relativ" geringe Steigerungen. Und ab gewissen Auflösungen + hohem AA gehts dann Richtung gleichstand.

Allerdings ist es ja auch nur ein "Refresh"......auch wenn man sich für mein Empfinden diesmal ziemlich viel Zeit gelassen hat.

In knapp 3 Wochen sind wir schlauer....

Falls es stimmt dass R520 nur ausschliesslich FP32 unterstuetzt, braucht sie auch etwas mehr Bandbreite als G70 ;)

Ailuros
2005-06-05, 02:52:44
Erinnerst Du Dich nicht an die Gerüchte einer höhertaktenden Version ?

Die aber nie das licht der Welt erblickte.

Es gab sogar Leistungsnummern von dem Ding; wirklich der Rede wert war es aber nicht. Kein Wunder dass ein solches Modell nie veroeffentlicht wurde.

ShadowXX
2005-06-05, 10:50:00
Falls es stimmt dass R520 nur ausschliesslich FP32 unterstuetzt, braucht sie auch etwas mehr Bandbreite als G70 ;)

Nur FP32?.....uppss. Das könnte (ich sage extra könnte) ein Problem für ATI sein.
Dann sollten Sie definitiv mindestens auf 700MHz-Speicher warten.

Das könnte endlich auch mal sinnig die Verzögerungstaktik von ATI erklären (wobei ich schon immer der Meinung war, das ATI nur auf besseren Speicher wartet).

Interesant ist das wir alle diesmal nicht so sehr auf die Feature-Specs gespannt sind (ok, beim G70 wohl sowieso nix neues im Westen), sondern mehr auf die Lösungen für Bandbreiten & Co Probleme.

Wobei mich ATIs Ansatz für SM3.0 natürlich auch interessiert (ich hoffe auf einen Demi od. aths Artikel...)

Godmode
2005-06-05, 11:35:50
Falls es stimmt dass R520 nur ausschliesslich FP32 unterstuetzt, braucht sie auch etwas mehr Bandbreite als G70 ;)

Bin mir jetzt nicht mehr sicher aber bringt das PP-Flag beim NV40 viel Performance?

Gast
2005-06-05, 12:33:03
Bin mir jetzt nicht mehr sicher aber bringt das PP-Flag beim NV40 viel Performance?


kommt immer darauf an was man damit macht, bei einigen befehlen bringt es praktisch garnichts, bei anderen sehr viel, aber mehr register frei zu haben ist immer schön.

der NRM-befehl braucht imo in FP32 2 takte während er in FP16 quasi "nebenher" (also im prinzip 0 takte sofern die pipeline auch was anderes zum rechnen hat) erledigt werden kann.

Godmode
2005-06-05, 12:59:42
kommt immer darauf an was man damit macht, bei einigen befehlen bringt es praktisch garnichts, bei anderen sehr viel, aber mehr register frei zu haben ist immer schön.

der NRM-befehl braucht imo in FP32 2 takte während er in FP16 quasi "nebenher" (also im prinzip 0 takte sofern die pipeline auch was anderes zum rechnen hat) erledigt werden kann.

Zum Thema Register, diese sind ja beim NV40 bekanntlich noch immer etwas zu klein, könnten also beim G70 (etwas) vergrößert worden sein.

Gast
2005-06-05, 13:19:19
die ultra-extreme sollte 450MHz haben ah ok. dacht es waren nur 425mhz für die ue vorgesehen.

Xmas
2005-06-05, 15:17:09
Falls es stimmt dass R520 nur ausschliesslich FP32 unterstuetzt, braucht sie auch etwas mehr Bandbreite als G70 ;)
Welche Bandbreite meinst du jetzt? Register<->ALU?

Adam D.
2005-06-05, 16:25:57
Wann soll der G70 vorgestellt werden? Am 21. Juni? Komisch, dass genau an diesem Tag die 2. Geforce-LAN (http://www.pdxlan.com/geforcelan/news.php) stattfindet. Battlefield-2-Contest auf G70-Rechner...Wetten? X-D

"PLUS, attendees will be the first to experience the next big thing from NVIDIA.... "

Damit ist wohl bestätigt, was seit Langem klar war.

r3ptil3
2005-06-05, 16:38:13
Wann soll der G70 vorgestellt werden? Am 21. Juni? Komisch, dass genau an diesem Tag die 2. Geforce-LAN (http://www.pdxlan.com/geforcelan/news.php) stattfindet. Battlefield-2-Contest auf G70-Rechner...Wetten? X-D

"PLUS, attendees will be the first to experience the next big thing from NVIDIA.... "

Damit ist wohl bestätigt, was seit Langem klar war.

Ich finde das ist Perfekt, zuerst Battlefield zocken dann noch ein Casemod. Wettbewerb und schlussendlich die Creme de la Creme -GEFORCE 7800 xxx- Vorstellung.

Gast
2005-06-05, 17:26:31
ich glaub er meint damit dass battlefield auf nvidia optimiert sein soll lol

Gast
2005-06-05, 17:29:01
ich glaub er meint damit dass battlefield auf nvidia optimiert sein soll lol
Waren die Teile vorher auch. Und trotzdem waren die ATI Karten um Einiges schneller.

Adam D.
2005-06-05, 17:34:24
Man, was ihr da immer reininterpretiert...

Ich hab nur wiedergegeben, was in der Beschreibung stand. Außerdem ist es mir egal, ob ATi da immer schneller gewesen ist :rolleyes:

dildo4u
2005-06-05, 17:35:48
Waren die Teile vorher auch. Und trotzdem waren die ATI Karten um Einiges schneller.
Stimmt beides nicht.

http://img113.echo.cx/img113/1425/image0198lb.gif

http://img113.echo.cx/img113/1127/image0208kn.gif

Jedenfalls find ich 2 und 7Fps mher nicht wirklich wesentlich besser.

http://www.de.tomshardware.com/graphic/20041229/vga-charts-pcie-08.html

Gast
2005-06-05, 18:18:35
Stimmt beides nicht.

http://img113.echo.cx/img113/1425/image0198lb.gif

http://img113.echo.cx/img113/1127/image0208kn.gif

Jedenfalls find ich 2 und 7Fps mher nicht wirklich wesentlich besser.

http://www.de.tomshardware.com/graphic/20041229/vga-charts-pcie-08.html
Wie stimmt beides nicht? Die ATI Karten sind schneller (bei anderen Tests fällt das Ergebniss drastischer aus) und das Spiel war auf nVidia optimert. Die haben sogar vor Erscheinen noch damit geworben.

r3ptil3
2005-06-05, 18:33:38
Kann das jemand lesen? -> http://www.hardspell.com/news/showcont.asp?news_id=13528

steht irgendwas von G70 7800 und 3d mark 05

mapel110
2005-06-05, 18:40:54
Kann das jemand lesen? -> http://www.hardspell.com/news/showcont.asp?news_id=13528

steht irgendwas von G70 7800 und 3d mark 05
Das Datum auf der Seite ist recht aufschlussreich 20.05.05 ;)

Gast
2005-06-05, 18:46:06
da steht wenn ich das richtig verstanden have (translator) dass er 500 Mhz core clock haben wird und 1400 Speicher bei 24 pipes und dass der chip auf 512 gehen soll.

dildo4u
2005-06-05, 18:47:06
da steht wenn ich das richtig verstanden have (translator) dass er 500 Mhz core clock haben wird und 1400 Speicher bei 24 pipes und dass der chip auf 512 gehen soll.
512mb ist die Speicheraustattung logischerweise.

Ronny145
2005-06-05, 18:49:26
Kann das jemand lesen? -> http://www.hardspell.com/news/showcont.asp?news_id=13528

steht irgendwas von G70 7800 und 3d mark 05


Mit den 7800 Punkten vom G70 wurde schon vor einiger Zeit diskutiert.

dildo4u
2005-06-05, 18:55:29
Mit den 7800 Punkten vom G70 wurde schon vor einiger Zeit diskutiert.
Bei 24 pipes und 500mhz kommt whol weit mher raus.

mapel110
2005-06-05, 18:57:16
Bei 24 pipes und 500mhz kommt whol weit mher raus.
Nö, der 3Dmark ist doch geil auf Vertexshaderleistung, und da muss es ja nicht zwangsläufig eine Steigerung gegeben haben.
Außerdem siehts derzeit eher nach 400-450 Mhz Coretakt aus.

Ronny145
2005-06-05, 18:57:24
Bei 24 pipes und 500mhz kommt whol weit mher raus.


Das kam mir auch wenig vor. Einige meinten das sei in Ordnung. Aber die Diskussion gab es hier schon.

dildo4u
2005-06-05, 18:59:56
Das kam mir auch wenig vor. Einige meinten das sei in Ordnung. Aber die Diskussion gab es hier schon.
mit 7800 ist hier whol auch eher die Bezeichung gemeint.

r3ptil3
2005-06-05, 19:00:56
Mit den 7800 Punkten vom G70 wurde schon vor einiger Zeit diskutiert.

Aha 7800 Punkte ich dachte 7800 steht für Geforce 7800 in diesem Artikel.

Ronny145
2005-06-05, 19:16:54
Aha 7800 Punkte ich dachte 7800 steht für Geforce 7800 in diesem Artikel.


Hab mir den Artikel nicht genau angesehen, kann sein. Aber mit 7800 3dmark05 Punkten war hier mal was.

Kobolds|Er@ser
2005-06-05, 23:06:52
für den Fall, daß schon alt - sorry!

Bilder des G70: http://winfuture.de/news,20840.html

Godmode
2005-06-06, 11:02:27
für den Fall, daß schon alt - sorry!

Bilder des G70: http://winfuture.de/news,20840.html

Also den Speicherchip im letzten Bild hab ich nachgegoogelt und das ist wirklich nur ein 600Mhz Baustein

http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/256Mbit/K4J55323QF/K4J55323QF.htm

und 8 von denen ergeben dann 256BIT also definitiv kein 512 Interface auf dieser Karte. Ich weiß nicht wie es ist wenn man 16 davon montiert, aber Demirung hat schon mal gesagt dass dann ein Selektor verwendet wird, weil sich 2 Chips immer die gleichen Leiterbahnen teilen müssen.

Quasar
2005-06-06, 11:03:14
können, nicht müssen. :)

ShadowXX
2005-06-06, 11:09:09
Also den Speicherchip im letzten Bild hab ich nachgegoogelt und das ist wirklich nur ein 600Mhz Baustein

http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/256Mbit/K4J55323QF/K4J55323QF.htm

und 8 von denen ergeben dann 256BIT also definitiv kein 512 Interface auf dieser Karte. Ich weiß nicht wie es ist wenn man 16 davon montiert, aber Demirung hat schon mal gesagt dass dann ein Selektor verwendet wird, weil sich 2 Chips immer die gleichen Leiterbahnen teilen müssen.

Wie gesagt....die 600MHz passen perfekt zur (sehr wahrscheinlich von) nV (stammenden) Folie mit ihren 38.4GB/s.

Es passt auch zu einem alten Posting wo ein Forumsmember einen nV-Mitarbeiter auf einer nV/MSI-Präsi gefragt hatte und dieser mit "600MHz antwortete".

Und wenn das alles zusammenpasst, verneinen die 38.4GB/s sowieso ein 512Bit Interface.

Ich hoffe immer noch (wenn ich es auch nicht glaube), das nV irgendetwas extremes an der Bandbreitenoptimierung gedreht hat, sonst haben wir wirklich nur in Shaderlastigen Anwendungen ein "richtiges" Leistungsplus.

Es ist halt nur ein (sehr verspäteter) Refresh.....

Godmode
2005-06-06, 11:09:49
können, nicht müssen. :)

ok können ist besser!

wenn es ein 512BIT Interface !wäre! müssten dann von jedem FPGA Baustein alle 144(minus Versorungs) Leitungen zum Chip gehen?

Godmode
2005-06-06, 11:15:21
Wie gesagt....die 600MHz passen perfekt zur (sehr wahrscheinlich von) nV (stammenden) Folie mit ihren 38.4GB/s.

Es passt auch zu einem alten Psoting wo ein Forumsmember einen nV-Mitarbeiter auf einer nV/MSI-Präsi gefragt hatte und dieser mit "600MHz antwortete".

Und wenn das alles zusammenpasst, verneinen die 38.4GB/s sowieso ein 512Bit Interface.

Ich hoffe immer noch (wenn ich es auch nicht glaube), das nV irgendetwas extremes an der Bandbreitenoptimierung gedresht hat, sonst haben wir wirklich nur in Shaderlastigen Anwendungen ein "richtiges" Leistunsgplus.

Es ist halt nur ein (sehr verspäteter) Refresh.....

Ja das hab ich glatt wieder vergessen das mit NV Mitarbeiter. Ok da kann ich dir nur zustimmen, sonst wird der G70 nicht das was sich alle erwarten.

Hat wer eine Idee was man da noch komprimieren könnte? ich sag mal 5 MIO Transistoren(nur ein Wert) für eine Komprimierungstechnik sind sicher viel viel billiger als ein 512Bit Interface. Die Frage ist nur kann man überhaupt noch etwas viel mehr komprimieren?

Gast
2005-06-06, 13:45:46
framebuffer-kompression auch ohne FSAA könnte sicher noch einiges effizienter als beim NV40 sein.

ShadowXX
2005-06-06, 14:01:45
framebuffer-kompression auch ohne FSAA könnte sicher noch einiges effizienter als beim NV40 sein.

Schon....nur ohne FSAA brauch ich auch nicht unbedingt mehr Bandbreite.

Gast
2005-06-06, 15:00:39
bei der menge an füllrate schon.

allerdings denke ich dass in zukunft sowieso immer mehr die rechenleistung zum entscheidenden faktor wird und nicht die bandbreite, splinter cell 3 zeigt schon in diese rechnung.

wenn ich in einer pipeline sowieso >10 Takte für ein pixel brauch, spielte es auch keine große rolle mehr wenn ich bei 24 pipelines real vielleicht nur 10 pixel/takt schreiben kann.


eine weitere möglichkeit den bandbreitenverbrauch zu vermindern fällt mir auch gerade ein:

nvidia könnte alá deltachrome einen per treiber erzwungenen z-only-pass einlegen und damit den overdraw auf 0 drücken.

gerade bei der massiven z-leistung der geforce-karten bietet sich das geradezu an und gerade wenn pixel immer mehr takte brauchen um gerendert zu werden sollte das eigentlich immer wichtiger werden.

robbitop
2005-06-06, 15:55:38
nvidia könnte alá deltachrome einen per treiber erzwungenen z-only-pass einlegen und damit den overdraw auf 0 drücken.


Auch S3 nutzt den nicht (man wollte es ursprünglich, ließ es dann aber).
NVIDIA/ATI machen es nicht, da es anscheinend nicht lohnt. Offenbar ist Early Z Culling im unsorted rendering schon so gut, dass ein Z-Pass, der den Z Puffer schon fertig schreibt, im Durchschnitt anscheinend nicht besser ist.

DavChrFen
2005-06-06, 16:19:35
Wird es den G70 auch auf AGP-Karten geben?

mapel110
2005-06-06, 16:20:49
Wird es den G70 auch auf AGP-Karten geben?
Ja. :)

aths
2005-06-06, 18:24:45
bei der menge an füllrate schon.

allerdings denke ich dass in zukunft sowieso immer mehr die rechenleistung zum entscheidenden faktor wird und nicht die bandbreite, splinter cell 3 zeigt schon in diese rechnung.

wenn ich in einer pipeline sowieso >10 Takte für ein pixel brauch, spielte es auch keine große rolle mehr wenn ich bei 24 pipelines real vielleicht nur 10 pixel/takt schreiben kann.


eine weitere möglichkeit den bandbreitenverbrauch zu vermindern fällt mir auch gerade ein:

nvidia könnte alá deltachrome einen per treiber erzwungenen z-only-pass einlegen und damit den overdraw auf 0 drücken.

gerade bei der massiven z-leistung der geforce-karten bietet sich das geradezu an und gerade wenn pixel immer mehr takte brauchen um gerendert zu werden sollte das eigentlich immer wichtiger werden.Ganz auf Null bekommt man den Overdraw damit nicht. Ein Extra-Pass kostet massiv Geometrie-Leistung, und belastet auch die CPU. Die massive Z-Leistung ist vor allem fürs Antialiasing wichtig.

Demirug
2005-06-06, 18:43:20
Ganz auf Null bekommt man den Overdraw damit nicht. Ein Extra-Pass kostet massiv Geometrie-Leistung, und belastet auch die CPU. Die massive Z-Leistung ist vor allem fürs Antialiasing wichtig.

Dann werfen ich mal wieder mit Schlagwörter um mich: "Conditional High Level Object Culling"

robbitop
2005-06-06, 18:53:45
Dann werfen ich mal wieder mit Schlagwörter um mich: "Conditional High Level Object Culling"
Könntest du das näher ausführen?

aths
2005-06-06, 19:09:43
Dann werfen ich mal wieder mit Schlagwörter um mich: "Conditional High Level Object Culling"Das wird doch mehr oder weniger eh gemacht, wenn ich den Stand in der 3D-Engine-Technik richtig kenne. Problematisch ist natürlich herauszufinden, ob ein Objekt erst durch mehrere Objekte verdeckt wird.

Coda
2005-06-06, 19:14:08
Könntest du das näher ausführen?Ich denke er meint NVX_conditional_render. Damit kannst du abhängig von einem Occlusion Query weitere Geometrie rendern oder verwerfen.

Demirug
2005-06-06, 19:47:38
Das wird doch mehr oder weniger eh gemacht, wenn ich den Stand in der 3D-Engine-Technik richtig kenne. Problematisch ist natürlich herauszufinden, ob ein Objekt erst durch mehrere Objekte verdeckt wird.

Nein, das was ich meine braucht wie Coda schon sagte API unterstüzung weil es der Chip nicht aleine kann.

Ailuros
2005-06-06, 19:52:33
Nein, das was ich meine braucht wie Coda schon sagte API unterstüzung weil es der Chip nicht aleine kann.

Ergo (vorruebergehend?) ausschliesslich OpenGL?

Demirug
2005-06-06, 19:58:08
Ergo (vorruebergehend?) ausschliesslich OpenGL?

Selbst unter OpenGL ist das ganze noch experimentel.

Was DX angeht müsste sich nVidia aber wirklich einen Trick einfallen lassen.

Coda
2005-06-06, 20:14:41
Ist das nicht in WGF 2.0 auch vorgesehen?

(del676)
2005-06-06, 23:58:32
an der maximalen texturgröße (imho 4096x4096) wird sich wohl nichts ändern oder?
4xSSAA wär in 1280 nämlich auch ned so schlecht :)

Quasar
2005-06-07, 00:39:20
Vermutlich erstmal nicht.

Ailuros
2005-06-07, 00:47:45
Selbst unter OpenGL ist das ganze noch experimentel.

Was DX angeht müsste sich nVidia aber wirklich einen Trick einfallen lassen.

PPP abuse (possibly)?

***edit: irgend etwas interessantes in letzter Zeit aus dem "patent watch"? Normalerweise verfolgst Du ja das Zeug....(jegliches nicht nur was culling betrifft).

Gast
2005-06-07, 09:55:37
an der maximalen texturgröße (imho 4096x4096) wird sich wohl nichts ändern oder?
4xSSAA wär in 1280 nämlich auch ned so schlecht :)

4x SSAA (2x2) geht von der rendertargetgröße bist 2048²

robbitop
2005-06-07, 10:04:38
4x SSAA (2x2) geht von der rendertargetgröße bist 2048²
Er meinte 4x4 SSAA.

Gast
2005-06-07, 12:44:22
Er meinte 4x4 SSAA.

naja das sind bei mir aber 16 subpixel ;)

allerdings glaub ich auch kaum dass ein vernünftiger einsatz selbst auf dem G70 in höheren auflösungen als 1024x768 möglich wäre ;)

aber nvidia könnte ja einen 3x4-modus einbauen, der würde in 1280x1024 auch noch funktionieren ;)

robbitop
2005-06-07, 12:59:48
naja das sind bei mir aber 16 subpixel ;)

allerdings glaub ich auch kaum dass ein vernünftiger einsatz selbst auf dem G70 in höheren auflösungen als 1024x768 möglich wäre ;)

aber nvidia könnte ja einen 3x4-modus einbauen, der würde in 1280x1024 auch noch funktionieren ;)
Er hat nur die "4" nicht getippt. Tippfehler halt ;)
Ich denke 4x4 SSAA ist besonders gut für alte Spiele, wo viel AT zum Einsatz kommt. Dort sollte G70 oder G70 SLI schnell genug sein.

Quasar
2005-06-07, 22:44:49
Ob der G70 evtl. ein richtiger DUAL-Core Chip werden könnte?

2*nV42 auf einem Die - komplett getrennt ansonsten. Damit könnte man auch prima mehrere Bildschirme 3D-Beschleunigen, in denen komplett unterschiedliche Anwendungen laufen. Wäre nicht übel für die Quadro-Serie.

Dazu könnte dann in der angeblich noch hinter dem Berg gehaltenen "Ultra" auch die 512 MB mit einem doppelten 256Bit-DDR Interface angesprochen werden. Doppelseitige Bestückung und schon 256Bit bei acht Chips lassen grüßen.

"Normal"-Versionen könnten durch selektives Abschalten nach aussen hin als 20, 16 oder 12-Pipe-Version auftreten. Auch hier mit variablen Speicherbussen.

Raff
2005-06-07, 22:48:26
Er hat nur die "4" nicht getippt. Tippfehler halt ;)
Ich denke 4x4 SSAA ist besonders gut für alte Spiele, wo viel AT zum Einsatz kommt. Dort sollte G70 oder G70 SLI schnell genug sein.

G70 nein, G70 SLi ja. Was ein 6800U-SLi-Duo nicht schafft, daran wird mit ziemlicher Wahrscheinlichkeit auch ein G70 verenden. Alles andere wäre höchst überraschend.

MfG,
Raff

robbitop
2005-06-07, 22:52:55
Ob der G70 evtl. ein richtiger DUAL-Core Chip werden könnte?

2*nV42 auf einem Die - komplett getrennt ansonsten. Damit könnte man auch prima mehrere Bildschirme 3D-Beschleunigen, in denen komplett unterschiedliche Anwendungen laufen. Wäre nicht übel für die Quadro-Serie.

Dazu könnte dann in der angeblich noch hinter dem Berg gehaltenen "Ultra" auch die 512 MB mit einem doppelten 256Bit-DDR Interface angesprochen werden. Doppelseitige Bestückung und schon 256Bit bei acht Chips lassen grüßen.

"Normal"-Versionen könnten durch selektives Abschalten nach aussen hin als 20, 16 oder 12-Pipe-Version auftreten. Auch hier mit variablen Speicherbussen.

Dann müsste man aber mit SLI zwischen den Chips arbeiten. Und dann hätte man 2x 128 MB 128 Bit DDR RAM. Das wirklich zu vereinen wäre sicher nicht einfach.

Quasar
2005-06-07, 23:33:01
Wieso hätte man 2*128 MB/Bit DDR?
Man könnte genausogut auch 2*256 MB/Bit haben. Dafür gemütlich mit 500MHz getaktet, so daß man kein Vermögen für die schnellsten Chips ausgeben muss und mehr von der Marge beim GPU-Hersteller hängen bleibt.

reunion
2005-06-07, 23:50:22
Wieso hätte man 2*128 MB/Bit DDR?


Weil man wohl kaum 2x256 bit (=512 bit) von einem Chip aus mit dem Speicherbausteinen verdrahten wird können.

Im übrigen müsste man dann, wie robbi schon sagte mit SLi zwischen den Chips kommunizieren, was doch extrem ineffizient wäre.

Quasar
2005-06-08, 07:34:32
Wieso müsste man das? Wer sagt, daß das Interface nicht aufgebohrt wurde? Xenon zeigt doch, daß 256 GB/s auf einem Träger problemlos möglich sind - kurze Signalwege und feste Verbindung machen's möglich.

Wenn die Cores getrennt auf einem Träger sind, wäre das mit dem Memory noch einfacher - und auch wenn sie zusammenverschmolzen sind, ist es nicht unmöglich.

robbitop
2005-06-08, 08:45:38
Wieso müsste man das? Wer sagt, daß das Interface nicht aufgebohrt wurde? Xenon zeigt doch, daß 256 GB/s auf einem Träger problemlos möglich sind - kurze Signalwege und feste Verbindung machen's möglich.

Wenn die Cores getrennt auf einem Träger sind, wäre das mit dem Memory noch einfacher - und auch wenn sie zusammenverschmolzen sind, ist es nicht unmöglich.

Ist sicher alles möglich, nur wirds genausoteuer wenn nicht teurer als wenn man ein 512 Bit DDR Interface einbaut. Denkbar aber IMO unwahrscheinlich. Es bringt einfach zu viele Komplikationen mit sich.

Gast
2005-06-08, 11:50:40
Mit dem Unterschied, daß man so schon alles hätte. Man bräuchte bloß ein schnellerers SLI-Connect.

Gast
2005-06-08, 22:18:48
Ob der G70 evtl. ein richtiger DUAL-Core Chip werden könnte?

2*nV42 auf einem Die - komplett getrennt ansonsten. Damit könnte man auch prima mehrere Bildschirme 3D-Beschleunigen, in denen komplett unterschiedliche Anwendungen laufen. Wäre nicht übel für die Quadro-Serie.

Dazu könnte dann in der angeblich noch hinter dem Berg gehaltenen "Ultra" auch die 512 MB mit einem doppelten 256Bit-DDR Interface angesprochen werden. Doppelseitige Bestückung und schon 256Bit bei acht Chips lassen grüßen.

"Normal"-Versionen könnten durch selektives Abschalten nach aussen hin als 20, 16 oder 12-Pipe-Version auftreten. Auch hier mit variablen Speicherbussen.


wäre irgendwie sinnlos, teurer in der herstellung (der komplette chip ist doppelt vorhanden, nicht nur der 3d-teil) und im besten fall gleich schnell, wahrscheinlich aber langsamer, und bei spielen die kein SLI unterstützen hätte man ein riesen problem.

Demirug
2005-06-08, 22:37:28
wäre irgendwie sinnlos, teurer in der herstellung (der komplette chip ist doppelt vorhanden, nicht nur der 3d-teil) und im besten fall gleich schnell, wahrscheinlich aber langsamer, und bei spielen die kein SLI unterstützen hätte man ein riesen problem.

Im Gegenzug spart man Designkosten und der Yield wäre besser.

IMHO macht das ganze allerdings auch nicht als Lösung für den Highend Chip einer Serie sinn sondern für eine HighHighEnd Lösung auf Basis des Highend Chips. Also für die Leute die sich jetzt ein SLI System am Stück gekauft haben. Die hätten das gleiche Geld auch für eine einzelne Karte mit der entsprechenden Leistung auf den Tisch gelegt.

Ailuros
2005-06-09, 00:46:00
Steht eigentlich theoretisch zukuenftigen multi-board configs etwas im Weg zwei boards mit verschiedener Anzahl von quads zu haben? Taktraten sind ja so nahe, dass man sie anpassen kann.

Ie. 6800Ultra + 7800GTX

seahawk
2005-06-09, 08:27:26
Höchstens mit SLI 2.

q@w
2005-06-09, 08:37:07
Im Gegenzug spart man Designkosten und der Yield wäre besser.

IMHO macht das ganze allerdings auch nicht als Lösung für den Highend Chip einer Serie sinn sondern für eine HighHighEnd Lösung auf Basis des Highend Chips. Also für die Leute die sich jetzt ein SLI System am Stück gekauft haben. Die hätten das gleiche Geld auch für eine einzelne Karte mit der entsprechenden Leistung auf den Tisch gelegt.
Naja, man weiß ja nie, auf was für Ideen die beiden großen IHVs kommen, um die erste Runde der Reviews zu gewinnen.
Letztes Jahr haben sie sich ja mehr oder weniger mit ihren Benchmark-Papiertigern blamiert, die lange Zeit nur in homöopathischen Dosen zu bekommen waren, wenn man denn überhaupt an eine rangekommen ist.

Demirug
2005-06-09, 08:44:33
Steht eigentlich theoretisch zukuenftigen multi-board configs etwas im Weg zwei boards mit verschiedener Anzahl von quads zu haben? Taktraten sind ja so nahe, dass man sie anpassen kann.

Ie. 6800Ultra + 7800GTX

AFR mit unterschiedliche schnelle Karten ist IMHO ein Horror.

Ailuros
2005-06-09, 13:28:06
Höchstens mit SLI 2.

Glaube ich nicht, jetzt wo ich Demi's Kommentar nochmal ueberdenke. Ein chip rendert Frame 1 mit 4 quads und der andere rendert Frame 2 mit 6 quads usw.; das kann zumindest bei AFR nicht gut aussehen, ausser man limitiert G70 dann auf 4 quads, aber es wird immer noch Probleme geben denn zu 100% indentisch sind die beiden chips intern nun auch wieder nicht.

seahawk
2005-06-09, 13:37:57
Glaube ich nicht, jetzt wo ich Demi's Kommentar nochmal ueberdenke. Ein chip rendert Frame 1 mit 4 quads und der andere rendert Frame 2 mit 6 quads usw.; das kann zumindest bei AFR nicht gut aussehen, ausser man limitiert G70 dann auf 4 quads, aber es wird immer noch Probleme geben denn zu 100% indentisch sind die beiden chips intern nun auch wieder nicht.

So meinte ich das. Ich dachte höchstens an ein gleichmachende Lösung für SLI 2. Also das die 7800 sich dann auf das Niveau einer 6800 einbremmst.

Ailuros
2005-06-09, 13:46:56
So meinte ich das. Ich dachte höchstens an ein gleichmachende Lösung für SLI 2. Also das die 7800 sich dann auf das Niveau einer 6800 einbremmst.

Waere aber sinnlos und Geldverschwendung. Quads koennte man schon leicht abschalten, aber mit dem Rest wird es wohl nicht so einfach sein.

seahawk
2005-06-09, 13:50:33
Waere aber sinnlos und Geldverschwendung. Quads koennte man schon leicht abschalten, aber mit dem Rest wird es wohl nicht so einfach sein.

Ich habe nichts über die Sinnhaftigkeit gesagt. Nur macht Crossfire in bestimmten Fällen eben auch aus ner 16Pipekarte ne 12 Pipekarte. Ob das jetzt Sinn macht... ;)

ShadowXX
2005-06-09, 14:57:59
Ich habe nichts über die Sinnhaftigkeit gesagt. Nur macht Crossfire in bestimmten Fällen eben auch aus ner 16Pipekarte ne 12 Pipekarte. Ob das jetzt Sinn macht... ;)

Laut den Crossfire-Fans ja........meiner persönlichen Meinung nach nicht.
Weswegen ich die "freie" Kartenwahl auch bei ATI nicht wirklich sehe.

Im Prinzip redet ATI von freier Kartenwahl und schränkt es im nächsten Satz wieder so stark ein bzw. macht es unsinnig, das man von einem wirklichen Unterschied zu nV nicht mehr reden kann.

Der einzige Vorteil bei Crossfire besteht momentan darin, das man nicht auf Karten des gleichen Herstellers angewiesen ist (und wohl auch nicht sein kann, da die Master-Karten wohl alle direkt von ATI selbst kommen und höchstens von den Boardherstellern umgelabelt werden).

robbitop
2005-06-09, 15:13:30
Laut den Crossfire-Fans ja........meiner persönlichen Meinung nach nicht.
Weswegen ich die "freie" Kartenwahl auch bei ATI nicht wirklich sehe.

Im Prinzip redet ATI von freier Kartenwahl und schränkt es im nächsten Satz wieder so stark ein bzw. macht es unsinnig, das man von einem wirklichen Unterschied zu nV nicht mehr reden kann.

Der einzige Vorteil bei Crossfire besteht momentan darin, das man nicht auf Karten des gleichen Herstellers angewiesen ist (und wohl auch nicht sein kann, da die Master-Karten wohl alle direkt von ATI selbst kommen und höchstens von den Boardherstellern umgelabelt werden).
Endlich spricht es mal einer so aus - und zwar komplett :up:
Kreuzfeuer ist mehr Restriktionen unterlegen als viele behaupten.

Gast
2005-06-09, 16:38:15
Laut den Crossfire-Fans ja........meiner persönlichen Meinung nach nicht.
Weswegen ich die "freie" Kartenwahl auch bei ATI nicht wirklich sehe.

Im Prinzip redet ATI von freier Kartenwahl und schränkt es im nächsten Satz wieder so stark ein bzw. macht es unsinnig, das man von einem wirklichen Unterschied zu nV nicht mehr reden kann.

Der einzige Vorteil bei Crossfire besteht momentan darin, das man nicht auf Karten des gleichen Herstellers angewiesen ist (und wohl auch nicht sein kann, da die Master-Karten wohl alle direkt von ATI selbst kommen und höchstens von den Boardherstellern umgelabelt werden).

Wird SLI auch noch gelockert, bleibt von der vermeintlichen Überlegenheit ggü SLI auch nicht mehr viel übrig.

Ailuros
2005-06-09, 20:28:05
Ich habe nichts über die Sinnhaftigkeit gesagt. Nur macht Crossfire in bestimmten Fällen eben auch aus ner 16Pipekarte ne 12 Pipekarte. Ob das jetzt Sinn macht... ;)

Dabei sind aber die Einheiten zwischen den verschiedenen Karten auch identisch, was aber zwischen NV40 und G70 nicht der Fall sein wird.

reunion
2005-06-09, 22:21:58
"Prepare to be enlightened....coming in 11 days"

http://www.gainward.de/new/main.html

reunion
2005-06-09, 22:25:05
"Gibbo" glaubt, eine G70-SLi-Combo erreicht ~22K in 3dmark05.

http://forums.overclockers.co.uk/showthread.php?t=17424722&page=1&pp=30

Crossfire
2005-06-10, 00:09:42
Endlich spricht es mal einer so aus - und zwar komplett :up:
Kreuzfeuer ist mehr Restriktionen unterlegen als viele behaupten.

Hallo robbitop,

das siehst du leider falsch!

Grüsse
Crossfire

Crossfire
2005-06-10, 00:14:29
Jede bisher in der Presse getroffene Aussage ist für jeden User NACHVOLLZIEHBAR! Vieleicht sollten wir ersteinmal die Benchmarks und Detail - Reports, auch auf 3Dcenter, abwarten!

Okay? :cool:

PS: :)

SKYNET
2005-06-10, 00:37:38
Der einzige Vorteil bei Crossfire besteht momentan darin, das man nicht auf Karten des gleichen Herstellers angewiesen ist (und wohl auch nicht sein kann, da die Master-Karten wohl alle direkt von ATI selbst kommen und höchstens von den Boardherstellern umgelabelt werden).


ist man bei NV auch nicht. =)
es muss nichtmal die gleiche biosversion sein, nur der gleiche takt.

robbitop
2005-06-10, 00:42:09
Hallo robbitop,

das siehst du leider falsch!

Grüsse
Crossfire

*lol* Schön einfach so eine Aussage "falsch" in den Raum zu stellen. Schön biased ;)

Kannst du das technisch hinreichend begründen? Ich bin der Meinung, dass ich die Funktionsweise von SLI und Crossfire bis auf eine gewisse Detailebene verstanden habe. Also fang mal an, mir zu erklären, warum ich hier falsch liegen sollte.

reunion
2005-06-10, 00:48:33
ist man bei NV auch nicht. =)
es muss nichtmal die gleiche biosversion sein, nur der gleiche takt.


Mit der gleichen Biosversion hast du laut nV recht, der Hersteller muss jedoch identisch sein:

Can I mix and match graphics cards?
No. NVIDIA currently doesn't support SLI on two different models or from different vendors. SLI supports configurations with the same model (i.e. 6800 Ultra) from the same vendor (Vendor XYZ). A common misconception about SLI is that the BIOS revision has to be identical between the cards. This is not true. A manufacturer can revise the BIOS without affecting SLI. NVIDIA does however recommend that customers confirm SLI compatibility with the manufacturer before making a purchase.

http://www.slizone.com/content/slizone/faq.html#c3

SKYNET
2005-06-10, 00:57:33
Mit der gleichen Biosversion hast du laut nV recht, der Hersteller muss jedoch identisch sein:

Can I mix and match graphics cards?
No. NVIDIA currently doesn't support SLI on two different models or from different vendors. SLI supports configurations with the same model (i.e. 6800 Ultra) from the same vendor (Vendor XYZ). A common misconception about SLI is that the BIOS revision has to be identical between the cards. This is not true. A manufacturer can revise the BIOS without affecting SLI. NVIDIA does however recommend that customers confirm SLI compatibility with the manufacturer before making a purchase.

http://www.slizone.com/content/slizone/faq.html#c3


der a.wesker hier aussm board hatte glaub ich auch ne gayward und ne PoV zusammen am laufen(oder wars ne PNY?).

und was bei NV oder ATI auf den seiten steht ist eh zu 99% für umme, ist halt nur damit niemand denen ans bein pischen kann falls(!) es doch nicht läuft. =)

reunion
2005-06-10, 01:11:54
der a.wesker hier aussm board hatte glaub ich auch ne gayward und ne PoV zusammen am laufen(oder wars ne PNY?).

und was bei NV oder ATI auf den seiten steht ist eh zu 99% für umme, ist halt nur damit niemand denen ans bein pischen kann falls(!) es doch nicht läuft. =)


Mag ja sein, dass es unter Umständen auch funktionieren kann, ich würde mir jedenfalls nichts zusammenschrauben, was vom Hersteller nicht gedeckt ist. ATi erlaubt dies offiziell, nV nicht.

SKYNET
2005-06-10, 01:12:52
Mag ja sein, dass es unter Umständen auch funktionieren kann, ich würde mir jedenfalls nichts zusammenschrauben, was vom Hersteller nicht gedeckt ist.


ich schon, weil hauptsache schnell. ;)
aber jeder hat andere intressen und prioritäten. =)

Adam D.
2005-06-10, 07:08:39
Yes we are under NDA but I can drop little hints here and there and yes we will have ample stock on launch day in our warehouse ready for shipping and collection from BFG, Leadtek and XFX. Well lets at least hope the couriers don't mess up but NV have allocated us stock and our partners have honored our allocation which is plenty

Es geht los :uup:

seahawk
2005-06-10, 08:05:47
Ja sieht alles sehr gut aus. Da wird im Spetember wohl die 9700pro endlich in die wohlverdiente Rente geschickt. (und ich sage September nur aus rein persönlichen Gründen, weil sich ein Systemupgrade für mich vorher nicht lohnt)

robbitop
2005-06-10, 09:08:13
Ja sieht alles sehr gut aus. Da wird im Spetember wohl die 700pro endlich in die wohlverdiente Rente geschickt. (und ich sage September nur aus rein persönlichen Gründen, weil sich ein Systemupgrafe für mich vorher nicht lohnt)
Genau ab September fängts aber an sich zu lohnen :D

@reunion
das mit den unterschieldichen Modellen soll ja jetzt gelockert werden.

Gast
2005-06-10, 09:23:05
Endlich spricht es mal einer so aus - und zwar komplett :up:
Kreuzfeuer ist mehr Restriktionen unterlegen als viele behaupten.

Solche Anreden schätzen wir nicht. Danke.

es geht viel eher darum, dass im direkten vergleich crossfire WENIGER restriktionen unterlegen ist als SLI und mit SuperAA auch mehr features bietet

mfg
gast

Coda
2005-06-10, 09:41:46
Das Problem ist eher die fehlende Bridge für den SFR Modus. Aber das hatten wir ja schon zur Genüge und ist hier auch fehl am Platz...

Xmas
2005-06-10, 13:51:12
es geht viel eher darum, dass im direkten vergleich crossfire WENIGER restriktionen unterlegen ist als SLI und mit SuperAA auch mehr features bietet

mfg
gast
Das Dumme ist, dass beim direkten Vergleich bei Crossfire in der Spalte "verfügbar" ein Nein steht. Wenn sich das erst einmal geändert hat, ist auch ein vernünftiger Vergleich möglich. Und ich bin mir ziemlich sicher, dass sich bis dahin auch noch andere Veränderungen im Vergleich ergeben.

seahawk
2005-06-10, 13:57:32
Genau ab September fängts aber an sich zu lohnen :D

@reunion
das mit den unterschieldichen Modellen soll ja jetzt gelockert werden.

Klar, weil ich dann wieder Zeit zum Zocken habe, wenn Sommerurlaub. Fotosaison und Webdesign Aufträge abgearbeitet sind

Sorry for OT. .

Gast
2005-06-10, 15:44:43
Ja sieht alles sehr gut aus. Da wird im Spetember wohl die 9700pro endlich in die wohlverdiente Rente geschickt. (und ich sage September nur aus rein persönlichen Gründen, weil sich ein Systemupgrade für mich vorher nicht lohnt)Es ist die Frage, ob man vor September überhaupt eine G70 kaufen kann.

Gast
2005-06-10, 16:00:17
Es ist die Frage, ob man vor September überhaupt eine G70 kaufen kann. Ja klar, schon in ein paar Wochen!

War ja auch nicht besonders schwierig, da der G70 auf dem NV40 basiert und lediglich die Pipes hinzugekommen sind.

Gast
2005-06-10, 16:00:59
Es ist die Frage, ob man vor September überhaupt eine G70 kaufen kann.

Da gehe ich einfach mal von aus. Tapeout und Testsamples gab es anscheinend schon im Februar und bis jetzt hat man in der Richtung eigentlich nichts negatives gehört das es Schwierigkeiten gab (abgesehen von der anscheinend angebrutzelten Testkarte ;)).

Laut Gibbo sollen die Karten am Launchtag verfügbar sein.

Gast
2005-06-10, 16:02:28
Das Dumme ist, dass beim direkten Vergleich bei Crossfire in der Spalte "verfügbar" ein Nein steht. Wenn sich das erst einmal geändert hat, ist auch ein vernünftiger Vergleich möglich. Und ich bin mir ziemlich sicher, dass sich bis dahin auch noch andere Veränderungen im Vergleich ergeben.
So???? welche denn???? Mir ist nichts bekannt! Crossfire wird genau das machen was er es verspricht!

Mehr Performance bei alle Games!
Läuft auf allen Mainboards mit 2 PCI E- 8X, selbst NF4!

Einfach genial!

Godmode
2005-06-10, 16:10:04
Laut Gibbo sollen die Karten am Launchtag verfügbar sein.

Ja sowas würde ich mir wünschen! Launch und gleich verfügbare Versionen der Karten und nicht erst 2 Monate später! Denke aber das die Karten am Anfang nur in den USA zu haben sind.

Xmas
2005-06-10, 16:11:33
So???? welche denn???? Mir ist nichts bekannt! Crossfire wird genau das machen was er es verspricht!
"Veränderungen im Vergleich" heißt nicht, dass die Veränderungen auf ATI-Seite sein müssen.

Mehr Performance bei alle Games!
Läuft auf allen Mainboards mit 2 PCI E- 8X, selbst NF4!
Im Moment redet ATI noch nur von "Crossfire Ready" Mainboards. Was am Ende herauskommt, wird sich noch zeigen.

Gast
2005-06-10, 16:16:50
"Veränderungen im Vergleich" heißt nicht, dass die Veränderungen auf ATI-Seite sein müssen.


Im Moment redet ATI noch nur von "Crossfire Ready" Mainboards. Was am Ende herauskommt, wird sich noch zeigen.

Stimmt doch gar nicht! Laut ATI (Presse-Mitteilung) sind ja bereits 1 Mio User Crossfire-Ready, im übrigen hat ATI ja auch nvidia kräftig auf den Arm genommen!

Wenn du dir die Flash-Demo auf www.ati.com/crossfire/ - How it works - anschaust erkennst du sogar ein ASUS NF4 Board! Das sagt doch alles!

Xmas
2005-06-10, 16:30:22
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/crossfire_ati-chipsatz/

Und SLI wurde auf einem Intel-Mainboard vorgestellt...

reunion
2005-06-10, 16:37:06
INQ: Nvidia G70 becomes Geforce 7800 GFX: 430MHz core, 1400MHz memory, 24 pipes (http://www.the-inquirer.net/?article=23874)

Hauwech
2005-06-10, 16:47:17
Ja sowas würde ich mir wünschen! Launch und gleich verfügbare Versionen der Karten und nicht erst 2 Monate später! Denke aber das die Karten am Anfang nur in den USA zu haben sind.

Wieso? Gibbo ist von OCUK und da sie selbst die Karten auch verkaufen, glaube ich nicht, dass er da Mist erzaehlt. Kann sich natuerlich alles noch aendern aber er klingt sehr zuversichtlich was schnell verfuegbare Karten anbelangt.

Godmode
2005-06-10, 16:58:28
INQ: Nvidia G70 becomes Geforce 7800 GFX: 430MHz core, 1400MHz memory, 24 pipes (http://www.the-inquirer.net/?article=23874)

Oh mein Gott ist der( :cop:FUAD:cop: ) aber schnell ;D ;D ;D

Godmode
2005-06-10, 17:00:28
Wieso? Gibbo ist von OCUK und da sie selbst die Karten auch verkaufen, glaube ich nicht, dass er da Mist erzaehlt. Kann sich natuerlich alles noch aendern aber er klingt sehr zuversichtlich was schnell verfuegbare Karten anbelangt.

Achso, hab nicht auf den Link geguckt, dachte das ist sicher einer aus Übersee. Danke für die Info. Hoffen wir es stimmt!

seahawk
2005-06-10, 18:04:50
Bis jetzt soll es gut aussehen.

länge
2005-06-10, 19:03:51
INQ: Nvidia G70 becomes Geforce 7800 GFX: 430MHz core, 1400MHz memory, 24 pipes (http://www.the-inquirer.net/?article=23874)

Ist das gut oder kein problem für ne X900 XT PE ?

Demirug
2005-06-10, 19:08:15
Ist das gut oder kein problem für ne X900 XT PE ?

Wie soll man unvöllständige Informationen mit nicht vorhandenen vergleichen?

Diskutator
2005-06-10, 20:14:19
Wie soll man unvöllständige Informationen mit nicht vorhandenen vergleichen?
Korrekt, aber wenn diese Zahlen stimmen wird es ein kein Thema sein!

ShadowXX
2005-06-10, 20:22:38
Korrekt, aber wenn diese Zahlen stimmen wird es ein kein Thema sein!

Wenn die ATI zahlen auch stimmen hätten wir von den Grundspecs ein Patt.
Ausser du gehst ernsthaft davon aus das ATI ein 32Pipeline Chip mit 650MHz auf den Markt schmeisst....


Aber immerhin kennen wir jetzt die lustigen neuen Marketingnamen für die G70 Architektur:

We are talking about a 24-pipeline card capable of supporting Nvidia intelisample marchitecture 4.0, CineFX 4.0, Ultra shadow marchitecture version two, pure video and 64-bit texture filtering and blending.


Und hier hat jemand wohl in letzter Zeit gepennt:

We don’t have any idea why you need 64-bit texture filtering nor blending but we guess developers do.

Demirug
2005-06-10, 20:39:05
Aber immerhin kennen wir jetzt die lustigen neuen Marketingnamen für die G70 Architektur:

Die waren doch auch schon seit längerem bekannt.

Ailuros
2005-06-11, 00:04:40
Korrekt, aber wenn diese Zahlen stimmen wird es ein kein Thema sein!

Hoffnung stirbt als letzte; das beste was den Beiden passieren kann ist Gleichstand im Durchschnitt.

Ailuros
2005-06-11, 00:07:37
Die Speicher-frequenz-saga nervt mich so langsam. Koennen sich die Webseiten nicht darueber endlich einig werden? :D :|

ShadowXX
2005-06-11, 10:25:34
Die waren doch auch schon seit längerem bekannt.

OK, die beiden 4.0er waren bekannt. Aber das hier: "Ultra shadow marchitecture version two" hab zumindest ich das erste mal gehört.

(Das sowas in der Richtung kommt war klar, aber die Marketingbezeichnung dafür fehlte bis jetzt imho).


Die Speicher-frequenz-saga nervt mich so langsam. Koennen sich die Webseiten nicht darueber endlich einig werden?


Ich hab hier mehr das Gefühl, als wenn die meisten Websites die Speichergeschwindigkeit rein nach "Gefühl" angeben und viele sich einfach nicht vorstellen können, das nV "nur" auf 600MHz hochgeht und deshalb immer 700MHz veranschlagen.

Vielleicht weiss es nV aber selbst noch nicht so genau....gerade beim SPeicher kann man ja wirklich bis zur letzten Sekunde warten, da es dem Chip selbst ja ziemlich egal ist ob er nun an 600MHz, 700MHz oder sogar 800MHz hängt.

Wobei ich zugeben muss, das ich nicht weiss in wieweit die PCBs daran angepasst sein müssen.

Ich hoffe ja selbst, das es zumindest für die GTX vielleicht doch noch 700er Speicher gibt.

Bald wissen wir mehr.....

Gast
2005-06-11, 10:37:02
OK, die beiden 4.0er waren bekannt. Aber das hier: "Ultra shadow marchitecture version two" hab zumindest ich das erste mal gehört.

(Das sowas in der Richtung kommt war klar, aber die Marketingbezeichnung dafür fehlte bis jetzt imho).



Ich hab hier mehr das Gefühl, als wenn die meisten Websites die Speichergeschwindigkeit rein nach "Gefühl" angeben und viele sich einfach nicht vorstellen können, das nV "nur" auf 600MHz hochgeht und deshalb immer 700MHz veranschlagen.

Vielleicht weiss es nV aber selbst noch nicht so genau....gerade beim SPeicher kann man ja wirklich bis zur letzten Sekunde warten, da es dem Chip selbst ja ziemlich egal ist ob er nun an 600MHz, 700MHz oder sogar 800MHz hängt.

Wobei ich zugeben muss, das ich nicht weiss in wieweit die PCBs daran angepasst sein müssen.

Ich hoffe ja selbst, das es zumindest für die GTX vielleicht doch noch 700er Speicher gibt.

Bald wissen wir mehr.....

Hatte nicht schon die 5900/5950er UltraShadowII?

ShadowXX
2005-06-11, 10:45:40
Hatte nicht schon die 5900/5950er UltraShadowII?

Ich hab gerade mal nachgeguckt und du hast fast recht.

Die 6800er-Serie wird schon mit Ultrashadow II beworben...

Hmmm...Fuad sollte bei Ausdenken von News demnächst besser nachforschen bzw. mal anfangen seine "Quellen" ansatzweise zu verifizieren.

Man kommt bei den ganzen Bezeichnungswirrwar ja auch langsam durcheinander....

Quasar
2005-06-11, 12:05:31
Einfach ignorieren, den Unsinn nicht weiterverbreiten und nicht verlinken - das würde helfen.
Aber leider sind "Leute" ja zu Sensationsgeil - egal, ob die Spekulationen jeglicher Grundlage entbehren oder halbwegs plausibel und konsistent belegt sind. *shrugs*

Quasar
2005-06-11, 12:07:56
Läuft auf allen Mainboards mit 2 PCI E- 8X, selbst NF4!

Das wurde von ATi selbst bereits "dementiert".
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/crossfire_ati-chipsatz/

Xmas
2005-06-11, 12:41:41
Ich hab gerade mal nachgeguckt und du hast fast recht.

Die 6800er-Serie wird schon mit Ultrashadow II beworben...

Hmmm...Fuad sollte bei Ausdenken von News demnächst besser nachforschen bzw. mal anfangen seine "Quellen" ansatzweise zu verifizieren.
Wieso sollte es nicht möglich sein dass NVidia an den UltraShadow-Teilen nichts geändert hat?

Quasar
2005-06-11, 12:56:49
Weil sie dann vermutlich ein "Ultra Shadow III" draus gemacht hätten?

Xmas
2005-06-11, 13:01:02
Wieso sollten sie?

ShadowXX
2005-06-11, 13:37:17
Wieso sollten sie?

Weil sich "das neue Ultrashadow III" in den "Flyern" besser anhört als "wir benutzen weiterhin Ultrashadow II".

Wenn Sie nur 2 Transistoren bei den "Ultrashadow-Einheiten" verändert haben, werden Sie es als Ultrashadow III vermarkten...und wenns nur ist um eine nicht vorhandene Verbesserung zu suggerieren....

Demirug
2005-06-11, 13:42:50
ShadowXX, wenn sie USIII schreiben wollen müssen sie auch in einem Techbrief schreiben was nun besser ist. Sonst hätte die "Abschreibpresse" ja keine Grundlage. Wenn dann aber mal sowas schwarz auf weiss geschrieben ist wird es auch jemand nachprüfen.

up¦²
2005-06-11, 13:50:03
NVIDIA G7x Mobile GPUs Info (http://www.vr-zone.com/?i=2325)

We have heard enough of G70 on the desktop front so now let's shift our focus a little to the mobile front. VR-Zone has gotten some interesting news tidbits that the notebook makers are currently sampling the G70 Mobile GPUs. NVIDIA MXM has won the hearts of many notebook manufacturers therefore inevitably G7xM will be on MXM even the ATI's mobile GPUs as well. Well at least the MXM connector will be standardized but the layout and form factor might differ slightly from each ODM.

Another good news is that the G7xM will be pin to pin compatible with the current NV4xM to allow smooth transition. Interestingly, Turbo Cache will be available across the board from entry to high end and not just on the entry level GPU like GeForce Go 6200 series currently. How does G7xM SLI sounds to you? Yes it is technically feasible. It will probably require two MXM-III type for the high end and MXM-I or MXM-II type for the mid range. The expected availability of the G7xM is towards end of the year or rather when Napa platform is ready.

Diskutator
2005-06-11, 19:45:06
Das wurde von ATi selbst bereits "dementiert".
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/crossfire_ati-chipsatz/
Computerbase meint aber zu recht...Nun steckt aber in jedem Gerücht ein Körnchen Wahrheit und so ist es vielleicht nur eine Frage der Zeit und der Marktentwicklung, ob sich nicht Teile dieser Gerüchte doch bewahrheiten werden.

Quasar
2005-06-11, 19:54:50
Dann frage ich mich aber doch, warum ATi da so vehement hinterher war, diese Meldung 'richtigzustellen'... besonders, wenn es eigentlich gar nichts richtigzustellen geben sollte. :D

Sorry, ich halte mich lieber an offizielle Informationen - da ist die Schwelle die Unwahrheit zu sagen, ein klein wenig geringer, als irgendwelche nicht näher bezeichneten, geheimen Zuflüsterungen.

aths
2005-06-12, 03:53:19
Das stimmt nun mal gar nicht. (Siehe Morrowind, siehe Quake 1)Auf aufgedunsene 3D-Modelle kann ich verzichten. Gerade Lowpoly-Modelle sind problematisch: Entweder macht man sie schön rund, womit ihr Volumen beträchtlich ansteigt, oder man appliziert den Effekt nur schwach, was dann die Ecken belässt.


Das sind ja prima Tips zur Herstellung von Models, aber dadurch wird kein altes Spiel "runder".Genau. Deshalb taugt TruForm auch nicht besonders. Die fehlenden Informationen zur "Rundheit" kann man sich nicht aus den Rippen schneiden. In den Normalen steckt hier zwar eine Information, die man nutzen kann, aber für bestimmte benachbarte Flächen mit einem gemeinsamen Eckpunkt wird dann auch oft nur eine gemeinsame Normale genutzt, auch wenn man für korrektes TruForm dort eigentlich pro Dreieck eine eigene Normale bräuchte.

Morrowind wird durch TruForm enorm aufgewertet... es ist ziemlich schade, daß ATi sich davon verabschiedet hat und das bei den neueren Karten rein in Software implementiert. Aber das hängt wohl mit der fehlenden Akzeptanz zusammen.ATI hat die Vertex-Power im R300 erheblich gesteigert. Das halte ich für sinnvoller als TruForm.

aths
2005-06-12, 04:12:42
Boa so LoL, bei den Comments zu dieser News protzen ja alle mit ihren geheimen Quellen. Sagt der eine; Aus meinen geheimen Quellen weis ich das G70 schneller ist. Der andere daraufhin; Und ich weis laut meinen geheimen Quellen das R520 schneller ist! Einfach zum lachen :DAus meinen geheimen Quellen weiß ich, dass im Moment noch keiner eine geheime Quelle hat.

Exxtreme
2005-06-12, 08:22:31
Genau. Deshalb taugt TruForm auch nicht besonders. Die fehlenden Informationen zur "Rundheit" kann man sich nicht aus den Rippen schneiden. In den Normalen steckt hier zwar eine Information, die man nutzen kann, aber für bestimmte benachbarte Flächen mit einem gemeinsamen Eckpunkt wird dann auch oft nur eine gemeinsame Normale genutzt, auch wenn man für korrektes TruForm dort eigentlich pro Dreieck eine eigene Normale bräuchte.

LOL, trotzdem gibt es immer noch genug Spiele, die von TruForm bzw. höheren Polygonzahlen profitieren würden. Schau dir mal WoW an. Da stolpert man von einer Ecke zur anderen. Vieles könnte dort 'runder' gemacht werden können und es würde optisch auch was bringen.

Ailuros
2005-06-12, 12:33:48
LOL, trotzdem gibt es immer noch genug Spiele, die von TruForm bzw. höheren Polygonzahlen profitieren würden. Schau dir mal WoW an. Da stolpert man von einer Ecke zur anderen. Vieles könnte dort 'runder' gemacht werden können und es würde optisch auch was bringen.


TruForm war damals um einiges seiner Zeit voraus - das hatte ich schon oefters gesagt - aber es muessten sich auch Entwickler hinsetzen und dafuer Modelle von Anfang an entwickeln.

Fixed function Tesselation ist aber heutzutage und ueberhaupt auf Hinsicht zu WGF2.0 trotzdem nicht mehr viel der Rede Wert. Entwickler wollen IMHO programmierbare Tesselation und diese wird wohl leider auch in WGF2.0 wieder fehlen.

In den Consolen werden sie womoeglich so manche Funktionalitaet auf die sehr starken CPUs verfrachten, bleibt abzusehen wie sich das Ganze fuer den PC durch WGF2.0 entwickeln koennte. Bei einer Console ist das Ganze auch um einiges leichter, fuer den PC aber hockt mir leider die CPU auf der falschen Seite des Busses ;)

Nun ja abwarten und Tee trinken.

up¦²
2005-06-12, 13:33:52
Wurde Truform nicht durch Displacement Mapping quasi in den Schatten gestellt?

Tut sich da was in der Richtung bei der G70?

Gast
2005-06-12, 13:39:13
Wurde Truform nicht durch Displacement Mapping quasi in den Schatten gestellt?

Tut sich da was in der Richtung bei der G70?
Ja, schon. Aber Truform geht bei jedem Spiel und kann alte Spiele ordentlich aufbessern. DM muss erstmal in Spielen eingebaut werden.

Konsolenfreund

mapel110
2005-06-12, 13:40:29
Wurde Truform nicht durch Displacement Mapping quasi in den Schatten gestellt?

Tut sich da was in der Richtung bei der G70?
Ohne Tesselation-Einheit geht in der Richtung wohl nix. Da nützt kein Displacementmapping. So hab ichs bisher zumindest verstanden.
Ja, schon. Aber Truform geht bei jedem Spiel und kann alte Spiele ordentlich aufbessern. DM muss erstmal in Spielen eingebaut werden.

Konsolenfreund
auch bei Truform sollte der Content drauf ausgelegt sein. Ansonsten werden Dinge rund, die nicht rund werden sollen. ;)
Da gabs doch irgendein Paradebeispiel, wo zuviel rund wurde?!

up¦²
2005-06-12, 14:23:57
Tja, Counterstrike ..., war schon edel anzuschaun :wink:

Nebenbei: komischerweise ist die olle 8500 mit dabei in der Battlefield 2 Engine :rolleyes:
Vielleicht hat das Spiel wiedermal Truform unter der Haube! :confused:

reunion
2005-06-12, 17:43:41
Falls es jemanden intressiert:

http://www.theinquirer.net/?article=23889

mapel110
2005-06-12, 17:48:14
Falls es jemanden intressiert:

http://www.theinquirer.net/?article=23889
Hm, immerhin kommt er jetzt ins Grübeln, obs 600 oder 700 Mhz Ram sind. :)

"This card will, without a doubt, be the fastest card introduced and will beat 6800 Ultra by a nice margin and in some tests and settings will end up significantly faster."

Damit wären ja alle Klarheiten beseitigt. :D

Demirug
2005-06-12, 17:57:19
Die 700MHz sind ein verständlicher Irtum wenn man nur unvollständig Daten hat bzw zu blöd zum lesen ist. ;)

Coda
2005-06-12, 18:18:25
LOL, trotzdem gibt es immer noch genug Spiele, die von TruForm bzw. höheren Polygonzahlen profitieren würden. Schau dir mal WoW an. Da stolpert man von einer Ecke zur anderen. Vieles könnte dort 'runder' gemacht werden können und es würde optisch auch was bringen.Nur leider erfordert Truform auch ein anderes Toolset. Ich glaube kaum dass die bestehenden Produktionspipelines sowas unterstützen.

Ich verstehe auch das Problem nicht ganz, Vertexdurchsatz ist heute fast kein Thema mehr und in Zukunft erst recht nicht.

LovesuckZ
2005-06-12, 18:24:10
"Stay tuned to watch the Schadenfreude."

Was heißt den "Schadenfreude" auf deutsch?!

Gast
2005-06-12, 18:25:47
Nur leider erfordert Truform auch ein anderes Toolset. Ich glaube kaum dass die bestehenden Produktionspipelines sowas unterstützen.

Ich verstehe auch das Problem nicht ganz, Vertexdurchsatz ist heute fast kein Thema mehr und in Zukunft erst recht nicht.
Der Vertexdurchsatz ist sicherlich kein Thema...
Man hätte aber mit Trueform deutlich bessere Optik schon früher erreichen können. Ein bisschen den Contest angepasst und es sollte keine Probleme geben.
Da hat wohl die Marketingabteilung von ATI ihren Winterschlaf gehalten. :)

mapel110
2005-06-12, 18:26:38
"Stay tuned to watch the Schadenfreude."

Was heißt den "Schadenfreude" auf deutsch?!
http://dict.leo.org/?lp=ende&lang=en&searchLoc=0&cmpType=relaxed&relink=on&sectHdr=on&spellToler=std&search=schadenfreude
aber den Satz versteh ich auch nicht wirklich.

Coda
2005-06-12, 18:28:04
Der Vertexdurchsatz ist sicherlich kein Thema...
Man hätte aber mit Trueform deutlich bessere Optik schon früher erreichen können. Ein bisschen den Contest angepasst und es sollte keine Probleme geben.
Da hat wohl die Marketingabteilung von ATI ihren Winterschlaf gehalten. :)"Ein bischen Content anpassen" ist nur leider hoffnungslos untertrieben.

Demirug
2005-06-12, 18:30:05
"Stay tuned to watch the Schadenfreude."

Was heißt den "Schadenfreude" auf deutsch?!

Schadenfreude. Man soll es nicht glauben aber manchmal klaut das Englisch auch beim Deutsch. Kindergarten ist auch so ein Beispiel.

Quasar
2005-06-12, 18:34:02
Nur leider erfordert Truform auch ein anderes Toolset. Ich glaube kaum dass die bestehenden Produktionspipelines sowas unterstützen.

Ich verstehe auch das Problem nicht ganz, Vertexdurchsatz ist heute fast kein Thema mehr und in Zukunft erst recht nicht.
Du kannst ja mal UT2003/4 anschauen, wies mit höheren Tesselationslevels bei dir performed (dafür braucht's vermutlich eine R300 und höher, dort im Treiber TruForm aktivieren und in der .ini von UT2003/4 ebenfalls).

Ja, ich weiß, das wird dann alles von der CPU gerechnet, aber trotzdem ist's ein kleiner Indikator - zumal irgendwer die Vertexinformationen ja vorbearbeiten muss.

Sicher, für High-End PCs ist das durchaus möglich, extrem hohe PolyCounts zu verwenden, aber die Designer müssen ja eben mit einem Durchschnitts-PC "rechnen", über den die meisten hier wohl lachen würden. *unterdenSchreibtischaufseinenP3schaut*

Gast
2005-06-12, 18:34:20
"Ein bischen Content anpassen" ist nur leider hoffnungslos untertrieben.
Du hast Recht, die Modelle müssen angepasst werden...
Zaubern kann Trueform auch nicht.
Würde man es überall einsetzen, hätten wir Nebenwirkungen. ;)
Gewollt eckige Formen würden auf einmal rund aussehen...

deekey777
2005-06-12, 18:35:28
Schadenfreude. Man soll es nicht glauben aber manchmal klaut das Englisch auch beim Deutsch. Kindergarten ist auch so ein Beispiel.

War er nicht manchmal in Wien? ;)

Die Amis kennen sehr viele deutsche Worte und nutzen diese - jeder sechste Amerikaner hat deutsche Vorfahren, dazu kommen noch jüdische Migranten.

Coda
2005-06-12, 18:36:17
Du kannst ja mal UT2003/4 anschauen, wies mit höheren Tesselationslevels bei dir performed (dafür braucht's vermutlich eine R300 und höher, dort im Treiber TruForm aktivieren und in der .ini von UT2003/4 ebenfalls).

Ja, ich weiß, das wird dann alles von der CPU gerechnet, aber trotzdem ist's ein kleiner Indikator - zumal irgendwer die Vertexinformationen ja vorbearbeiten muss.

Sicher, für High-End PCs ist das durchaus möglich, extrem hohe PolyCounts zu verwenden, aber die Designer müssen ja eben mit einem Durchschnitts-PC "rechnen", über den die meisten hier wohl lachen würden. *unterdenSchreibtischaufseinenP3schaut*Aneinander vorbeigeredet? Ich meinte natürlich fertige highpoly meshes ohne "Truform".

ShadowXX
2005-06-12, 18:37:16
Schadenfreude. Man soll es nicht glauben aber manchmal klaut das Englisch auch beim Deutsch. Kindergarten ist auch so ein Beispiel.

Bei vielen Engländern und noch mehr Amerikanern der höheren Bildungsschichten sind sind bestimmte deutsche Wörter seit 1-2 Jahren richtig in.

Besonders wenn man bestimmte Punkte einer Rede/Aussage stark betonen/hervorheben will.

Gabs auch mal einen Artikel im Spiegel drüber......besonders bei amerikanischen Wissenschaftlern sollen deutsche "Wörter" beliebt sein.

Quasar
2005-06-12, 18:42:31
Aneinander vorbeigeredet? Ich meinte natürlich fertige highpoly meshes ohne "Truform".
Möglich.
Ändert aber nichts daran, daß man anstelle hohen Vertexdurchsatzes die CPU auch für was anderes gebrauchen könnte, wenn sich die Grafikkarte um sowas kümmern dürfte.

Exxtreme
2005-06-12, 23:41:12
Aneinander vorbeigeredet? Ich meinte natürlich fertige highpoly meshes ohne "Truform".
AFAIK muss trotzdem die CPU die Vertizes erzeugen. Ein hoher Polygoncount belastet somit immer die CPU. Die T&L-Einheit transformiert diese lediglich. Das war bei TruForm anders. Da hat die Grafikkarte die Vertizes erzeugt.

mapel110
2005-06-12, 23:44:22
AFAIK muss trotzdem die CPU die Vertizes erzeugen. Ein hoher Polygoncount belastet somit immer die CPU. Die T&L-Einheit transformiert diese lediglich. Das war bei TruForm anders. Da hat die Grafikkarte die Vertizes erzeugt.
Jo, dafür war doch die Tesselation Einheit, die ja nun fehlt und auch weiterhin fehlen wird.

Coda
2005-06-12, 23:48:27
AFAIK muss trotzdem die CPU die Vertizes erzeugen. Ein hoher Polygoncount belastet somit immer die CPU. Die T&L-Einheit transformiert diese lediglich. Das war bei TruForm anders. Da hat die Grafikkarte die Vertizes erzeugt.Das meine ich doch gar nicht. Einfach ganz normale Geometrie mit genügend Vertices das es auch so rund aussieht - fertig.

Also statisch ohne irgendwelche Berechnungen, am besten noch im VRAM.

Ailuros
2005-06-13, 00:34:38
Die 700MHz sind ein verständlicher Irtum wenn man nur unvollständig Daten hat bzw zu blöd zum lesen ist. ;)

Dann war jemand zu bloed in der Vergangenheit mir die ganze Wahrheit weiterzugeben *seufz*

Ailuros
2005-06-13, 00:38:34
Bei vielen Engländern und noch mehr Amerikanern der höheren Bildungsschichten sind sind bestimmte deutsche Wörter seit 1-2 Jahren richtig in.

Besonders wenn man bestimmte Punkte einer Rede/Aussage stark betonen/hervorheben will.

Gabs auch mal einen Artikel im Spiegel drüber......besonders bei amerikanischen Wissenschaftlern sollen deutsche "Wörter" beliebt sein.

Interessant aber leider nicht relevant zum Thread hier. Wenn jemand will kann er woanders einen Thread darueber oeffnen; meistens werden sehr bekannte Begriffe von anderen Sprachen uebernommen, wenn es keinen ebenbuertigen Begriff/Wort in der eigenen Sprache gibt; siehe auch "Kitsch" :D

Ailuros
2005-06-13, 00:44:48
AFAIK muss trotzdem die CPU die Vertizes erzeugen. Ein hoher Polygoncount belastet somit immer die CPU. Die T&L-Einheit transformiert diese lediglich. Das war bei TruForm anders. Da hat die Grafikkarte die Vertizes erzeugt.

Aber nur leider erzeugt sie nur und das unter ziemlich begrenzten Umstaenden; ich will heutzutage voll programmierbare adaptive on-chip Tesselation sehen, sonst kann man eigentlich auch schwer von "advanced HOS" reden.

Obwohl ich mir vielleicht wieder ins eigene Bein schiesse, hab ich das Gefuehl dass man in Faellen mit fixed function Einheiten die nur vertices herstellen koennen auch zu quasi "Ueber-Tesselation" kommen koennte und das klingt auch wieder nicht gut fuer die CPU so wie ich es verstanden habe.

r3ptil3
2005-06-13, 03:40:17
http://www.gamezoom.de/artikel/show/0,162843,1,11347.html

Der nächste Treiber von NV soll 16xAA integriert haben. (für sLi natürlich)

Gast
2005-06-13, 03:41:44
http://www.gamezoom.de/artikel/show/0,162843,1,11347.html

Der nächste Treiber von NV soll 16xAA integriert haben. (für sLi natürlich)
Gibts doch schon lange als Tweak.

Konsolenfreund

r3ptil3
2005-06-13, 03:42:41
Gibts doch schon lange als Tweak.

Konsolenfreund

Ok, wusste ich nicht.

mapel110
2005-06-13, 03:44:22
Gibts doch schon lange als Tweak.

Konsolenfreund
Fragt sich, ob nvidia unter 16xAA das gleiche versteht wie aths im atuner. :)

Gast
2005-06-13, 03:55:46
Fragt sich, ob nvidia unter 16xAA das gleiche versteht wie aths im atuner. :)
Davon gehe ich mal aus. Was wollen sie sonst für Modi bringen?

Konsolenfreund

Ailuros
2005-06-13, 04:00:10
Davon gehe ich mal aus. Was wollen sie sonst für Modi bringen?

Konsolenfreund

Es gibt schon einen relevanten Thread von Xmas ueber andere Moeglichkeiten; muss nicht unbedingt der Fall sein aber 4*4 SSAA und 16xS fressen auch ziemlich viel Leistung.

aths
2005-06-13, 05:06:25
LOL, trotzdem gibt es immer noch genug Spiele, die von TruForm bzw. höheren Polygonzahlen profitieren würden. Schau dir mal WoW an. Da stolpert man von einer Ecke zur anderen. Vieles könnte dort 'runder' gemacht werden können und es würde optisch auch was bringen.Damit man anschließend nicht über Polygaps stolpert, hätten die Modelle gleich entsprechend für TruForm optimiert erstellt werden müssen. Bestimmte Dinge lassen sich mit TruForm gar nicht optimieren.

aths
2005-06-13, 05:10:26
AFAIK muss trotzdem die CPU die Vertizes erzeugen. Ein hoher Polygoncount belastet somit immer die CPU. Die T&L-Einheit transformiert diese lediglich. Das war bei TruForm anders. Da hat die Grafikkarte die Vertizes erzeugt.Mit Vertexbuffern und Listen kann man hier einiges machen, um die CPU-Last nicht ausufern zu lassen. Vom Instancing ganz zu schweigen, zum Glück ein Pflichtfeature bei SM3.

TruForm bläst konvexe Modelle auf, ihr Volumen nimmt also zu. Das ist jedoch falsch – nur wenn etwas runder aussehen soll heißt es nicht, dass das Modell mehr Volumen beanspruchen soll. TruForm nutzt einen "Trick", der auch beim Dot3-Shading gemacht wird. Was beleuchtungstechnisch ok aussieht, kann beim Anfassen der tatsächlichen Geometrie in die Hose gehen. Neben aufgedunsenen Armen und runden Gewehrläufen können Polygaps auftreten.

Würde die Geometrie speziell TruForm-optimiert, wäre es etwas anderes. Letztlich bestünde der größere Gewinn aber in höherer allgemeiner Geometrieleistung.

Wäre es so einfach: TruForm aktiveren, tolle Grafik genießen, dann hätten das wohl auch mehr Entwickler bei der Radeon 8500 genutzt, ATI hätte den HW-Support im R300 drin gelassen und Nvidia hätte abgekupfert ("IntelliForm" oder so.) Stattdessen hat ATI die Vertex-Power derbe gesteigert, so dass man generell mehr Geometrieleistung hat.

Gast
2005-06-13, 09:24:45
Schadenfreude. Man soll es nicht glauben aber manchmal klaut das Englisch auch beim Deutsch. Kindergarten ist auch so ein Beispiel.
Nicht zu vergessen Doppelgänger, Zeitgeist, Lust und – natürlich – Blitzkrieg. :)

Quasar
2005-06-13, 13:08:49
Rucksack, Kindergarten, Autobahn und natürlich "uber".
In New York beliebt ist auch "to schlepp" - means to carry heavy loads etc.pp.

Vielleicht doch lieber ein OT-Thread dafür?

Gast
2005-06-13, 14:09:56
Rucksack, Kindergarten, Autobahn und natürlich "uber".
In New York beliebt ist auch "to schlepp" - means to carry heavy loads etc.pp.

Vielleicht doch lieber ein OT-Thread dafür?
Kindergarten zählt nicht, wurde schon erwähnt! Schätze mal, daß Wiener Schnitzel und Sauerkraut dem ein oder anderen Amerikaner auch ein Begriff ist. :)
Um noch was zum Thema zu sagen: Meine streng geheime Kontaktperson bei der NSA hat mir gestern eine brandheiße Information zugespielt. Demnach wird der G70 vom R520 zum Frühstück vernascht. :O

SKYNET
2005-06-13, 14:26:54
Um noch was zum Thema zu sagen: Meine streng geheime Kontaktperson bei der NSA hat mir gestern eine brandheiße Information zugespielt. Demnach wird der G70 vom R520 zum Frühstück vernascht. :O


selbiges sagte meine kontaktperson vom CIA über den G70, das dieser den R520 förmlich zerreißen wird. :O

Godmode
2005-06-13, 14:31:51
Schreibt schon wer an G70 Artikeln? Aths, Demirug und Co, oder gibts die Informationen erst zum Launchtag?

SKYNET
2005-06-13, 14:45:07
du glaubst doch nicht das demi/aths etc. was rausrücken?

die werden sich schön hüten, stichwort NDA.

Godmode
2005-06-13, 14:51:46
du glaubst doch nicht das demi/aths etc. was rausrücken?

die werden sich schön hüten, stichwort NDA.

Ich will doch gar keine Details wissen, nur ob wir einen schönen Artikel bekommen am Launchtag!

Quasar
2005-06-13, 14:53:18
Wenn es ein NDA gibt, ist auch die Existenz des NDA üblicherweise Bestandteil desselben.

Gast
2005-06-13, 17:18:24
Wenn es ein NDA gibt, ist auch die Existenz des NDA üblicherweise Bestandteil desselben.

wie geil

das is so wie mitm bücherindex im mittelalter, der index stand selber aufm index^^

deekey777
2005-06-13, 18:51:13
Nvidian Geforce 7800 GTX (G70) sets sale (http://www.theinq.com/?article=23915)



THANKS TO A a sharp-eyed reader we discovered a company already listing Nvidian Geforce 7800 GTX cards.
It's an option on a PCI Express PC at ibuyer.com.

The Geforce 7800 GTX with 256MB - for now - sporting with DVI and TV out will add $639 to your PC's price.

You can check the picture below or you go to the site...

Übrigens ist die Option schon weg. :biggrin:

Godmode
2005-06-13, 18:54:21
Nvidian Geforce 7800 GTX (G70) sets sale (http://www.theinq.com/?article=23915)



THANKS TO A a sharp-eyed reader we discovered a company already listing Nvidian Geforce 7800 GTX cards.
It's an option on a PCI Express PC at ibuyer.com.

The Geforce 7800 GTX with 256MB - for now - sporting with DVI and TV out will add $639 to your PC's price.

You can check the picture below or you go to the site...

Übrigens ist die Option schon weg. :biggrin:

Hui a bissl teuer wie ich finde!

edit: wenn man mit dem heutigen Dollarkurs rechnet: 1,2080 dann kostet sie 529 €

Blaire
2005-06-13, 19:00:05
Noch dazu für nur 256MB...

pF3NG
2005-06-13, 19:02:17
Noch dazu für nur 256MB...
Ja wirklich ziemlich überzogen der Preis :frown: