PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV45 Benches


Aqualon
2004-06-28, 21:46:34
H!

In der aktuellen c't 14/04 wurden Intels neue Produkte wie der P4 3.6GHz für Sockel 775 und der Chipsatz i925X mit DDR2 und PCI-Express getestet. Zum Einsatz als PCI-Express Grafikkarte kam dabei ein NV45 Prototyp von Nvidia, der mit 435MHz getaktet war.

Teile des Artikels gibt es unter http://www.heise.de/ct/04/14/170/

Nun zu den Benchmarks:


P4-EE 3.4GHz Intel i925x Nvidia NV45

3DMark 2001 22134
3DMark 2003 12794
Quake 3 Demo 001 1280*1024 402
UT botmatch dm antalus 1024*768 81
el. Leistung idle 145
el. Leistung max 269

P4 560 (3.6GHz) Intel i925x Nvidia NV45

3DMark 2001 20714
3DMark 2003 12757
Quake 3 Demo 001 1280*1024 366
UT botmatch dm antalus 1024*768 77
el. Leistung idle 156
el. Leistung max 316

P4 3.40E GHz Intel i975p Nvidia GeForce Ultra 6800

3DMark 2001 20989
3DMark 2003 13041
Quake 3 Demo 001 1280*1024 345
UT botmatch dm antalus 1024*768 74
el. Leistung idle 151
el. Leistung max 295

Athlon64 FX-53 (2.4GHz) Via K8T800 Pro Nvidia GeForce Ultra 6800

3DMark 2001 26044
3DMark 2003 13157
Quake 3 Demo 001 1280*1024 372
UT botmatch dm antalus 1024*768 97
el. Leistung idle 127
el. Leistung max 239

Athlon64 3200+ (2.0GHz) Via K8T800 Nvidia GeForce Ultra 6800

3DMark 2001 23139
3DMark 2003 12637
Quake 3 Demo 001 1280*1024 321
UT botmatch dm antalus 1024*768 83
el. Leistung idle 101
el. Leistung max 211


Alle Benches mit 512MB RAM (PC2-430-444 bzw. PC3200-3033), Nvidia ForceWare 61.34, DirectX 9.0b, XP Pro SP1. Die GeForce Ultra 6800 war zur Vergleichbarkeit ebenfalls auf 435 MHz runtergetaktet. Elektrische Leistungsangaben in Watt.

Leider gab es keine direkt vergleichbaren Systeme, aber viel getan hat sich zwischen NV40 und NV45 augenscheinlich nicht.

Aqua

Endorphine
2004-06-28, 22:07:27
Ich wage zu behaupten, dass ein NV45 nur ein unveränderter NV40 mit PCIe-Bridge auf der IC-Verpackung ist. Da hätte ich doch noch etwas Feinschliff/Bugfixing am NV40 erwartet...

James Ryan
2004-06-28, 22:09:29
Original geschrieben von Aqualon
Leider gab es keine direkt vergleichbaren Systeme, aber viel getan hat sich zwischen NV40 und NV45 augenscheinlich nicht.

Es sollte sich ja auch nichts tun, da der NV45 nur ein NV40 mit PCI-Express ist, nicht mehr und nicht weniger! ;)

MfG :smokin:

PS: Nice Avatar! ;D

DrumDub
2004-06-28, 22:11:46
Original geschrieben von Endorphine
Ich wage zu behaupten, dass ein NV45 nur ein unveränderter NV40 mit PCIe-Bridge auf der IC-Verpackung ist.

sieht ganz danach aus. schon krass, wie der a64 den p4 schlägt (bis auf q3) bei wesentlich geringerer leistungsaufnahme. :)

Aqualon
2004-06-29, 00:53:02
Original geschrieben von James Ryan
Es sollte sich ja auch nichts tun, da der NV45 nur ein NV40 mit PCI-Express ist, nicht mehr und nicht weniger! ;)
Stimmt, da war doch noch was (http://www.3dcenter.org/news/2004/woche23.php#2004-06-02) :D

Aber auf jedenfall ist jetzt bewiesen, dass das wirklich der Fall ist und sich ausser dem Interface nichts geändert hat.

Bin aber gespannt, bis wann wir mit dem NV45 offiziell rechnen können, bisher sind die für PCI-Express verfügbaren Grafikkarten ja sehr spärlich gesät.

Aqua

Edit: Hab gerade den SLI-Artikel gelesen. Hochgerechnet für 2 NV45 und den Prescott 3.6GHz dürfte die maximale Leistungsaufnahme gut über 400W liegen. Noch ein Monitor + sonstige externe Peripherie dazu und die Kiste würde in 2h 1KWh verpulvern :bonk:

knallebumm
2004-06-29, 02:12:08
Original geschrieben von DrumDub
sieht ganz danach aus. schon krass, wie der a64 den p4 schlägt (bis auf q3) bei wesentlich geringerer leistungsaufnahme. :)

Ich hatte mal irgendwann amd-speed dll´s für meinen xp probiert und hatte bei q3 wesentlich bessere benchergebnisse. Leider kannste damit nicht mehr online spielen. (bist dann unpure)

afaik bencht hardtecs4u mit solchen amd dll´s (was auch immer das ist) und die amd 64 ziehen bei q3 gleich. (ist also anscheinend auch hier ne Frage der Optimierung)

edit: ich seh gerade, daß die intels bei ht4u in q3 deutlich versägt werden: http://www.hardtecs4u.de/reviews/2004/amd_sockel939/index15.php

Gast
2004-06-29, 06:39:57
Netter Stromverbrauch bei den Intel systemen, gibt es Die auch in Sparsam oder nur Stromfressend ?

BlackBirdSR
2004-06-29, 07:58:03
Original geschrieben von handyman
Ich hatte mal irgendwann amd-speed dll´s für meinen xp probiert und hatte bei q3 wesentlich bessere benchergebnisse. Leider kannste damit nicht mehr online spielen. (bist dann unpure)

afaik bencht hardtecs4u mit solchen amd dll´s (was auch immer das ist) und die amd 64 ziehen bei q3 gleich. (ist also anscheinend auch hier ne Frage der Optimierung)

edit: ich seh gerade, daß die intels bei ht4u in q3 deutlich versägt werden: http://www.hardtecs4u.de/reviews/2004/amd_sockel939/index15.php

Ich hoffe doch, dass diese DLLs auch für die Intel Systeme verwendet werden. Sonst sind die ganzen Benches für die Mülltonne.

Gast
2004-06-29, 09:18:25
Original geschrieben von Endorphine
Da hätte ich doch noch etwas Feinschliff/Bugfixing am NV40 erwartet...

Welche Bugs, welcher Feinschliff??

aths
2004-06-29, 09:25:53
Original geschrieben von Endorphine
Ich wage zu behaupten, dass ein NV45 nur ein unveränderter NV40 mit PCIe-Bridge auf der IC-Verpackung ist. Da hätte ich doch noch etwas Feinschliff/Bugfixing am NV40 erwartet... In der Kürze? Vielleicht wird sogar NV48 nur ein Speed-Upgrade sein.

seahawk
2004-06-29, 09:32:02
Original geschrieben von aths
In der Kürze? Vielleicht wird sogar NV48 nur ein Speed-Upgrade sein.

Wenn die spekulierten Termine für NV50 stimmen und da am NV40 nichts grundsätzlich verkehrt zu sein scheint, ist imho auch nicht mehr notwendig.
Sollte NV 500MHz aus dem NV48 holen können, wäre das sicherlich ausreichend.

robbitop
2004-06-29, 11:11:59
bei gleicher Fertigungstechnologie?
Hm, das stell ich mir schwierig vor. Vieleicht ist die Fertigung dann etwas ausgereifter und man nimmt sich das NV4x Design nochmal zur Optimierung vor (wobei es mir schon ziemlich gut vorkommt für 222Mio Transistoren)

seahawk
2004-06-29, 11:42:19
angeblich gab es NV40 Samples die Mhz-Core brachten.

Unmöglich ist es nicht. Realisitsch erscheint mir etwas < 475 mhz.

robbitop
2004-06-29, 11:46:52
MHz Core?

ja 475 finde ich auch realistisch. Ich denke mal die 6800U EE haben sie raus genommen, weil sie dann keine Luft mehr nach oben zum Refresh hätten.

seahawk
2004-06-29, 11:48:29
500Mhz Core.

Allerdings sollen die auch wieder etwas in Richtung Dustbuster-Kühlung gegangen sein.

Winter[Raven]
2004-06-29, 12:47:56
Original geschrieben von aths
In der Kürze? Vielleicht wird sogar NV48 nur ein Speed-Upgrade sein.

"Gerüchten" zufolge, soll das Shaderspeed-hänchen bei weitem noch lange nicht gerupft sein, was Nvidia angeht... X-D

Beim NV48 wird Nvidia wieder wohl zu TMSC zurückkehren und LowK nützen, bzw. was sehr ratsam wäre :)

robbitop
2004-06-29, 13:35:38
sagt wer?
Wenn das der Fall wäre, würde das viel Geld kosten und es wäre ein Risiko einen so großen Chip nocheinmal zu rampen und das mit lowk. Und selbst wenn das so wäre, müsste NV schon damit angefangen haben. Ich habe noch keine einzige Aussage, geschweige denn ein Indiz dafür gesehen.
IMO Spekulation und Träumerei.

Gast
2004-06-29, 13:55:04
Is doch käse, wenn der NV48 in 6 Monaten kommen sollte (Refresh kommt ja quasi immer in dem Zeitraum) dann hat er sein Tapeout kurz vor sich, und is damit schon lange "fertig" Entwickelt, bzw. Optimiert. Das ist viel zu kurz um auf n neuen Fertigungsprozess umzusteigOrn.

robbitop
2004-06-29, 13:58:20
wer hingegen sagt, dass das jetzt entschieden worde und nich schon vor X Monaten.
Wir wissen sowieso nicht wann was bei IHV XYZ abläuft, weils intern ist.

Und sobald wir etwas als Neuigkeit erfahren ists eh kalter Kaffee.

Gast
2004-06-29, 14:59:07
Auf techreport.com und computerbase.de sind einige Infos hierzu finden:

Fazit:

Eine X699XT !!!!! PCI Express liegt um 80% höher als eine GeForce6800 PCI Express!!!!


Fragen ?? Keine ! Gut :)

aths
2004-06-29, 15:07:42
Original geschrieben von Winter[Raven]
"Gerüchten" zufolge, soll das Shaderspeed-hänchen bei weitem noch lange nicht gerupft sein, was Nvidia angeht... X-D Von solchen Gerüchten weiß ich nichts.

Tjell
2004-06-29, 15:16:21
Original geschrieben von Gast
Auf techreport.com und computerbase.de sind einige Infos hierzu finden:

Fazit:

Eine X699XT !!!!! PCI Express liegt um 80% höher als eine GeForce6800 PCI Express!!!!


Fragen ?? Keine ! Gut :)

Was ist das denn für ein sinnfreier Beitrag?

Gast
2004-06-29, 15:29:23
Original geschrieben von Tjell
Was ist das denn für ein sinnfreier Beitrag?

Hast du ihn auch brav der Moderation gemeldet, damit er evtl. entfernt wird?

Tjell
2004-06-29, 15:35:00
Original geschrieben von Gast
Hast du ihn auch brav der Moderation gemeldet, damit er evtl. entfernt wird?

Anstatt hier Behauptungen aufzustellen wäre es vielleicht sinnvoller, wenn Du mal mitteilst, was Du eigentlich aussagen willst.

Oder mal einen vernünftigen Link angeben.

Gast
2004-06-29, 15:40:45
Original geschrieben von Gast
Auf techreport.com und computerbase.de sind einige Infos hierzu finden:

Fazit:

Eine X699XT !!!!! PCI Express liegt um 80% höher als eine GeForce6800 PCI Express!!!!


Fragen ?? Keine ! Gut :)

Könntest du dazu genaue Links posten?

Winter[Raven]
2004-06-29, 16:56:44
Original geschrieben von aths
Von solchen Gerüchten weiß ich nichts.

Deswegen schreib ich ja auch: "Gerücht", obs stimmt oder nicht ist eine andere Frage. Im Allgeimeinen war es ehe etwas "Langfristing" gemeint, und nicht so direkt auf den NV48 bezogen.

q@e
2004-06-29, 17:10:24
Original geschrieben von Gast
Auf techreport.com und computerbase.de sind einige Infos hierzu finden:
Fazit:
Eine X699XT !!!!! PCI Express liegt um 80% höher als eine GeForce6800 PCI Express!!!!
Fragen ?? Keine ! Gut :)
Du meinst sicherlich die X600 XT, oder?

Wird dir der Bench, auf den du dich wohl beziehst, mehr Wert, wenn ich dir sage, daß zeckensacks WildCat VP560 (eine AGP-Karte wohlgemerkt!) darin nochmals rund 10% schneller ist?

Vielleicht sollten wir alle auf etwas ausgereiftere Treiber warten und darauf, wann die Hersteller auch bei AGP-Karten man das volle Potential des Rückkanals nutzen.

BTW, zumindest auf Computerbase war das nicht das "Fazit", wie du sagst...

MadManniMan
2004-06-29, 17:25:25
Wenn schon der Gast nicht die Links gibt, kannst du das bitte machen, Q?

aths
2004-06-29, 17:50:06
Original geschrieben von Winter[Raven]
Deswegen schreib ich ja auch: "Gerücht", obs stimmt oder nicht ist eine andere Frage. Was Gerüchte angeht, sowas kommt in der Regel an mir vorbei. Solche Gerüchte kenne ich aber nicht. Dass neue Generationen (NV50+) beim Pixelshader 3.0 deutlich schneller sein werden, als NV40, ist ja nicht schwer vorherzusagen.

q@e
2004-06-29, 18:05:46
Original geschrieben von MadManniMan
Wenn schon der Gast nicht die Links gibt, kannst du das bitte machen, Q?

Aber gern (http://www.computerbase.de/artikel/hardware/prozessoren/intels_zukunftsplattform/10/#pci_expess_for_graphics_gegen_agp).
Den von Techreport weiß ich allerdings nicht.

sry
;(

Aqualon
2004-06-29, 18:31:04
TechReport: http://techreport.com/reviews/2004q2/intel-9xx/index.x?pg=13

Was mich aber ein wenig wundert ist, warum Nvidia nicht einfach den NV40 weiterverwendet, wenn eh ein Bridge-Chip zum Einsatz kommt. Wenn man nach diesen Bildern (http://techreport.com/onearticle.x/6903) geht, scheint es keine Unterschiede zwischen NV40 und NV45 zu geben.

Ein extra Codename, nur weil ein Bridgechip noch mit dranhängt, scheint mir dann doch übertrieben.

Aqua

q@e
2004-06-29, 18:46:27
Danke für's Link-Reparieren, Aqualon. =)

Und ja, wenn das PDF zur SLI-Technik hier ausnahmsweise mal stimmig und vollständig ist, dann ist sogar der Chipteil für SLI schon mit auf dem nV40 - ein extra Codenamen, noch dazu einer von 0 auf 5, der beim nV3x ja einigen schon viel bedeutete, ist hier IMO nicht wirklich angebracht.

Aber was will man machen - es sind halt interne Codenamen.

Tjell
2004-06-29, 22:33:25
Will der Gast uns noch sein Fazit darlegen, daß er uns mithilfe dieser Seiten vermitteln will?

Aqualon
2004-06-29, 23:01:28
Original geschrieben von Tjell
Will der Gast uns noch sein Fazit darlegen, daß er uns mithilfe dieser Seiten vermitteln will?
Ich kenne zwar das Fazit des Gastes nicht, aber ich kann dir gerne mein Fazit mitteilen ;)

Was man an den Tests schön sieht ist, dass sowohl ATI als auch Nvidia meilenweit vom theoretisch möglichem entfernt sind. Sehr verwunderlich ist das aber nicht, da die Nutzung des Rückkanals bisher keinerlei Notwendigkeit dargestellt hat. Ausser dem einen Testprogramm ist mir auch keine Software bekannt, die den Rückkanal intensiver nutzen würde und anhand der man die verschiedenen Grafikkarten praxisnah testen könnte.

Was wir haben ist also einerseits eine ziemlich neue Anwendungsmöglichkeit, die von den Herstellern noch nicht so wirklich unterstützt wird und andererseits ein Testprogramm, von dem man nicht weiß, ob es die Leistungsfähigkeit überhaupt 100%ig korrekt widergibt.

Wenn es einmal praxistaugliche Programme wie Video-Encoder gibt, können die Tests damit wiederholt und daraus ein brauchbares Fazit gezogen werden. Bis dahin lässt sich aus meiner Sicht nichts definitives zur Rückkanal-Performance sagen.

Aqua

Endorphine
2004-06-30, 00:22:18
Original geschrieben von Aqualon
Was man an den Tests schön sieht ist, dass sowohl ATI als auch Nvidia meilenweit vom theoretisch möglichem entfernt sind. Sehr verwunderlich ist das aber nicht, da die Nutzung des Rückkanals bisher keinerlei Notwendigkeit dargestellt hat. Ausser dem einen Testprogramm ist mir auch keine Software bekannt, die den Rückkanal intensiver nutzen würde und anhand der man die verschiedenen Grafikkarten praxisnah testen könnte. Ich denke, dass genau anders herum ein Schuh draus wird: der Downstream ist viel zu langsam, so dass bis jetzt keine verbreitete Software geschrieben wurde, welche diesen so stark nutzt, dass dieser limitiert.

<200 MiB/s sind einfach nur lächerlich, und das bei >15 ns minimaler Latenz. Kein Wunder, dass alle Programmierer Funktionen meiden, die intensiven Gebrauch vom Rückkanal machen:

http://forum-3dcenter.org/vbulletin/attachment.php?s=&postid=1930435

Wenn (native) PCIe-Grafikkarten erst mal eine nennenswerte Marktdurchdringung erreicht haben wird sich das sicher ändern. Dann sind aber wohl auch wieder sämtliche derzeit aktuelle AGP-Karten völlig veraltet, so dass kaum jemand auf die Idee kommen wird, dass tatsächlich auch das Interface für die Rechenleistung eine Rolle spielt :D

Die oft aufgestellte Schlussfolgerung "neue Hardwaretechnik bringt mit derzeit verbreiteter Software keine Vorteile &rArr; neue Technik ist sinnfrei" gilt eben in solchen Henne-Ei Situationen eher nicht ;) Es liegt imho eben gerade nicht an einer fehlenden Notwendigkeit, sondern an einer technischen Begrenzung, welche für Notwendigkeiten bestimmter Anwendungen gar keine Möglichkeit erlaubt, den Rückkanal intensiv zu nutzen (ohne die Performance in's Bodenlose sinken zu lassen).

Xmas
2004-06-30, 02:15:47
Nur was wären denn bisher die "verbreiteten" Anwendungsgebiete für einen schnellen Rückkanal gewesen?

MadManniMan
2004-06-30, 02:47:17
Original geschrieben von q@e
Aber gern (http://www.computerbase.de/artikel/hardware/prozessoren/intels_zukunftsplattform/10/#pci_expess_for_graphics_gegen_agp).
Den von Techreport weiß ich allerdings nicht.

sry
;(

Dankens :up:

q@e
2004-06-30, 06:57:41
Original geschrieben von Endorphine
Ich denke, dass genau anders herum ein Schuh draus wird: der Downstream ist viel zu langsam, so dass bis jetzt keine verbreitete Software geschrieben wurde, welche diesen so stark nutzt, dass dieser limitiert.

<200 MiB/s sind einfach nur lächerlich, und das bei >15 ns minimaler Latenz. Kein Wunder, dass alle Programmierer Funktionen meiden, die intensiven Gebrauch vom Rückkanal machen:

http://forum-3dcenter.org/vbulletin/attachment.php?s=&postid=1930435

Wenn (native) PCIe-Grafikkarten erst mal eine nennenswerte Marktdurchdringung erreicht haben wird sich das sicher ändern. Dann sind aber wohl auch wieder sämtliche derzeit aktuelle AGP-Karten völlig veraltet, so dass kaum jemand auf die Idee kommen wird, dass tatsächlich auch das Interface für die Rechenleistung eine Rolle spielt :D

Die oft aufgestellte Schlussfolgerung "neue Hardwaretechnik bringt mit derzeit verbreiteter Software keine Vorteile &rArr; neue Technik ist sinnfrei" gilt eben in solchen Henne-Ei Situationen eher nicht ;) Es liegt imho eben gerade nicht an einer fehlenden Notwendigkeit, sondern an einer technischen Begrenzung, welche für Notwendigkeiten bestimmter Anwendungen gar keine Möglichkeit erlaubt, den Rückkanal intensiv zu nutzen (ohne die Performance in's Bodenlose sinken zu lassen).

Du solltest dich nicht so von den Marketing-Papers einlullen lassen, Endo. :)
Zeckis Wildcat hat bsw. einen 400MB/s schnellen Rückkanal im Treiber freigeschaltet... QuadroFX und Wildcat Realizm gehen (zu meiner Schande ebenfalls) lt. Herstelleraussagen an 1 GB/s heran.

Natürlich ist das kein Vergleich zu PCI-e, aber wenn man den Rückkanal nutzen wollte und es sinnvolle Anwendungen dafür gäbe, wäre er auch auf aktuellen Consumer-Produkten deutlich schneller zu gestalten.
Dazu sind die DevRel Abteilungen von nV und ATi (und wohl auch noch andere) in den letzten Jahren zu sämtlichen Entwicklern gerannt und haben gesagt: "Nutzt nicht den Backchannel - schlecht für die Performance" Nun müssen genau diese Leute da wieder hinrennen und den Devs sagen, möglichst den Rückkanal für irgendwas zu nutzen, damit PCI-e möglichst bald ein "must-have" wird.
Nur wird hier genauso ein Hype veranstaltet, wie damals mit AGP-Texturing: Was sollte es nicht alles bringen und Grafikkarten mit großem V-RAM überflüssig machen. :lol:
Heute genau dasselbe, auch wenn PCI-e die vollen Bandbreite eines einzelnen DDR400-Channels zu liefern im Stande wäre - das ist Faktor zehn langsamer, als High-End Grafikkarten. :eyes: Und dabei sind die Latenzen vom Hauptspeicher (2 Takte bei 200MHz) wohl noch etwas bescheidener als die "AGP-Molasses"...

BTW, vor ca. einem Jahr war der Rückkanal bei ATi noch bei etwa 10MB/s - hier haben neuere Treiber deutlich Abhilfe geschaffen, zumindest unter Direct3D. Das kann durchaus noch weitergetrieben werden.

Über die Latenzen und wie sie sich in der Praxis summieren, weiß ich nicht viel - allerdings halte ich auch das "Anwendungsbeispiel" eines IHV für PCI-e, in dem man vier simultane HD-Videostreams in Echtzeit bearbeiten soll/will/kann für etwas überzogen - selbst wenn PCI-e die Datenmenge verkraftet - welche CPU/GPU-Kombination kommt da hinterher?

robbitop
2004-06-30, 10:51:42
@Quasar

könnte es nicht auch so sein, wie Endo vermutete, dass SLI eine spezialfunktion von HSI sei, ein PCI-E 1x Kanal der durchgeschliffen wird?

HOT
2004-06-30, 10:56:17
Original geschrieben von BlackBirdSR
Ich hoffe doch, dass diese DLLs auch für die Intel Systeme verwendet werden. Sonst sind die ganzen Benches für die Mülltonne.

Meines Wissens sind diese Speed dlls nichts weiter als die originalen, in denen die Intel Erkennung für SSE entfernt wurden, SSE also auch bei AMD läuft. Somit bleibts ja absolut vergleichbar, nein falsch, dadurch wird es erst vergleichbar ;)

q@w
2004-06-30, 11:32:15
Original geschrieben von robbitop
@Quasar

könnte es nicht auch so sein, wie Endo vermutete, dass SLI eine spezialfunktion von HSI sei, ein PCI-E 1x Kanal der durchgeschliffen wird?

Nicht undenkbar - aber wie gesagt, die bisher zugänglichen Doks SLI betreffen sind schlichtweg unbrauchbar für mehr als nur ein bißchen die Werbetrommel zu rühren.
Und wenn man sich auf dieses besagte Dokument verläßt (verlassen will :eyes: ), dann hat bereits der nV40 die Möglichkeit hierzu intus.

robbitop
2004-06-30, 11:40:11
ich frage mich, ob die Geometrieleistung mitskalliert.
Weist der Treiber die Verticles für jede einzelne VPU zu oder bekommen beide alles und dann wird aufgeteilt?

Gast
2004-06-30, 11:49:58
Original geschrieben von robbitop
ich frage mich, ob die Geometrieleistung mitskalliert.
Weist der Treiber die Verticles für jede einzelne VPU zu oder bekommen beide alles und dann wird aufgeteilt?

Steht doch alles im Artikel drin, Stichwort "load balancing".

robbitop
2004-06-30, 12:36:19
der Artikel basiert auf spärlichen PR Informationen.

Endorphine
2004-06-30, 13:37:55
Original geschrieben von Xmas
Nur was wären denn bisher die "verbreiteten" Anwendungsgebiete für einen schnellen Rückkanal gewesen? Ich bin leider kein besonders versierter und erfahrener Programmierer ;( Das müsstest du mir eher sagen, was man damit in Zusammenhang mit einer GPU alles anstellen kann :)

Mir fällt auf die Schnelle nur zeckensack's GLIDE-Wrapper ein, der dadurch limitiert ist, und Demis Variante von deinem Filtertest.

Sonst ist mein Einblick in programmiertechnische Details von Anwendungen, die 3D-Hardwarebeschleunigung nutzen eher mau...

Möglich wären eben Funktionen, die intensiv den Rückkanal nutzen und in beide Richtungen mit der GPU kommunizieren und die Grafikkarte nicht nur als Datensenke benutzen ;) Anwendungen, die die GPU als echten Coprozessor zur CPU nutzen.

q@w
2004-06-30, 13:41:07
Original geschrieben von robbitop
ich frage mich, ob die Geometrieleistung mitskalliert.
Weist der Treiber die Verticles für jede einzelne VPU zu oder bekommen beide alles und dann wird aufgeteilt?

Ich habe auch nur die spärlichen PDF-Infos, aber ich vermute mal, daß zur Slave-Karte nur die Renderjobs geschickt werden - die Geometrieleistung ist für normale "Anwendungen" sowieos mehr als überdimensioniert.

Endorphine
2004-06-30, 13:42:30
Original geschrieben von q@e
Du solltest dich nicht so von den Marketing-Papers einlullen lassen, Endo. :)
Zeckis Wildcat hat bsw. einen 400MB/s schnellen Rückkanal im Treiber freigeschaltet... QuadroFX und Wildcat Realizm gehen (zu meiner Schande ebenfalls) lt. Herstelleraussagen an 1 GB/s heran.

Natürlich ist das kein Vergleich zu PCI-e, aber wenn man den Rückkanal nutzen wollte und es sinnvolle Anwendungen dafür gäbe, wäre er auch auf aktuellen Consumer-Produkten deutlich schneller zu gestalten.
Dazu sind die DevRel Abteilungen von nV und ATi (und wohl auch noch andere) in den letzten Jahren zu sämtlichen Entwicklern gerannt und haben gesagt: "Nutzt nicht den Backchannel - schlecht für die Performance" Nun müssen genau diese Leute da wieder hinrennen und den Devs sagen, möglichst den Rückkanal für irgendwas zu nutzen, damit PCI-e möglichst bald ein "must-have" wird.
Nur wird hier genauso ein Hype veranstaltet, wie damals mit AGP-Texturing: Was sollte es nicht alles bringen und Grafikkarten mit großem V-RAM überflüssig machen. :lol:
Heute genau dasselbe, auch wenn PCI-e die vollen Bandbreite eines einzelnen DDR400-Channels zu liefern im Stande wäre - das ist Faktor zehn langsamer, als High-End Grafikkarten. :eyes: Und dabei sind die Latenzen vom Hauptspeicher (2 Takte bei 200MHz) wohl noch etwas bescheidener als die "AGP-Molasses"...

BTW, vor ca. einem Jahr war der Rückkanal bei ATi noch bei etwa 10MB/s - hier haben neuere Treiber deutlich Abhilfe geschaffen, zumindest unter Direct3D. Das kann durchaus noch weitergetrieben werden.

Über die Latenzen und wie sie sich in der Praxis summieren, weiß ich nicht viel - allerdings halte ich auch das "Anwendungsbeispiel" eines IHV für PCI-e, in dem man vier simultane HD-Videostreams in Echtzeit bearbeiten soll/will/kann für etwas überzogen - selbst wenn PCI-e die Datenmenge verkraftet - welche CPU/GPU-Kombination kommt da hinterher? Es ist wie schon gesagt aus meiner Sicht ein Henne-Ei Problem: der Rückkanal ist (idR) schneckenlahm und hochlatenzig, deshalb schreibt niemand Programme, die an dieser Stelle I/O-Leistung in rauen Mengen konsumieren. Wenn diese Schwäche erstmal behoben ist ermöglicht das Programmierern erst, Funktionen umzusetzen, die jetzt noch nicht sinnvoll realisierbar sind :)

zeckensack, Xmas und Demirug müssten also hier den Finger heben und seitenweise Ideen bringen, was man denn der gewonnenen Downstreambandbreite im Zusammenhang mit der Programmierbarkeit von GPUs so alles anstellen könnte =)

<spass>
*Verantwortung abschieb* ;)
</spass>

q@w
2004-06-30, 14:17:18
IMO nicht.

Die Henne legte mit Absicht ein zu kleines Ei und versuchte dem Bauern weiszumachen, größere Eier wären eh schlecht, weil die keiner aufessen könnte - der Bauer gab das so an die Kunden weiter.

Nun kommen aber Gänse in Mode, deren Eier größer sind und der Bauer hat das Problem, daß er seinen Kunden erstmal klarmachen muss, warum er ihnen vorher so einen "Bockmist" erzählt hat.

Derweil zeigt dann auch die Henne, daß sie in der Lage ist, fünf- bis zehnmal so große Eier zu legen, wie zuvor, nur, damit sie von den Gänsen nicht komplett ausgestochen wird.

sry
;(

robbitop
2004-06-30, 14:28:37
und nun nochmal auf deutsch Quasar X-D

Gast
2004-06-30, 14:52:14
Original geschrieben von q@w
IMO nicht.

Die Henne legte mit Absicht ein zu kleines Ei und versuchte dem Bauern weiszumachen, größere Eier wären eh schlecht, weil die keiner aufessen könnte - der Bauer gab das so an die Kunden weiter.

Nun kommen aber Gänse in Mode, deren Eier größer sind und der Bauer hat das Problem, daß er seinen Kunden erstmal klarmachen muss, warum er ihnen vorher so einen "Bockmist" erzählt hat.

Derweil zeigt dann auch die Henne, daß sie in der Lage ist, fünf- bis zehnmal so große Eier zu legen, wie zuvor, nur, damit sie von den Gänsen nicht komplett ausgestochen wird.


das ist mit abstand die beste erklärung die ich gelesen habe: klar, sachlich, praxisnah, für wirklich jeden verständlich, bin kurz gesagt beeindruckt ;-) hut ab, respekt ! hat mich richtig munter gemacht :D
(nicht mißverstehen, ich mach mich hier nicht lustig, ich fand´s wirklich klasse ! einfach nur geil ! ich wünschte es gäbe öfter sowas in den foren anstatt seitenlangen flames und meins-ist-besser-als-deins diskussionen)

aths
2004-06-30, 15:47:58
Original geschrieben von robbitop
ich frage mich, ob die Geometrieleistung mitskalliert.
Lt. NV ja.

Xmas
2004-06-30, 15:49:31
Original geschrieben von Endorphine
Ich bin leider kein besonders versierter und erfahrener Programmierer ;( Das müsstest du mir eher sagen, was man damit in Zusammenhang mit einer GPU alles anstellen kann :)

Mir fällt auf die Schnelle nur zeckensack's GLIDE-Wrapper ein, der dadurch limitiert ist, und Demis Variante von deinem Filtertest.

Sonst ist mein Einblick in programmiertechnische Details von Anwendungen, die 3D-Hardwarebeschleunigung nutzen eher mau...

Möglich wären eben Funktionen, die intensiv den Rückkanal nutzen und in beide Richtungen mit der GPU kommunizieren und die Grafikkarte nicht nur als Datensenke benutzen ;) Anwendungen, die die GPU als echten Coprozessor zur CPU nutzen.
Deswegen auch das "bisher" in meiner Frage - mit modernen High-End GPUs (R420, NV40) sehe ich da durchaus Anwendungsgebiete, denn die haben die Flexibilität, Shaderlänge und Geschwindigkeit. Nur sind sie eben noch Nischenprodukte.
Und wegen des asynchronen Betriebs von CPU und GPU sehe ich auch ehrlich gesagt nicht, wo die geringere PCIE-Latenz entscheidend helfen sollte.

Leonidas
2004-07-03, 11:07:13
Original geschrieben von Aqualon

Leider gab es keine direkt vergleichbaren Systeme, aber viel getan hat sich zwischen NV40 und NV45 augenscheinlich nicht.



NV40 = NV45. Siehe dazu die News des 30. Juni:

Wir hatten vorgestern ein NV45-Preview von AnandTech zwar verlinkt, aber nicht extra darauf hingewiesen, weil uns die Sache zu unsicher war. Denn AnandTech hatte ein NV45-Sample gegen eine GeForce 6800 Ultra auf PCI Express getestet - wobei wir bisher dachten, daß dies ein und derselbe Chip wäre. Auch Nachfrage bei nVidia ergab sich, daß dem auch so ist: Der NV45-Chip wird in den Grafikkarten GeForce 6800GT und GeForce 6800 Ultra sowie später auch GeForce 6800 non Ultra als PCI Express Varianten resultieren. Wie die Unterscheidung zu den jeweiligen AGP-Varianten konkret kenntlich gemacht werden wird, ist zwar noch nicht entschieden, aber an dem prinzipiellen Namen "GeForce 6800" ändert sich nichts ...

... Demzufolge wird es die GeForce 6800 Chips und Karten einmal als AGP-Version und einmal als PCIe-Version geben - im übrigen ganz genau wie bei ATi, welche ihre HighEnd-Grafikkarten auf PCI Express schließlich auch unter gleichem Namen wie die AGP-Versionen auflaufen lassen. Demzufolge wird nVidia auch um den Launch des NV45-Chips als Grundlage der GeForce 6800 /GT/Ultra auf PCI Express kein größeres Aufheben machen, da es sich hierbei nur um einen NV40-Chip mit auf dem Die-Trägermaterial integrierter PCI Express Bridge handelt. Auch die Taktfrequenzen bleiben zwischen den einzelnen NV40- und NV45-Abkömmlingen vorerst gleich - daß das NV45-Testsample bei AnandTech mit 435 MHz einen etwas höheren Chiptakt hatte, ist für die Taktung der Serienkarten nicht relevant.


http://www.3dcenter.org/news/2004/woche27.php#2004-06-30