PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI/AMD-Interview von Extremetech


mapel110
2007-05-28, 19:04:37
http://www.extremetech.com/article2/0,1697,2103630,00.asp
Da gehts los.

-komplett neu geschriebener Opengl-Treiber bereits im Vista-Treiber drin, und kommt später dieses Jahr für XP und Linux
-CCC soll irgendwann mal alle AMD-Produkte ansteuern, CPU, Board und Graka.
-Reboots nach Treiberinstall gibts offenbar noch deswegen, weil die Treiberaktualisierung nur für den jeweiligen Nutzer aktiv ist direkt nach der Install. Interessant.
-Physik und sonstige Streamanwendungen für GPUs werden noch kommen dieses und nächstes Jahr.

Steht noch mehr drin, habs nur überflogen.

Gast
2007-05-28, 19:20:43
Hat man nicht 6Monate nach dem Release von Doom3 einen neuen OpenGL Treiber geschrieben? Jetzt labert der was von alle 5-7 Jahre wird ein Treiber komplett neu geschrieben... naja.

Er gibt auch nicht direkt zu das man unter Vista erheblich Leistung verliert durch das neue Treibermodell, sprich das alle Hersteller "gepennt" haben was Vista anbelangt.
Witzig das er auf die "Low Resolution" eingeht, wo es ja CPU Limitiert zugeht und man dort einen eventuellen Verlust aufs Multithread Modell von Vista schiebt. Was man aber bisher nirgends nachgemessen hat, eher das Vista einen erheblichen Vorteil da bringt, zumindest atm auf nV Karten mit der ersten DX10 Demo von Lost Planet.
Aber wen interessiert schon Low-Res. Wie bei XP brauch es gut 1 Jahr bis die Treiber ausgereift sind, hoffen wir das beste.

Das Videos (welcher Art auch immer) unter Vista schlechter aussehen sollen als unter XP halte ich für ein Gerücht, oder hat jemand etwas in der Hinsicht bemerkt?

=Floi=
2007-05-28, 19:20:45
ich glaube es erst wenn es fertig ist UND einwandfrei läuft
(ansonsten sieht es irgendwie nach "werbung" über das treiberteam aus um noch einbischen die verkäufe anzukurbeln)

Gast
2007-05-28, 19:23:03
Zitat aus dem Interview:

ExtremeTech: The demands of Vista mean that many games simply aren't ever going to run as fast as they do under XP. How much of a performance difference do you think is reasonable? 5%? 10%?

Rogers: Sorry, not true!

First, lets look at CPU limited (low resolution) cases. We worked with Microsoft on the multithreading model for the D3D runtime and driver for Vista. This resulted in a more flexible and simple model for the driver to move its workload to another thread and hence run in parallel with the application. True, we could already run driver threads in Windows XP, but we had to be more conservative there since the OS was not designed for multithreading of graphics. As a result of these improvements in the threading model, several games have actually gained performance on Windows Vista over Windows XP.

The Vista driver model does incur a small CPU overhead compared to Windows XP in order to copy driver commands from user mode memory to dma buffers that are read by the GPU. This can be a 5-10% overhead, depending on the application and how well the driver is written. But the important thing to understand is that this overhead is only seen on CPU limited cases, which means low resolution and no anti-aliasing. On modern GPUs, most gamers prefer to play at higher resolution with antialiasing and anisotropic filtering enabled. At typical gamer settings, the CPU overhead is hidden and so the "copy penalty" disappears. In many cases we do better than 5% at low resolution, and as mentioned above, Vista can be faster than XP if the game threads well.

At high resolution, OS and driver overhead is not an issue. So the main impact that Vista can have over Windows XP is in graphics memory management. In Windows XP, each IHV wrote their own memory manager for locating surfaces like textures and depth buffers in local memory (on the graphics card) and system memory (accessed by the GPU via the PCIE bus). Our Windows XP graphics memory manager is called VCAM. In Windows Vista, the graphics memory manager is a Microsoft component called VidMM, used by all IHVs. So we worked closely with Microsoft on the design of VidMM, to ensure it offered all the features of our own VCAM and helped Microsoft debug and tune it. As a result, we find VidMM to be very good for AMD hardware and it allows our drivers the same flexibility in placing our surfaces for optimal performance. Indeed we are able to use common code in our unified driver for operating VidMM in our Vista drivers and VCAM in our Windows XP drivers.


Hat man nicht im Vorfeld von Vista gesagt, das neue Treibermodell veringert den "CPU Overhead" um 30%?
Kann einer der Gurus dazu näher Auskunft geben auf was Herr Rogers da anspielt?

mapel110
2007-05-28, 19:30:40
The Vista driver model does incur a small CPU overhead compared to Windows XP in order to copy driver commands from user mode memory to dma buffers that are read by the GPU. This can be a 5-10% overhead, depending on the application and how well the driver is written.

Hat man nicht im Vorfeld von Vista gesagt, das neue Treibermodell veringert den "CPU Overhead" um 30%?
Kann einer der Gurus dazu näher Auskunft geben auf was Herr Rogers da anspielt?
Keine Ahnung, was damit gemeint ist, aber der Performancegewinn unter Vista, der versprochen wurde, kommt daher, dass die Anzahl der Draw Calls erheblich reduziert wurde. d.h. man kann mit einem Aufruf mehr Objekte zeichnen.

deekey777
2007-05-28, 19:41:42
Keine Ahnung, was damit gemeint ist, aber der Performancegewinn unter Vista, der versprochen wurde, kommt daher, dass die Anzahl der Draw Calls erheblich reduziert wurde. d.h. man kann mit einem Aufruf mehr Objekte zeichnen.

Man kann diesen Vorteil nur dann ausnutzen, wenn man das Spiel auch von Anfang an darauf entwickelt. Bisher war es ein Drahtseilakt, um die Balance zwischen der Anzahl der Drawcalls und der Anzahl der Objekte, die mit einem Drawcall gezeichnet werden sollte. Ist die Anzahl der Drawcalls zu hoch, so steigt der Treiberoverhead, da der Treiber zwischen User- und Kernelmode hin und her schaltet. Die Anzahl der Objekte darf auch nicht zu hoch sein.

Aktuelle Spiele (aber auch die kommenden) sind noch für das aktuelle "Problem" des Treiberoverheads entwickelt. Mit Vista hat man nur den Vorteil, dass der Treiber immer in einem Modus bleibt (das ist der angesprochene Vorteil). Erst Spiele, die für das neue Treibermodell hinentwickelt werden, werden auch dank neuem Treibermodell weniger Drawcalls mit deutlich mehr Objekten per Drawcall haben, ohne das System auszubremsen.

ExtremeTech: It has been five months since ATI's "Stream Computing Event," showcasing the use of your graphics cards for certain general purpose computing tasks. All we've really seen since then is a beta of the Folding @ Home client. Where's our GPU-accelerated video encoders from major vendors? Where are our games with GPU-accelerated physics? We've been hearing about that for a year.

Rogers: The concept of using the GPU for non-graphical functions is still quite new and will take third party companies some time to develop complete solutions that really take advantage of the parallel processing power of AMD GPUs. Applications developers require a robust development environment that allows not only, the creation of new applications, but also their maintenance. AMD is working with this industry to provide the tools infrastructure to enable more Stream Computing applications in the future. That being said, AMD has put a significant amount of time into developing drivers for physics support and developing tools that third party companies can work with to support GPGPU applications (we are currently working with a number of companies on this initiative). You'll definitely see applications later this year and next that take advantage of AMD's Stream Computing.
Warum sagt der Typ nicht gleich, dass es keine Videoencoder -transcoder geben wird, die auf GPU laufen, was mit der Vorstellung des AVIVO im September 2005 versprochen wurde? Der Xcoder läuft weiterhin auf der CPU.

HellHorse
2007-05-28, 21:33:57
Linux:
- Wann R600 Treiber? NVIDIA hatte ja G80 Treiber am Tag des Erscheinens.
- GLX_EXT_texture_from_pixmap anyone?
Und falls es jemanden interessiert, ich habe vor Kurzem eine 8800 GTS gekauft, weil NVIDIA einfach brauchbare Linux Treiber hat.

Gast
2007-05-28, 21:46:04
XV und ATI/AMD unter Linux? Dazu Neuerungen? Bisher fehlanzeige wax XV unter Linux bei ATI betrifft, daher z.B. nahezu Unbrauchbar für einen VDR. Können sogar die Intel Treiber...

Gast
2007-05-28, 22:10:50
Man kann diesen Vorteil nur dann ausnutzen, wenn man das Spiel auch von Anfang an darauf entwickelt. Bisher war es ein Drahtseilakt, um die Balance zwischen der Anzahl der Drawcalls und der Anzahl der Objekte, die mit einem Drawcall gezeichnet werden sollte. Ist die Anzahl der Drawcalls zu hoch, so steigt der Treiberoverhead, da der Treiber zwischen User- und Kernelmode hin und her schaltet. Die Anzahl der Objekte darf auch nicht zu hoch sein.

Aktuelle Spiele (aber auch die kommenden) sind noch für das aktuelle "Problem" des Treiberoverheads entwickelt. Mit Vista hat man nur den Vorteil, dass der Treiber immer in einem Modus bleibt (das ist der angesprochene Vorteil). Erst Spiele, die für das neue Treibermodell hinentwickelt werden, werden auch dank neuem Treibermodell weniger Drawcalls mit deutlich mehr Objekten per Drawcall haben, ohne das System auszubremsen.



Danke für die Erklärung, das gilt also nicht generell für alle DX10 Spiele?
Wird wohl ein wenig dauern bis wir das zu spüren bekommen und dann sind eh 2 Jahre vergangen. Man könnte ja dies bezüglich mal bei Epic und Crytek nachfragen ob ihre DX10 "Pfade" schon dahingehend entwickelt wurden.

Spasstiger
2007-05-28, 22:26:59
Wenn das CCC für AMD-Produkte generell herhalten soll, wird dann der Name Catalyst für den Grafiktreiber noch beibehalten?
Wenn ja, dann müsste ja das CCC einen neuen Namen bekommen, vielleicht AMD Control Center.

Gast
2007-05-28, 22:35:10
Mir stellt sich die Frage, wie es AMD dann bei einer Kombination aus Nforce Chipsatz, AMD Prozessor und AMD Grafikkarte oder Ähnlichen Kombinationen machen will?

laser114
2007-05-28, 22:39:23
Mir stellt sich die Frage, wie es AMD dann bei einer Kombination aus Nforce Chipsatz, AMD Prozessor und AMD Grafikkarte oder Ähnlichen Kombinationen machen will?

Naja du kannst halt nur die AMD-Produkte steuern ... wie sonst?

Spasstiger
2007-05-28, 22:40:02
Mir stellt sich die Frage, wie es AMD dann bei einer Kombination aus Nforce Chipsatz, AMD Prozessor und AMD Grafikkarte oder Ähnlichen Kombinationen machen will?
Dann werden halt nur die Registerkarten vom Grafiktreiber und evtl. von der CPU angezeigt. Wobei ich mich frage, was man für die CPU großartig anbieten sollte. Vielleicht Temperaturanzeige und Stromsparoptionen.

StefanV
2007-05-30, 05:55:11
Kommt drauf an, in welche Richtung man möchte!

Es wäre sogar Speichertakt und -timings möglich, wenn mans gewollt hätte, neben Multi und dem ganzen Zeugs, bei der CPU geht also 'ne Menge.

Die Frage ist, was man alles beim Chipsatz steuern könnte.

Kann man vielleicht (bei künftigen) die PCI (Expess) Slots abschalten und Lanes während des Betriebes 'abklemmen'??

up¦²
2007-05-30, 14:49:22
Josh vom guten alten Pentstarsys...
Nochmal zur VLIW (very long instruction word) architecture:
The VLIW (very long instruction word) architecture that AMD/ATI relies upon with the HD 2900 XT is very sensitive to how instructions are fed to it. In sub-optimal conditions we would expect to see only 64 of the 320 scalar units being used. If AMD/ATI are able to beef up the instruction scheduler to more adequately utilize those 320 scalar units, there is no real reason why ATI would have to increase the number of those units. By improving efficiency to a great degree, as well as provide greater fillrate on both pixel and texture ops, they would have an easier time redesigning that chip, mainly because they could leave the caches and shader units alone for the most part.
http://www.penstarsys.com/#uvd

Gast
2007-05-30, 15:05:04
Warum mach man gerade aus so einer schlechten Grundlage wie dem CCC was neues? Die hätten das Ding einstellen sollen und was brauchbares Bringen. Das alte Panel war um Lichtjahre besser.

Gast
2007-05-30, 15:08:02
Warum mach man gerade aus so einer schlechten Grundlage wie dem CCC was neues? Die hätten das Ding einstellen sollen und was brauchbares Bringen. Das alte Panel war um Lichtjahre besser.

Hm, ok, nicht dass das hier das Thema wäre, aber würde es dir etwas ausmachen zu begründen, warum das CP Lichtjahre besser als das aktuelle CCC wäre?

Exxtreme
2007-05-30, 15:16:08
Warum mach man gerade aus so einer schlechten Grundlage wie dem CCC was neues? Die hätten das Ding einstellen sollen und was brauchbares Bringen. Das alte Panel war um Lichtjahre besser.
Das alte CP war net besser nur es war viel flotter weil nativer Code und nicht interpretierter ala Basic. Keine Ahnung warum sich ATi gegen nativen Code im CP entschieden hat. Kann sein, daß das so eine dämliche zukünftige Microsoft-Vorgabe ist und ATi hier vorgeprescht ist.

Spasstiger
2007-05-30, 15:16:36
Hm, ok, nicht dass das hier das Thema wäre, aber würde es dir etwas ausmachen zu begründen, warum das CP Lichtjahre besser als das aktuelle CCC wäre?
Frag ich mich auch. Inzwischen lädt das CCC ja wirklich in 2-3 Sekunden und ist damit genauso schnell wie das alte CP. Außerdem sind ein paar Dinge im CCC definitiv praktischer geraten, z.B. die Sektion "Screen Position and Size", die leicht erreichbare Profilverwaltung und die Custom-Ansicht bei den View-Options.

d2kx
2007-05-30, 15:18:33
Gegen das CCC spricht mitlerweile eigtl. nichts mehr.

Gast
2007-05-30, 16:36:52
Keine Ahnung warum sich ATi gegen nativen Code im CP entschieden hat. Kann sein, daß das so eine dämliche zukünftige Microsoft-Vorgabe ist und ATi hier vorgeprescht ist.Ich denke mal ATI hat sich für .NET entschieden, weil man so die Manpower effizienter nutzen kann. Außerdem ist .NET nicht mit langsam gleichzusetzen, aber das weißt du mit Sicherheit selbst.

Exxtreme
2007-05-30, 16:40:11
Ich denke mal ATI hat sich für .NET entschieden, weil man so die Manpower effizienter nutzen kann. Außerdem ist .NET nicht mit langsam gleichzusetzen, aber das weißt du mit Sicherheit selbst.
Der Start dauert etwas länger weil der Code erstmal in Maschinencode übersetzt werden muss. Ist bei jedem Interpreter so. Läuft das Programm aber erstmal dann kann merkt man kaum Unterschiede. Ausser man hat die Skins ebenfalls aktiviert.

LordDeath
2007-05-30, 21:50:18
Gegen das CCC spricht mitlerweile eigtl. nichts mehr.

der ramverbrauch! mit installiertem CCC habe ich gut 80mb weniger freien ram verfügbar.

StefanV
2007-05-30, 21:58:38
bei 2-4GiB RAM fällt das auch kaum noch ins Gewicht, sind etwa 4% vom RAM bei 2GiB RAM, kaum relevant.

deekey777
2007-05-30, 21:59:40
der ramverbrauch! mit installiertem CCC habe ich gut 80mb weniger freien ram verfügbar.
Das CCC läuft bei dir immer im Fenstermodus? Bei mir sind es höchstens 40 MB.

LordDeath
2007-05-30, 22:03:51
laut process explorer ist das working set der private bytes auch wirklich niedrig, aber die gesamten private bytes liegen bei ca. 80mb.
das ist wohl das runtime des .net frameworks, was da mitgeladen wird. wenn ich ständig .net programme laufen hätte, wäre das sicher egal, aber für ein programm diese ganzen 80mb aufbrauchen zu müssen, seh ich nicht ein.
und die ati tray tools lassen mich das ccc zum glück nicht vermissen.

Spasstiger
2007-05-31, 01:06:31
Bei mir braucht das CCC im nicht geöffneten Zustand ca. 0,5% des gesamten Arbeitsspeichers. Kann ich verschmerzen. Ich lass beim Zocken sogar oft den Firefox offen, der auch mal 100-200 MB frisst (bei 4 GB RAM aber ebenfalls nicht weiter tragisch).

blutrausch
2007-05-31, 12:06:23
opengl treiber neu geschrieben bei vista? lol,wenn ich versuch nexuiz unter vista zu starten sehe ich nix,warsow hat grafikfehler,respekt amd hättet ihr lieber mal mehr eurer ressourcen in das entwickeln besserer r600 treiber gesteckt anstatt noch mehr zu verschlimmbessern.
just my 2cents