PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Was bringt uns der GT200?


Leonidas
2008-06-18, 07:38:19
Link zum Artikel:
http://www.3dcenter.org/artikel/was-bringt-uns-der-gt200

Successor
2008-06-18, 08:08:18
Danke für die interessante Auflistung all der Unterschiede, ob groß oder klein, zum G80! :up:

Weiß man eigentlich warum der VRAM/Speicherinterface bei der kleinen GTX so komisch krumm gewählt wurde (448bit zu 512bit)? Im Artikel wurde ja schon Psychologie angesprochen, eben deshalb hätte ich als Hersteller doch versucht zu vermeiden, solche Zahlen zu vermeiden.

AnarchX
2008-06-18, 08:14:17
Weiß man eigentlich warum der VRAM/Speicherinterface bei der kleinen GTX so komisch krumm gewählt wurde (448bit zu 512bit)?
Weil eben seit G80 Speicherinterface und ROPs in Partitionen von je 4 ROPs und einem 64-Bit Kanal gekoppelt sind.

Und es macht durchaus Sinn so eine SKU anzubieten, da man ja dadurch auch GPUs verkaufen kann, wo eine ROP-Partition defekt ist und im Endeffekt spart man halt noch zwei Speicherchips ein.

Und in Zeiten von 6 oder 12MB L2-Cache oder 3GB RAM, würde ich diese Speichermenge nicht unbedingt als seltsam sehen.

Mephisto
2008-06-18, 08:39:29
Wohl ein Fehler:
Am Ende bleibt die bislang leistungsstärkste Spiele-Grafikkarte

TheBrother
2008-06-18, 09:30:50
Sehr schöne Zusammenfassung, besser als so manches Fazit in den Reviews die so rumschwirren...

Fritte
2008-06-18, 10:34:15
Technisch top der Artikel und zudem sehr neutral gehalten, alleine der moralische Zeigefinger von aths bezüglich Raubkopien etc. ist etwas deplaziert

mekakic
2008-06-18, 10:42:06
Technisch top der Artikel und zudem sehr neutral gehalten, alleine der moralische Zeigefinger von aths bezüglich Raubkopien etc. ist etwas deplaziertJo, bei Crysis kommt er etwas vom Thema ab; ansonsten gut zusammengefaßt.

deekey777
2008-06-18, 11:13:59
Überall sehen wir bandbreitenlastige Unschärfe- und Überstrahl-Effekte in einer Grafik, welche die Farbpalette von Orange-Braun bis Grau nutzt, was als Fotorealismus verkauft wird. Hier ist Crysis eine Ausnahme (es gibt zusätzlich Blau und Grün).
Das passt so schön zu diesem Thema:
Wo bleiben die Farben? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421581)

huha
2008-06-18, 11:19:27
Es ist kein moralischer Zeigefinger, es ist einfach eine Tatsache. Crysis wird nunmal kopiert wie blöde, aus welchem Grunde auch immer. An sich müßte man annehmen, daß Leute, die sich eine crysis-fähige Graka kaufen, das notwendige Kleingeld übrighaben, um dann auch noch das Spiel zu erwerben.

-huha

[dzp]Viper
2008-06-18, 11:20:26
Ich finde den Artikel etwas sehr "trocken".

Allgemein gibts in letzter Zeit sehr viele "trockene" Artikel hier.

Informationen hui - Aufmachung pfui ;(

Fritte
2008-06-18, 11:23:46
Es ist kein moralischer Zeigefinger, es ist einfach eine Tatsache. Crysis wird nunmal kopiert wie blöde, aus welchem Grunde auch immer. An sich müßte man annehmen, daß Leute, die sich eine crysis-fähige Graka kaufen, das notwendige Kleingeld übrighaben, um dann auch noch das Spiel zu erwerben.

-huha

Tatsache hin oder her, ich kaufe mir übrigens Crysis im Steelcase, deswegen ist es trotzdem ein deplaziertes Winken mit dem Finger, zudem auch noch in dem Artikel über die Herkunft der ganzen Filmchen etc. spekuliert wird, also gleich zweimal der moralische Zeigefinger zum Einsatz kommt, sowas ist nicht angemessen für einen technischen Artikel.

Aber das ist natürlich nur meine persönliche Meinung und schmälert den Wert des Artikels keineswegs!

mekakic
2008-06-18, 11:36:02
Crysis wird nunmal kopiert wie blöde, aus welchem Grunde auch immer. An sich müßte man annehmen, daß Leute, die sich eine crysis-fähige Graka kaufen, das notwendige Kleingeld übrighaben, um dann auch noch das Spiel zu erwerben. Eben, deswegen paßt es auch nicht zu einem Bericht über den NVIDIA GT200. Es gibt keinen Zusammenhang, daß Leute die für eine Grafikkarte vergleichsweise viel Geld ausgeben, deswegen eher oder auch statistisch weniger Crysis kopiert haben. Da gibt es keine Basis und deswegen passen die Spekulationen über das Kopierverhalten von Crysis auch nur schlecht zu einem Bericht über ein neues Chipdesgin von NVIDIA.

mapel110
2008-06-18, 11:37:56
Irgendwie fehlt im Artikel der Hinweis, warum doppelt so viele Transistoren plus Effezienzsteigerungen nicht mal für eine Verdoppelung der Leistung gereicht hat, sondern im Schnitt nur 50-60 % beim User ankommen.

Und der Hinweis, dass am User und den Games vorbei gebencht wird, ist ja wohl ein Witz. 500 € für eine Graka, aber weder einen guten TFT noch CRT zu Hause.
Zocken die noch auf 17" TFTs in 1280x1024er Auflösung?!

Kladderadatsch
2008-06-18, 11:38:45
Es ist kein moralischer Zeigefinger, es ist einfach eine Tatsache. Crysis wird nunmal kopiert wie blöde, aus welchem Grunde auch immer. An sich müßte man annehmen, daß Leute, die sich eine crysis-fähige Graka kaufen, das notwendige Kleingeld übrighaben, um dann auch noch das Spiel zu erwerben.

-huha
und die, die nicht das geld für eine solche grafikkarte haben?..;)

on topic:
endlich mal wieder ein schöner artikel, der nicht nur das kerngebiet des 3dcs trifft, sondern auch über (weniger interessante) spekulationen und allgemeine zusammenfassungen der marktsituation o.ä. hinaus endlich mal wieder ins technische geht und zudem sehr angenehm zu lesen ist.
danke aths!

Nahaz
2008-06-18, 11:43:13
Viper;6594082']Ich finde den Artikel etwas sehr "trocken".

Allgemein gibts in letzter Zeit sehr viele "trockene" Artikel hier.

Informationen hui - Aufmachung pfui ;(

In Zukunft werden wir die Artikel dann mit Nacktfotos der Redakteure "aufpeppen" :rolleyes: Mir ist es lieber wenn der Informationsgehalt hoch ist und dafür die Aufmachung etwas schlichter als umgekehrt.

Neocroth
2008-06-18, 11:43:32
danke, sehr schöner Artikel :)

tombman
2008-06-18, 11:47:03
Ich kann mit solchen Artikeln wenig anfangen, weil nur der sie kapiert, der eigentlich auch schon vorher alles wußte.

Was nützt die reine Aufzählung der ganzen Zahlen, wenn die Bewertung, der Vergleich fehlt?

Genauso könnte man sagen: "die GTX280 besitzt neuerdings 134 Schlomps, in Paaren zu 45 Hamuks, in manchen Ausnahmen noch zusätzlich 12 Gambulis. Das ist sehr viel." -> rofl

Außerdem gehören da Schemta hin mit Pfeilen, die auf die Einheiten deuten und erklären usw usf.

Das Ding ist trocken ohne Ende.

Piffan
2008-06-18, 11:53:53
Ich finde den Artikel klasse. Tacheles in technischer Hinsicht und auch ein Wort zum "Gewinn" bezüglich der Spielelandschaft.
Mir geht es kräftig an die Nieren, dass ein gewisses Forenmember die matschig- braune, schwammige Konsolenoptik der UE- Spiele über den grünen Klee lobt, ja eigentlich Propaganda betreibt, aber das wirklich innovative Crysis mit der allumfassend besten Technik und imho auch gutem Content bei jeder Gelegenheit basht...

Letztlich bestimmt der Markt, ob sich Mörderchips wie der GT 200 jemals positiv auf den technischen Fortschritt der Spiele auswirken. Wenn die UE- Spiele der Weg in die Zukunft sind, wäre es grauenvoll aus technischer Sicht, aber günstig für "investitionsunwillige" Spieler. Aber es wäre die Konsequenz aus der hemmungslosen Kopiererei; Pc- Spieler sind dann nur noch für die Resteverwertung von Konsolenspielen gut genug.

Piffan
2008-06-18, 11:58:48
Ich kann mit solchen Artikeln wenig anfangen, weil nur der sie kapiert, der eigentlich auch schon vorher alles wußte.

Was nützt die reine Aufzählung der ganzen Zahlen, wenn die Bewertung, der Vergleich fehlt?

Genauso könnte man sagen: "die GTX280 besitzt neuerdings 134 Schlomps, in Paaren zu 45 Hamuks, in manchen Ausnahmen noch zusätzlich 12 Gambulis. Das ist sehr viel." -> rofl

Außerdem gehören da Schemta hin mit Pfeilen, die auf die Einheiten deuten und erklären usw usf.

Das Ding ist trocken ohne Ende.

Was willst du? Für die Benchmarkvergleiche sind andere Klitschen zuständig, dafür ist eine Seite wie 3dCenter zu schade. Die können Besseres liefern. :wink:

tombman
2008-06-18, 12:00:33
Was willst du? Für die Benchmarkvergleiche sind andere Klitschen zuständig, dafür ist eine Seite wie 3dCenter zu schade. Die können Besseres liefern. :wink:
Das schließt Schemata nicht aus. Hochwertige Info wird noch hochwertiger wenn sie LEICHT verständlich ist. Je kürzer der Weg zum Gehirn, desto besser.
Ich könnte den Artikel jetzt Absatz für Absatz auseinandernehmen und zeigen was IMO schlecht gemacht wurde...

Nur ein Beispiel von vielen:

"Zunächst einige Zahlenspielereien: Nvidia spricht von 240 Shadercores und vergleicht das mit vier Kernen von Quadcore-CPUs. Wir erkennen lediglich 30 Shadercores im GT200..."

WARUM erkennen wir das? Ich erkenne gar nix. Nach welcher Definition sollte irgendwas erkannt werden?

pXe
2008-06-18, 12:02:50
Jetzt wird schon gegen Raubkopiermörder in Technik Artikeln gewettert... Ich kann die ganze Scheisse echt nimmer lesen.


pXe

Piffan
2008-06-18, 12:17:27
Jetzt wird schon gegen Raubkopiermörder in Technik Artikeln gewettert... Ich kann die ganze Scheisse echt nimmer lesen.


pXe

Du solltes auch keine Technikartikel lesen, denn schon zu offensichtlichen Zusammenhängen fehlt Dir scheinbar der Zugang.

Ruby
2008-06-18, 12:25:48
aths schrieb:In Dingen DirectX-Features hat sich beim neuen Chip leider gar nichts getan.
Um ganz ehrlich zu sein finde ich dieses "leider" völlig deplaziert in diesem Satz. Ich glaube jeder der sich einmal ernsthaft mit D3D 10.1 auseinander gesetzt hat wird erkennen, dass nVidia da den Usern (und Entwicklern) wirklich einen Gefallen tut.

D3D 10.1 bietet wirklich nur minimale Vorteile gegenüber 10.0 (wer mich da vom Gegenteil überzeugen möchte darf gerne ins Detail gehen). Gleichzeitig erfordert der winzige Versionsprung aber erstens beim Entwickler mehr arbeit (weil dieser beide Versionen unterstützen muß) und zweitens stößt er praktisch alle Käufer der ersten D3D 10er Generation vor den Kopf, deren Karten (8800er und 8600er) halt nicht nachträglich auf 10.1 getrimmt werden können. Und gerade letzteres macht es IMHO D3D 10 unnötig schwer sich gegenüber D3D 9 durchzusetzen. Ich denke es war echt ein fehler von M$ 10.1 überhaupt zu veröffentlichen, erst recht so kurz nach 10.0.

nVidia tut IMO in der Situation das einzig richtige und bleibt bei 10.0, auch wenn sie sich deswegen von vielen Seiten anhören müssen:
das Featurelevel jedoch nicht mehr auf dem neuesten Stand der Technik ist

Mit dieser Argumentation will ich übrigens keinesfalls den Fortschritt allgemein schlecht machen. Ganz im Gegenteil, ich finde D3D 10 ist aus Sicht des Programmierers ein riesen Vorteil gegenüber 9. Nur stimmt halt bei 10.1 das Kosten/Nutzen Verhältniss (im Übertragenen Sinn) einfach nicht.

--

Dann noch etwas zur Einschätzung von Crysis seitens des Autors. Zu seinen Raubkopierer gedanken will ich erst gar nichts sagen, das ist ein gänzlich anderes Thema.

Crysis wird oft vorgeworfen, für seine Performance keine genügend gute Grafik zu bieten.
Der Satz ist nicht falsch, führt aber in die falsche richtig. Nicht die Grafik ist bei Crysis ungenügend, sondern schlicht und einfach seine Performance. Und das ist keineswegs nur darauf zurück zu führen, dass man halt immer mehr Rechenpower benötigt um immer geringere Fortschritte zu erzielen, sondern auch auf die verwendeten Algorithmen in der Spieleengine. Es ist überhaupt keine Kunst ein Spiel zu programmieren was eine umwerfende Grafik bietet, die kunst ist es die entsprechenden Algorithmen zu finden um dies in angemessener Rechenzeit zu schaffen (ein Extrembeispiel wäre hier z.B. ein Spiel heute mit einer Raytracing oder gar Echtzeit GI Engine zu programmieren). Und hier ist Crytek IMHO den einfachen Weg gegangen und hat stur auf brute force gesetzt, nach dem Motto der Hardwarefortschritt wird es schon richten.

Just my 2 cents

tombman
2008-06-18, 12:32:41
Es ist überhaupt keine Kunst ein Spiel zu programmieren was eine umwerfende Grafik bietet, die kunst ist es die entsprechenden Algorithmen zu finden um dies in angemessener Rechenzeit zu schaffen . Und hier ist Crytek IMHO den einfachen Weg gegangen und hat stur auf brute force gesetzt, nach dem Motto der Hardwarefortschritt wird es schon richten.

Du bist also so ein Topcoder, daß du beurteilen kannst, ob Crysis schlechte Algos verwendet? Hast du schnellere bei gleichem Ergebnis?

blackbox
2008-06-18, 12:50:16
Ich finde nicht nur den Wink mit den Raubkopien völlig daneben, sondern auch dieser Absatz mit Cuda. Nur weil Aths scheinbar mit Videoencoding nix am Hut hat, so erhebt er auch hier völlig unnötig den Zeigefinger. Dabei scheint er gar nicht an den großen Bereich der Hobbyfilmer zu denken, die vermehrt auf HD umsteigen und wo die digitale Videobearbeitung längst standard ist. Da braucht man Rechenleistung ohne Ende. Eine GPU, die ein Video in einem 1/4 (oder noch schneller) der sonstigen Zeit encodiert bedeutet einen großen Zeitgewinn. Außerdem vergisst er die vielen User, die TV-Aufnahmen (in Zeiten von DVB) verarbeiten und archivieren. Und ja, das ist erlaubt.
Doch mal ehrlich, wie oft gerät man in die Gelegenheit, innerhalb von 35 Minuten einen Film umwandeln zu müssen? Würde eine breite Userschicht ständig Nachschub an kleinkomprimierten Filmen benötigen, gäbe es diese längst vorkomprimiert im Handel. Woher sollen überhaupt ständig die Filme, die man umkomprimieren will, kommen, ohne Copyrights zu verletzen oder einen Kopierschutz zu umgehen?

Und klar, Raubkopien sind schuld an der Misere, dass Konsolen nun die Grafikpracht bestimmen. :| Dabei ist das in meinen Augen nur ein wirtschaftlicher Zwang. Es kostet mal mehr, wenn man für jedes System ein Spiel entwickeln müsste. Da ist es einfacher und billiger, ein Spiel für alle System zu entwickeln. Das hat nix mit Raubkopien zu tun.

Hinzu kommt noch der Wink an die Armen unter uns. Total daneben. Das hat in so einem Artikel absolut nichts verloren.

Sorry, aber der Artikel ist nicht gut.
Es ist eine reine Aufzählung der Leistungsdaten, garniert mit einigen fragwürdigen Ansichten des Autors, die da nichts zu suchen haben.

Ruby
2008-06-18, 12:52:08
Du bist also so ein Topcoder, daß du beurteilen kannst, ob Crysis schlechte Algos verwendet? Hast du schnellere bei gleichem Ergebnis?

Um zu erkennen, dass dein Staubsaugerproduzent bei der Verarbeitung geschlampt hat mußt Du auch nicht notwendigerweise ein besserer Ingenieur sein als er, ein gewisses Grundwissen in der Materie reicht da. Ähnlich ist das beim Programmieren.

...und die Ansätze die Crytek für ihr LoD und ihr occlusion culling verwenden sind nicht wirklich state of the art... aber das ist meine ganz persönliche zu dem Thema gebildete Meinung, es steht Dir offen das anders zu sehen und natürlich auch meine Kompetenz in frage zu stellen. :tongue:

Moralelastix
2008-06-18, 12:57:35
Irgendwie fehlt im Artikel der Hinweis, warum doppelt so viele Transistoren plus Effezienzsteigerungen nicht mal für eine Verdoppelung der Leistung gereicht hat, sondern im Schnitt nur 50-60 % beim User ankommen.

Ja genau auf das was alle wissen wollen wird überhaupt nicht eingegangen.
Aber waren es nicht mehr als 60%? (Schock! Ich hatte eher von 80% den Eindruck)



Und der Hinweis, dass am User und den Games vorbei gebencht wird, ist ja wohl ein Witz. 500 € für eine Graka, aber weder einen guten TFT noch CRT zu Hause.
Zocken die noch auf 17" TFTs in 1280x1024er Auflösung?!


Ja 24" @1900 bekommt man doch heute schon nachgeschmissen. Keine Ahnung was der da von "sinnlosem Benchmarken" faselt.

tombman
2008-06-18, 13:03:32
Um zu erkennen, dass dein Staubsaugerproduzent bei der Verarbeitung geschlampt hat mußt Du auch nicht notwendigerweise ein besserer Ingenieur sein als er, ein gewisses Grundwissen in der Materie reicht da. Ähnlich ist das beim Programmieren.

...und die Ansätze die Crytek für ihr LoD und ihr occlusion culling verwenden sind nicht wirklich state of the art... aber das ist meine ganz persönliche zu dem Thema gebildete Meinung, es steht Dir offen das anders zu sehen und natürlich auch meine Kompetenz in frage zu stellen. :tongue:
Zeig mir ein Spiel mit diesem Grafikdetail und Physikdetail welches schneller ist...

Das ist so wie wenn jemand einen Wagen baut, der erstmals 400km/h fährt, dabei Benzin ohne Ende frißt, und dann jemand daherkommt und sagt "mein 300km/h Auto ist aber effizienter" :ugly:

Ich sage nur: 3 Millionen Polygone pro Frame+ weiche Schatten auf alles+ Objektmotionblur+ Physik+ Particles (schieße auf ein Ölfaß und werfe es weg ;))+ Bäume und Hütten, die sich zerlegen lassen usw usf...

Es gibt nix besseres.

Nvidia hat in ihrer neuesten Medusa TECHDEMO gerade mal 6 Mille/frame. In einer TECHDEMO zur GTX280!!! Und Crysis hat 3 Mille/frame iN EINEM FERTIGEN SPIEL, lange bevor es sowas wie eine GTX280 gab....

mekakic
2008-06-18, 13:06:02
Selbst auf meiner 2600XT und angepaßter cfg sieht kein Spiel besser aus als Crysis. Und es ist sogar verdammt hoch (auch auf Medium) optimiert, nur bietet es für genügend starke Maschinen eben noch ungleich mehr. Crysis provoziert da sicher das eine oder andere Penis-Problem herauf nicht alles auf Max spielen zu können, würde die höchsten Grafik-Schichten fehlen würde es die Leute wohl gleich viel besser finden - da es trotzdem besser als alles andere aussieht und sie den Regler auf MAX! stellen können.
:)

Gast
2008-06-18, 13:23:49
Schöner Artikel.
Bestimmte Dinge auch zu bewerten (Fehlendes DirectX 10.1), finde ich gut.

Die CUDA-Videoenkodierung zu kritisieren finde ich richtig, da ihr den entscheidenen Punkt erkannt habt, dass beim Videoencoding Performance noch nichts auszusagen hat, wenn nichts über die Qualität bekannt ist (Auch für x264 gibt es Parameter, so dass man einen 1080p-Film in Echtzeit auf einem flotten 4kern-Prozessor encodieren kann - die Datei wird bei gleicher Qualität halt dann 15-20% größer, oder hat bei gleicher Größe etwas schlechtere Qualität).

Für andere Berechnungen mag CUDA aber sehr nützlich sein, wobei mich persönlich eigentlich sehr stört, dass es, logischer Weise, nur auf Nvidia Karten läuft.

Wie auch immer, ich halte diesen neuen Nvidia-Chip eigentlich für relativ schlecht... klar, er ist schnell, aber halt auch sehr teuer und die Herstellung ist sicherlich auch ziemlich aufwändig, das heißt, es wird ihn nicht in absehbarer Zeit günstig (<200 €) zu kaufen geben, während das bei ATIs neuen Karten ganz anders zu sein scheint. Sollten die ATI-Karten wirklich doppelt so schnell wie die Vorgänger sein (und ich denke sie sind eher noch einen Tick schneller), dann werden die neuen ATI-Karten fast so schnell wie die GT200 sein. Sogar einen Gleichstand könnte ich mir vorstellen.

Exxtreme
2008-06-18, 13:27:07
Der Satz ist nicht falsch, führt aber in die falsche richtig. Nicht die Grafik ist bei Crysis ungenügend, sondern schlicht und einfach seine Performance. Und das ist keineswegs nur darauf zurück zu führen, dass man halt immer mehr Rechenpower benötigt um immer geringere Fortschritte zu erzielen, sondern auch auf die verwendeten Algorithmen in der Spieleengine. Es ist überhaupt keine Kunst ein Spiel zu programmieren was eine umwerfende Grafik bietet, die kunst ist es die entsprechenden Algorithmen zu finden um dies in angemessener Rechenzeit zu schaffen (ein Extrembeispiel wäre hier z.B. ein Spiel heute mit einer Raytracing oder gar Echtzeit GI Engine zu programmieren). Und hier ist Crytek IMHO den einfachen Weg gegangen und hat stur auf brute force gesetzt, nach dem Motto der Hardwarefortschritt wird es schon richten.

Just my 2 cents
Nein. Crysis performt hervorragend für das Gebotene. Erstens übersiehst du das Gesetz des abnehmenden Grenzertrages. Und zweitens übersiehst du was die Engine alles leistet. Dort wird echter Wind berechnet, nahezu alles ist zerlegbar (bis auf Landschaft und bestimmte Fahrzeuge), weiche Schatten, Paralax Occlusion Mapping, Objekt-Motion Blur etc. Das bietet zur Zeit kein Spiel und zwar nichtmal annähernd! Und selbst Technikdemos werden hier in weiten Teilen deklassiert! Für ein fertiges Spiel ist das einfach nur krass.

Klar hätte man einen gefakten Wind anstatt echten nehmen oder weit entfernte Objekte in eine animierte Bitmap umwandeln können, ohne daß das das Spielerlebnis merkbar beeinflusst hätte aber trotzdem. Die Engine faked fast nichts sondern berechnet es ehrlich. Und deshalb verlangt das Spiel alles von derzeitigen Systemen. So wie Wing Commander 3 früher.

Piffan
2008-06-18, 13:30:15
aths schrieb es auch in etwa wie folgt: Den Regler aller Optionen auf Max zu stellen bringt nicht immer das beste VErhältnis von Optik zur Performance.

Da trifft er es genau: Es gibt so manche Gimmicks, die nur bei sei genauem Hinsehen/Suchen überhaupt sichtbar sind, aber brutal viel Rechenkraft kosten.

Bei vernünftiger Einstellung, das heißt auch Verzicht auf DX 10, stattdessen Ini Tweaks, die zusätzliche Optionen bringen, ist der Unterschied zwischen DX 10 und DX9 optisch schwerlich wahrnehmbar, dafür gewinnt die Performance drastisch.

Roi Danton
2008-06-18, 13:43:37
Generell ist Rechenleistung in der CPU höher einzuschätzen als in der Grafikkarte. Ein Rechenwerk auf der CPU ist allgemein nutzbar, direkt im Programm, ohne dass die Daten erst einem anderen Prozessor übergeben und von dort wieder abgeholt werden müssen. Die CPU ist darauf optimiert, möglichst schnell einen Strang (oder wenige Stränge) mit voneinander abhängigen Anweisungen zu bearbeiten. Das kann die GPU nicht leisten, denn sie ist auf Durchsatz optimiert. Wenn jedoch auf einen großen Datenberg pro Datum dieselben Operationen auszuführen sind, und davon viele, dann ist zu überlegen, die Rechenkraft der GPU dafür nutzbar zu machen.Für den interessierten Otto-Normalverbraucher eine gute Erklärung in Zeiten, in denen die Prozessorenhersteller auf den Grafikmarkt schielen, um ihre CPUs zu beschleunigen.

Popeljoe
2008-06-18, 14:33:28
Das schließt Schemata nicht aus. Hochwertige Info wird noch hochwertiger wenn sie LEICHT verständlich ist. Je kürzer der Weg zum Gehirn, desto besser.
Ich sehe das ähnlich, wie Tombman: ein oder zwei Schemata wären sicher gut zum Veranschaulichen gewesen.
Allerdings freue ich mich, dass ein Artikel mit wirklich guter Substanz mal wieder auf unser Hauptseite zu finden ist.
Danke Aths, dass du uns mal wieder "Stoff" lieferst!!! :up:

deekey777
2008-06-18, 14:38:00
Zu CUDA-Apps:
Ich habe den Eindruck, dass NV bei der Präsentation des G200 mit dem BadaBOOM Media Converter und dem F@H-GPU-Client für NV übertrieben hat und von einigen Reviewern dafür bestraft wurde, wo kein iTunes, sondern zB AutoMKV benutzt wurde. Die Zahlen der Leistung in F@H hat Vijay Pandle längst korrigiert, insbesondere dass die angegebenen Zahlen für HD3870 so nicht (mehr) stimmen. Man sollte darauf nicht reinfallen.
Aber was das Videoencoding mittels CUDA betrifft, so ist ein x264-GPU-Encoder in der Mache, der hochwahrscheinlich besser als der BadaBOOM Media Converter sein wird. Und wer braucht das? Ich zum Beispiel.

Ruby
2008-06-18, 14:53:16
Die Engine faked fast nichts sondern berechnet es ehrlich. Und deshalb verlangt das Spiel alles von derzeitigen Systemen.

Da konnte ich mir eben ein grinsen nicht verkneifen... bei heutigen Spielen wird fast alles "gefaked" oder anders formuliert, mehr oder weniger realitätsnah angenähert. Als Entwickler muß man immer einen Kompromiss eingehen wie realistisch etwas dargestellt wird und wieviel Rechenzeit man dafür benötigt. Von einem Holodeck sind wir noch Jahrhunderte entfernt. ;-)

*offtopic entsorgt* Bitte keine neuen Crysis-Diskussionen hier im Thread! Danke.

Ric
2008-06-18, 15:23:58
Für den interessierten Otto-Normalverbraucher eine gute Erklärung in Zeiten, in denen die Prozessorenhersteller auf den Grafikmarkt schielen, um ihre CPUs zu beschleunigen.

Da möchte ich mich zu 100% anschließen. Der artikel geht zwar nicht in die tiefen der technik, jedoch gibt er einen angenehmen und lesbaren eindruck der gt200 reihe.
Fazit gt200: schneller als das war war, alte schwächen ausgebügelt - bis auf die wesentliche: ein unwahrscheinlicher stromdurst.
Perfekt für den poweruser - mehr nicht.

PS: Sehr schöner schreibstil

MadManniMan
2008-06-18, 15:38:00
PS: Sehr schöner schreibstil

Oh ja, allerdings ... aths Stil habe ich in den letzten Jahren unwahrscheinlich vermisst!

Endlich mal wieder ein Artikel auf 3DCenter-Niveau™!
Ein Anfang der Rückkehr zu alten wundervollen Taten?

Allerdings lässt er den unbedarften User in mancherlei Hinsicht zu sehr auf seinen Fragezeichen sitzen - tombman hat schon recht: ein wenig plastischer darfs noch werden ;)

Thaquanwyn
2008-06-18, 15:52:51
Es ist kein moralischer Zeigefinger, es ist einfach eine Tatsache. Crysis wird nunmal kopiert wie blöde, aus welchem Grunde auch immer ...


... die Gründe dürften doch wohl auf der Hand liegen.

Das Spiel wurde gepushed ohne Ende - die Grafik zum absoluten Oberhammer erklärt und als "MUSS" für jeden Zocker propagiert!

Doch da die wenigsten Spieler auch eine High-End-Hardware besitzen, die die außergewöhliche Grafik des Spiels erst einigermaßen flüssig darstellen kann, (wobei man in Bezug auf Crysis noch anmerken muß, dass selbst Nvidias neuste GTX280 Probleme hat, das Spiel in höchsten Qualitätsstufen, incl. AA und AF, mit vernünftigen FPS-Raten darzustellen) stehen die meisten User auf dem Standpunkt, dass sich ein Kauf im Augenblick einfach nicht lohnt.

So wird es also gesaugt, um sich wenigstens schon einmal einen Eindruck von dem Ganzen zu machen.

Damit will ich ganz bestimmt keine Lanze für Leute brechen, die sich das Spiel saugen oder brennen, denn ich bin auch der Meinung, dass man seine Games bezahlen sollte - aber es ändert, meiner Meinung nach, nichts an der Tatsache, dass das Problem hausgemacht ist.

Ich war und bin nun wirklich kein großer Shooterfreund - aber interessieren würde mich die grafische Umsetzung des Spiels auch, aber solange meine Hardware (die bestimmt nicht schlecht ist - schließlich läuft Assassin's Creed mit allen möglichen Einstellungen auf MAX) nicht mitmacht, werde ich es so halten, wie damals bei FarCry!

Ich habe das Game für 10€ auf dem Grabbeltisch gekauft ... :wink:

Piffan
2008-06-18, 15:56:57
Da konnte ich mir eben ein grinsen nicht verkneifen... bei heutigen Spielen wird fast alles "gefaked" oder anders formuliert, mehr oder weniger realitätsnah angenähert. Als Entwickler muß man immer einen Kompromiss eingehen wie realistisch etwas dargestellt wird und wieviel Rechenzeit man dafür benötigt. Von einem Holodeck sind wir noch Jahrhunderte entfernt. ;-)

Weil Du die Schatten angesprochen hast, die sind ein schönes Beispiel dafür wo Crytek massiv "faked", ohne das es die meisten User überhaupt sehen würden... einfach weil es vom Rechenaufwand/Speicher gar nicht anders geht. Man kann z.B. nicht einfach eine hochauflösende Schattentextur (als aproximation des globalen Beleuchtungsmodells) für solche riesigen Level komplett abspeichern (und ja ich kenne den neuen Megatextur Ansatz von id, denke das würde hier aber zu weit führen). Und das wir von globalen Beleuchtungsmodellen in Echtzeit noch einige Grafikkartengenerationen entfernt sind muß ich hoffentlich nicht weiter erläutern oder?

Und mach bloß nicht den Fehler in einem Gespräch mit einem Physiker bei den heutigen Physikengines von einer Physiksimulation zu sprechen, der lacht dich aus. Nicht umsonst benötigen die richtige(tm) Computer für ihre Simulationen. ;-)

Nein, an dem Punkt, wie gut oder schlecht Crysis nun geschrieben ist, kommt man so nicht weiter ohne ins Detail zu gehen. Daher nur noch einmal ein kleiner Tip, schau dir mal Crysis im Wireframe modus an, da kann man sehr gut sehen welchen LoD Ansatz Crytek für ihre statische Level geometrie benutzt und wo dessen Schwachstellen sind. Um es kurz zu machen da sieht man sehr deutlich warum die Engine so viele Polygone pro frame braucht um gut auszusehen. Geometry Clipmaps wären an der stelle deutlich besser gewesen als der Quad- oder Octtree-Ansatz den Crytek da verwendet, aber letzteres ist halt der vermeintlich einfachere Weg, der dann halt auf Kosten der Performance geht. ;-)

Dass Crytek ein LOD verwendet ist ein Fake?

Ich glaube, das du an extreme vorbeiredest, deine Intention ist übrigens überdeutlich zu erkennen. Mal wieder die in letzter Zeit oft gehörte Leier von den Anfängern, Emporkömmlingen auf der einen Seite und den Altmeistern auf der anderen Seite. Ein bissel dezenter könntest du ruhig schreiben, vielleicht merkt dann keiner was. :|

Du kannst soviel reden wie du willst, es ist leider so, dass wir als Pc- Spieler im Moment regelrecht veräppelt werden. Ich nehme es den Entwicklern ja gar nicht mal übel, dass sie die auf den Konsolen notwendigen Kompromisse auf den Pc übertragen. Aber es ist hinterfotzig, die Erfolge einer Spieleschmiede madig reden zu wollen, nur damit die "Altmeister" gut wegkommen.

Es ist ein Riesenunterschied, ob eine Engine die Effekt in Echtzeit generiert oder ob die Leveldesigner überall von Hand rumfrickeln und dann so ein Stuss entsteht wie bei den UE- Spielen.....

Piffan
2008-06-18, 16:00:52
... die Gründe dürften doch wohl auf der Hand liegen.

Das Spiel wurde gepushed ohne Ende - die Grafik zum absoluten Oberhammer erklärt und als "MUSS" für jeden Zocker propagiert!

Doch da die wenigsten Spieler auch eine High-End-Hardware besitzen, die die außergewöhliche Grafik des Spiels erst einigermaßen flüssig darstellen kann, (wobei man in Bezug auf Crysis noch anmerken muß, dass selbst Nvidias neuste GTX280 Probleme hat, das Spiel in höchsten Qualitätsstufen, incl. AA und AF, mit vernünftigen FPS-Raten darzustellen) stehen die meisten User auf dem Standpunkt, dass sich ein Kauf im Augenblick einfach nicht lohnt.

So wird es also gesaugt, um sich wenigstens schon einmal einen Eindruck von dem Ganzen zu machen.

Damit will ich ganz bestimmt keine Lanze für Leute brechen, die sich das Spiel saugen oder brennen, denn ich bin auch der Meinung, dass man seine Games bezahlen sollte - aber es ändert, meiner Meinung nach, nichts an der Tatsache, dass das Problem hausgemacht ist.

Ich war und bin nun wirklich kein großer Shooterfreund - aber interessieren würde mich die grafische Umsetzung des Spiels auch, aber solange meine Hardware (die bestimmt nicht schlecht ist - schließlich läuft Assassin's Creed mit allen möglichen Einstellungen auf MAX) nicht mitmacht, werde ich es so halten, wie damals bei FarCry!

Ich habe das Game für 10€ auf dem Grabbeltisch gekauft ... :wink:

Öhm, wieviel Account legen wir denn noch an?

Also die Behauptung von der Hammerhardware ist blödsinn, ich zocke es in dx9 mit den very- High Tweaks auf einer Radeon 3850 in 1290x 1200 jederzeit flüssig.

Popeljoe
2008-06-18, 16:07:21
So Jungs: GT200 oder Ende Gelände! Auch wenn Crysis momentan das Spiel mit der anspruchsvollsten Grafik ist, so ist die Diskussion dieses Games hier absolut fehl am Platz!

Danbaradur
2008-06-18, 16:08:27
Mir geht es kräftig an die Nieren, dass ein gewisses Forenmember die matschig- braune, schwammige Konsolenoptik der UE- Spiele über den grünen Klee lobt, ja eigentlich Propaganda betreibt, aber das wirklich innovative Crysis mit der allumfassend besten Technik und imho auch gutem Content bei jeder Gelegenheit basht...

Kein feiner Zug, Piffan. Gehört hier einfach nicht hin.

Nakai
2008-06-18, 18:32:49
Kein feiner Zug, Piffan. Gehört hier einfach nicht hin.

Genauso wie dein Kommentar...;)

Der Artikel ist gut, aber es fehlt etwas. Man hätte vergleiche anstellen können, vorallem zur älteren Generation und zu CPUs.
Es wird hauptsächlich auf die technischen Aspekte eingegangen, aber einige kritikwürdige Sachen wurden außenvor gelassen.
Naja die Überschrift "Was bringt uns der GT200?" sagt das schon.


mfg Nakai

Simon Moon
2008-06-18, 19:40:14
Schon wieder eine "Kolumne" - Immerhin keine Marktanalyse, das ist mal eine schöne Abwechslung. Aber nichts desto Trotz, das kannst du besser (http://alt.3dcenter.org/artikel/multisampling_anti-aliasing/) aths...

Werd ich mich halt mit solchen (http://www.beyond3d.com/content/reviews/51) Artikeln begnügen müssen, schade, ich empfand 3DC eigentlich lange Zeit als einzige, taugliche deutsche In-Depth 3D Hardware Site. Bin damals ja auch nur hier her gekommen, weil 3dconcept eingestellt wurde.

Gast
2008-06-18, 20:17:04
Was willst du? Für die Benchmarkvergleiche sind andere Klitschen zuständig, dafür ist eine Seite wie 3dCenter zu schade. Die können Besseres liefern. :wink:

mal den technikartikel auf beyond3d gesehen?

etwas vergleichbares in deutsch wäre schon begrüßenswert, auch wenn tombman es doch etwsa übertreibt ;)

seba86
2008-06-18, 20:33:26
@ Simon Moon: Diese Site ist bei weitem immer noch die beste deutschsprachige Hardwaresite überhaupt ( c't Niveau und kein billiges pcgh-Niveau) und der Artikel ist super geschrieben. Generell mag ich keine Krtiker, weil kritisieren kann jedes Baby, aber selber machen, DAS ist der Unterschied.

Jedoch sollte der Artikel dementsprechend für fortgeschrittene deklariert werden.
Wie wärs eigentlich mit einem Einsteiger-Guide, um die "erweiterten" Grundlagen zu verstehen ;)

mapel110
2008-06-18, 21:00:18
Wie wärs eigentlich mit einem Einsteiger-Guide, um die "erweiterten" Grundlagen zu verstehen ;)
Wenn sowas verlangt wird, wird immer auf den CineFX-Artikel verwiesen. Keine Ahnung warum...

Mmmmh
2008-06-18, 22:37:16
Erst einmal danke an aths für den Artikel, auch wenn er weniger umfangreich ist als erwartet.

Immerhin gab es da den für mich interessanten Abschnitt über die Rechengenauigkeit. Darin heißt es, dass die "normalen" 32-Bit-Einheiten durch Rundungsfehler recht ungenau arbeiten. Was heißt das nun praktisch? Sollte man die Rechenkraft der 32-Bit-Einheiten für qualitätsbewusste en- bzw. transcoder vergessen und allein die Flops der 64-Bit-Einheiten in Zukunft ernsthaft nutzen können? Oder ist gar ein intelligenter "Mischbetrieb" von SP und DP machbar bzw. vorgesehen?
Und wie ist das bei AMD/ATI gelöst? Gibt es dort auch die Rundungsfehler? Denn durch Loopen, um auf 64-Bit-Präzision zu kommen, werden die nicht weniger.
:confused:

Dann bin ich noch über zwei Sachen gestolpert:

"In Dingen DirectX-Features hat sich beim neuen Chip leider gar nichts getan."

"Uns erinnert die Lage an damit an GeForce 4 Ti vs. Radeon 8500."

Gast
2008-06-18, 23:10:49
Die Absätze 2,3 und 4 (1 evtl. ebenfalls) bei der 3d-Leistung weglassen und es bleibt ein tolles Review!

GoodSpeed
2008-06-18, 23:11:31
Mann macht die Karte ned schlechter als sie ist, etwas mehr Takt hätte ich mir gewünscht da kann man aber noch nachhelfen alles in allem ne gelungene Einzel-GPUwie ich finde und bessere Treiber.

Gruss GoodSpeed

Das Auge
2008-06-19, 00:12:43
Die Eckdaten des neuen Grafikchips sind bekannt: 240 skalare Shader bei knapp 1300 MHz, 80 Textureinheiten, die jeweils pro Takt ein bilineares Samples berechnen können, bei gut 600 MHz und 1024 Mebibyte GDDR3-Speicher, die via 512-Interface angebunden sind. Außerdem bleibt es bei Direct3D 10.0. Wie das alles einzuschätzen ist, wollen wir uns heute ansehen.

Schreibt man das jetzt wirklich so? Klingt ja grausig...

Denniss
2008-06-19, 01:05:20
Schreibt man das jetzt wirklich so? Klingt ja grausig...

http://de.wikipedia.org/wiki/Byte#Pr.C3.A4fixe_f.C3.BCr_gro.C3.9Fe_Anzahlen_von_Bytes

(del)
2008-06-19, 02:10:42
Schreibt man das jetzt wirklich so? Klingt ja grausig...Das gilt wohl nur für Leute die "Kunststoffform" und ähnliches in die Gasse hauen. Tue dir keinen Zwang an mit sowas ;)

Was mir in dem Text fehlt ist die Erwähnung von Kühlung-, Lärm- und Stromverbrauchproblemen. Selbst, wenn man auf das letzte pfeift, sind die beiden ersterwähnten Effekte eben jene, die für viele keine untergeordnete Rolle (mehr, 2008) spielen. Ein V12 Lexus hat auch nicht weniger Leistung als ein Porsche GT3...

Was haben wir in den Zeiten des Athlon64 wie auch schon/noch des AthlonXP über die Presskot-Herdplatten fröhlich und gemeinschaftlich hergezogen. Für GPUs gilt das nicht?

Der Text ist sonst sehr gut, aber es ist kein Artikel. Dafür ist es zu kurz.

Roi Danton
2008-06-19, 08:32:56
Der Text ist sonst sehr gut, aber es ist kein Artikel. Dafür ist es zu kurz.Wissenschaftliche Artikel (Papers) in Fachzeitschriften sind inkl. Einleitung + Zusammenfassung vermehrt nur 2-3 A4 Seiten lang. Wer sich tiefgreifender informieren will, nimmt Kontakt zum Autor auf bzw. fragt in unserem Fall im Forum nach (jaa, wir machen keine wissenschaftliche Arbeit, aber es ist Informationsmaterial). Ich würde daher auch im Fall von 3DC Artikel nicht nach der Länge eines Textes definieren.

(del)
2008-06-19, 13:16:18
Wissenschaftliche Artikel (Papers) in Fachzeitschriften sind inkl. Einleitung + Zusammenfassung vermehrt nur 2-3 A4 Seiten lang.Was für eine Schriftgröße müßte die Zeitschrift haben um den Text von aths auf 2 Seiten zu bekommen? ;)

Roi Danton
2008-06-19, 15:32:26
Was für eine Schriftgröße müßte die Zeitschrift haben um den Text von aths auf 2 Seiten zu bekommen? ;)D'oh! (http://en.wikipedia.org/wiki/D%27oh%21) :D

Simon Moon
2008-06-19, 18:10:59
@ Simon Moon: Diese Site ist bei weitem immer noch die beste deutschsprachige Hardwaresite überhaupt ( c't Niveau und kein billiges pcgh-Niveau) und der Artikel ist super geschrieben. Generell mag ich keine Krtiker, weil kritisieren kann jedes Baby, aber selber machen, DAS ist der Unterschied.

Ja, aber nichts mehr im Vergleich zu früher.
Artikel auf diesem Niveau könnten wohl einige aus den Technik Foren schreiben, aber was ich suche sind tiefgreifende Technikartikel, die etwas Neues bieten. Wenn ich das könnte, würd ichs auch machen - nur leider fehlt mir dazu einfach viel zu viel Wissen rundherum.

Gast
2008-06-19, 21:43:06
Schreibt man das jetzt wirklich so? Klingt ja grausig...

ja, endlich mal eine seite die die binärpräfixe auch richtig verwendet.

Piffan
2008-06-19, 21:48:05
Was haben wir in den Zeiten des Athlon64 wie auch schon/noch des AthlonXP über die Presskot-Herdplatten fröhlich und gemeinschaftlich hergezogen. Für GPUs gilt das nicht?

Der Text ist sonst sehr gut, aber es ist kein Artikel. Dafür ist es zu kurz.

Die Klientel für diese Hardware ist eh krass drauf, die guckt auf den Stromverbrauch als Letztes.
Es ist doch immer der gleiche Rythmus: Es wird brutal am Takträdchen gedreht und mit Tranistoren geklotzt, um dann eine Begründung für ein verbrauchsoptimiertes Refresh zu haben....

Immer schön ruhig mit den jungen Pferden, das wird noch.....:tongue:

(del)
2008-06-19, 23:52:26
Immer schön ruhig mit den jungen Pferden, das wird noch.....:tongue:Paßt schon ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421862

Hvoralek
2008-06-20, 01:25:40
Viper;6594082']Informationen hui - Aufmachung pfui ;(Ich kann mich da nur Nahaz anschließen: Besser so als umgekehrt. Ich zumindest habe auch nichts gegen schlichte Texte.

Schon wieder eine "Kolumne" - Immerhin keine Marktanalyse, das ist mal eine schöne Abwechslung. Aber nichts desto Trotz, das kannst du besser (http://alt.3dcenter.org/artikel/multisampling_anti-aliasing/) aths...Aths Grundlagenartikel sind genial. Ich würde mich auch sehr freuen, wenn er noch einmal etwas in der Richtung schreiben würde. Wenn ich mich richtig erinnere, dachte er vor längerer Zeit mal darüber nach, zu einem Thema "Was ist ein Pixel?" oder so ähnlich. Es wäre interessant, was daraus geworden ist. Ich wüsste zwar nicht, wie man zu dem Thema mehr als ein paar Sätze schreiben sollte, aber bevor ich die besagten Artikel gelesen habe, hätte ich auch nicht gewusst, wie man zu AA mehr schreiben sollte als, dass es Kanten glätte, und zu AF, dass es Texturen schärfer mache.

Zum Artikel: Knapp und präzise geschrieben, inhaltlich vermisse zumindest ich auch nichts. Die Schlenker zu Schwarzkopien hätten mMn nicht sein müssen. Eine Nachfrage allerdings:
Dabei geht es hier nur um die allgemein verwendbare Rechenleistung. Der GT200 kann – in 32-Bit-Genauigkeit – zusätzlich 20 bilinear interpolierte Textur- (Datenfeld-) Samples berechnen. Eine bilineare Interpolation benötigt mindestens 9 Operationen, so dass bei 602 MHz die TMUs noch mal 108 Gigaflop/s beisteuern. Benötigt man lediglich eine lineare Interpolation, sind es immerhin noch 36 Gigaflop/s.Ich habe mich erst gewundert, woher die "mindestens 9 Operationen" kommen. Ist das der Fall, dass auf einen Pixel nur zwei Texel entfallen, sodass man 2*3 MULs und 1*3 ADDs benötigt?

aths
2008-06-20, 17:28:11
Die Schlenker zu Schwarzkopien hätten mMn nicht sein müssen. Eine Nachfrage allerdings:
Ich habe mich erst gewundert, woher die "mindestens 9 Operationen" kommen. Ist das der Fall, dass auf einen Pixel nur zwei Texel entfallen, sodass man 2*3 MULs und 1*3 ADDs benötigt?Das mit den Schwarzkopien konnte ich mir nicht verkneifen. Einerseits weil NV mit dem Umwandeln von HD-Filmen wirbt, obwohl HD-Filme oft stark kopiergeschützt sind. Das erinnert an die T-Online-Werbung dass man mit DSL sich die Filme aus dem Internet sehr viel schneller herunterladen kann; ich glaube damals gab es noch gar nicht den Online-Dienst für Filme via DSL. Umgekehrt gilt das aber auch für Gamer. Ich halte nichts davon wenn sich Leute die neuste Hardware kaufen und für die Spiele (und Filme) nichts bezahlten. Da man die Hardware für Spiele (und/oder HD-Filme) nutzt, sehe ich durchaus einen Zusammenhang.

Eine bilineare Filterung lässt sich im einfachsten Fall mit zwei linearen Filtern plus einem linearen Filter realisieren. (Erst werden zum Beispiel die beiden X-Werte linear gefiltert, dann die beiden linear gefilterten Ergebnisse noch mal auf der Y-Achse.)

Eine lineare Filterung braucht drei Operationen (2x MUL und 1x ADD oder 2x ADD und 1x MUL.) Bei drei Filterungen sind das dann neun Operationen.

Gast
2008-06-21, 01:19:16
"Außerdem wurde die Zahl der Z-Tests erhöht, es gibt nun bei aktivem 8x Multisampling 32 Z-Tests pro ROP-Partition (mit Farbe)."

So? G80 konnte schon 8 Zixel/Clock/ROP-Partition.

aths
2008-06-21, 12:03:54
"Außerdem wurde die Zahl der Z-Tests erhöht, es gibt nun bei aktivem 8x Multisampling 32 Z-Tests pro ROP-Partition (mit Farbe)."

So? G80 konnte schon 8 Zixel/Clock/ROP-Partition.Nur bei reinem Z-Test, nicht mit Farbe.

blackbox
2008-06-21, 12:23:29
@Aths
Wieso glaubst du immer noch, dass die Hardware hauptsächlich zum Raubkopieren benutzt wird? Und dass die Hardware hauptsächlich zum Spielen gedacht sei?

Ich weiß nicht, was du mit dieser (unvollständigen) Meinung ausdrücken willst. Denn damit unterschlägst du zwei große Bereiche: Den Bereich der 3D-Berechnung und den Bereich der Hobbyfilmer.

san.salvador
2008-06-21, 12:59:02
Ohne den ganzen Thread gelesen zu haben:
Die technischen Infos finde ich natürlich sehr gut, wie es sich halt für einen 3Dc-Artikel gehört. Aber aths - bei all meiner Wertschätzung - sollte doch etwas besser zwischen Artikel und Kolumne trennen (können).

Gast
2008-06-21, 13:44:08
Nur bei reinem Z-Test, nicht mit Farbe.
Und woher stammt diese Info? Wäre mir neu, dass es bei G200 anders ist.

aths
2008-06-21, 21:22:15
Und woher stammt diese Info?Aus den Nvidia-Unterlagen.

Spasstiger
2008-06-23, 15:08:18
Kann man die Tripleshadercores so verstehen, dass drei Komponenten von acht Pixeln parallel bearbeitet werden können (8 Pixel gleichzeitig in einem Shadercluster). Oder heißt das nur, dass drei (sechs) verschiedene Operationen mit einer Komponente von jeweils 8 Pixeln parallel möglich sind (24 Pixel gleichzeitig in einem Shadercluster).

Gandharva
2008-06-24, 14:12:00
Kleine Fehler:

SLI

Alternate Frame Rendering (AFR) ist beim Multi-GPU-Betrieb nach wie vor die erste Wahl, um eine möglichst hohe Durchschnittsframerate zu erreichen.

und:

Unter dem Aufrüstdruck bleiben vielen Spieler offensichtlich zu wenig Euro im Portemonaie, als dass sie Spiele noch kaufen könnten – es wird schwarz kopiert, so dass uns, wenn man das weiterdenkt, in Zukunft eher Konsolenspiel-Grafik (auf Direct3D9-Niveau) mit einigen zusätzlichen Shadern erwartet, die viel Performance fressen, aber wenig Qualität bringen.

-> Ein Geldbeutel (Geldbörse, Geldtasche, Geldsack, Portemonnaie bzw. Portmonee /pɔrtmɔˈneː/) ist eine kleine Tasche oder ein Beutel, in dem in erster Linie Bargeld aufbewahrt wird.

aths
2008-06-24, 18:30:12
Kann man die Tripleshadercores so verstehen, dass drei Komponenten von acht Pixeln parallel bearbeitet werden können (8 Pixel gleichzeitig in einem Shadercluster). Oder heißt das nur, dass drei (sechs) verschiedene Operationen mit einer Komponente von jeweils 8 Pixeln parallel möglich sind (24 Pixel gleichzeitig in einem Shadercluster).Die Batchgröße soll bei 8 liegen, so dass 8 Skalare gleichzeitig bearbeitet werden. Es ist nicht sinnvoll, drei Komponenten von Pixeln parallel zu berechnen, da möglicherweise der Wert von Komponente zwei von Komponente eins abhängig ist.

Wie genau aufgeteilt wird ist nebensächlich, interessant ist, was pro Takt an Skalaren durchgeschoben wird. GT200 dürfte sehr nahe am theoretischen Maximum der Auslastung liegen: Solange etwas zu berechnen da ist, rechnet er. Das Registerfile ist groß genug, die mögliche Zahl der Threads ebenfalls.

Gast
2008-07-22, 23:40:47
könnte mann icht die pressemappe veröffentlichen?