PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80 wurde in 4 Jahren entwickelt


Gast
2006-11-17, 00:02:08
Hi
also ich bin erstaunt das die 2002 schon mit der Entwicklung angefangen
haben, da hatten wir erst die GeForce4.
woher wissen die was ein Grafikchip in 4 Jahren können muss?

http://anandtech.com/video/showdoc.aspx?i=2870&p=5

Aquaschaf
2006-11-17, 00:05:28
woher wissen die was ein Grafikchip in 4 Jahren können muss?

Es ist doch umgekehrt, was ein Grafikchip heute kann ist das was vor 4 Jahren in die Entwicklung gegangen ist ;)

Super Grobi
2006-11-17, 00:08:52
Mich würde viel mehr neugierig machen, was NV und Ati für uns in 4 Jahren hat. Aber das wird hier eh keiner wissen.

Ist schon interessant, aber wir werden es in 4 Jahren wissen.

Aber auch wäre interessant, wieviele Ideen und Ansätze (Prototypen) in den Abfall landen.

SG

MSABK
2006-11-17, 00:24:57
Ist schon komisch der gedanke. Wir freuen uns gerade über die Geforce 8, und die denken schon an die Geforce 10 und weiter.

Super Grobi
2006-11-17, 00:27:12
Ist schon komisch der gedanke. Wir freuen uns gerade über die Geforce 8, und die denken schon an die Geforce 10 und weiter.

... und die Geforce 9 macht gerade im Labor 20000 Punkte im 3dMark06...

SG

tokugawa
2006-11-17, 00:46:41
... und die Geforce 9 macht gerade im Labor 20000 Punkte im 3dMark06...

SG

Wenn dann gibt's die sowieso nur als Simulation "in Software"...

Ich glaub ein paar Leut hier sind etwas illusionistisch.

Aber wie die Hardware-Entwickler wissen, worauf sie schauen müssen? Unter anderem durch wissenschaftliche Konferenzen wie die Eurographics, bzw. das dazugehörige Symposium on Graphics Hardware.

Android
2006-11-17, 01:01:56
Es fing 2002 mit Nichts an und endete 2006 mit dem G80. Das nennt man Entwicklung. ;)
Es ist ja nicht so, dass 2002 die Grafikkarte schon fertig war und dann nur noch verfeinert wurde. 2002 war eine Idee da, die über die Zeit hinweg mit Infos erweitert wurde um dann schliesslich 2006 vollendet zu werden. Läuft in jeder Firma mit Forschungsabteilung so ab. Völlig unspektakulär.

Viel Interessanter sind die Speziallösungen, die Grafikkartenhersteller für Privatkunden anfertigen. Diese sind derart hochgezüchtet, dass sie niemals unproblematisch serienreif hergestellt werden könnten. So ist es also durchaus möglich, dass ein G80-Junior, welcher damalige aktuelle Merkmale von Grafikchips mit Studien kombinierte, schon 2004 das Haus verlassen hat. Das ist für die Entwickler dann einfacher, da sie auf Dinge wie beispielsweise Stromverbrauch und Kühlung nicht sonderlich eingehen müssen. Warum? Die Kunden interessiert weder der Stromverbrauch noch die Kühlung (wird dann nämlich eh in stark klimatisierten Räumen gefahren), sondern einzig und allein der Nutzen.

Mfg
Android

Gast
2006-11-17, 16:31:44
Wenn dann gibt's die sowieso nur als Simulation "in Software"...

Ich glaub ein paar Leut hier sind etwas illusionistisch.

Aber wie die Hardware-Entwickler wissen, worauf sie schauen müssen? Unter anderem durch wissenschaftliche Konferenzen wie die Eurographics, bzw. das dazugehörige Symposium on Graphics Hardware.

Zum Glück kann man Chips mit geeigneter Hardware und Software emulieren...aber nur in einem bestimmten Maß.

Gast
2006-11-17, 16:54:42
Viel Interessanter sind die Speziallösungen, die Grafikkartenhersteller für Privatkunden anfertigen. Diese sind derart hochgezüchtet, dass sie niemals unproblematisch serienreif hergestellt werden könnten. So ist es also durchaus möglich, dass ein G80-Junior, welcher damalige aktuelle Merkmale von Grafikchips mit Studien kombinierte, schon 2004 das Haus verlassen hat.Gibt es dazu (also nicht unbedingt G80-junior, sondern generell) öffentlich bekannte Beispiele? Und wirklich privat? Ich würde als möglichen Abnehmer für solches wohl am ehesten das Militär vermuten.

Android@Gast
2006-11-17, 19:29:55
Gibt es dazu (also nicht unbedingt G80-junior, sondern generell) öffentlich bekannte Beispiele? Und wirklich privat? Ich würde als möglichen Abnehmer für solches wohl am ehesten das Militär vermuten.

Richtig. Das Militär fällt unter die Kategorie Privat, auch wenn es staatlich ist.
In den USA ist das Militär mit Sicherheit der grösste Abnehmer. ;)

Godmode
2006-11-18, 01:53:00
Ich lese in diesem Artikel das der G80 Shadercore auf Transistorebene geplannt und nicht einfach mit HDL designed wurde, darum auch der hohe Takt. Warum wird das hier nicht diskutiert, ist doch ein ziemlich wichtiges Detail des G80!

Wie wird das wohl bei der Fertigung aussehen, wie geht TSMC damit um? Können die einfach ein Custom Design fertigen, oder hat TSMC spezielle Libs zur Verfügung gestellt, die solch extreme Taktraten ermöglichen?

Coda
2006-11-18, 02:14:55
Ich lese in diesem Artikel das der G80 Shadercore auf Transistorebene geplannt und nicht einfach mit HDL designed wurde, darum auch der hohe Takt. Warum wird das hier nicht diskutiert, ist doch ein ziemlich wichtiges Detail des G80!

Naja sowas muss man eben akzeptieren, weil uns dazu einfach die Informationen darüber fehlen.

Transistorebene ist aber übertrieben. Wenn dann wohl eher Gate-Level - außer es wurde irgendwelche komische Logik wie zuletzt im Northwood eingesetzt (differential irgendwas).

ScottManDeath
2006-11-18, 03:01:05
Aber wie die Hardware-Entwickler wissen, worauf sie schauen müssen? Unter anderem durch wissenschaftliche Konferenzen wie die Eurographics, bzw. das dazugehörige Symposium on Graphics Hardware.

Das auch, und zudem der Kontakt von Developer Technology zu Spieleentwicklern und deren Wünschen

tokugawa
2006-11-18, 07:32:20
Das auch, und zudem der Kontakt von Developer Technology zu Spieleentwicklern und deren Wünschen

Wofür natürlich solche Symposia ideal sind, wo wirklich viele Industrie-Fachleute zusammenkommen.

Man darf nicht unterschätzen wieviel in der Wissenschaft/Forschung und Entwicklung vorangeht allein dadurch dass Fachleute beim Social Program am Abend zusammen essen und trinken gehen :)

dye
2006-11-18, 12:34:19
Gibt es dazu (also nicht unbedingt G80-junior, sondern generell) öffentlich bekannte Beispiele? Und wirklich privat? Ich würde als möglichen Abnehmer für solches wohl am ehesten das Militär vermuten.


Erklaer mir mal bitte wozu das Militaer High-End Grafikkarten braucht.

AnarchX
2006-11-18, 12:37:37
Erklaer mir mal bitte wozu das Militaer High-End Grafikkarten braucht.

Trainings-Simulatoren...;)
Such einfach mal nach "Evans and Sutherland" oder "Quantum3D".

schidddy
2006-11-18, 12:47:58
ich glaube aber dass das militär für ihre flugsimulationen sehr alte hardware nutzen teils gf 4 mx usw.. Man braucht dazu ja keiner super realistische grafik, oder?
Hab mal ihm Fernseher einen bericht darüber gesehen kann mich aber nicht mehr genau daran errinnern..

Snoopy1978
2006-11-18, 12:58:12
[G80 wurde in 4 Jahren entwickelt
][/QUOTE].
In einem Interview mit Nvidia hat Kirk mal geschildert das immer mehrere Teams am werkeln sind.
Einige kümmern sich wahrscheinlich um eventuelle Refreshchips oder auch um GPU´s die keine völligen Neuentwicklungen sind (also NV40 zu G70).
Das Zukunftsteam entwickelt dagegen in völlig neuen Bereichen,
es würde mich also nicht wundern wenn der G100 oder die GeForceX1000(falls die Serie dann immer noch so heißt) ähnliche Neuentwicklungen wie der G80 sind.
Und um noch auf den "millitärischen" Einsatz von Grafikchips zurückzukommen,
das US-Millitär hat letztens ein neues Trainingsspiel auf Basis der Unreal Engine 3 in Auftrag gegeben.

SKYNET
2006-11-18, 13:01:12
Mich würde viel mehr neugierig machen, was NV und Ati für uns in 4 Jahren hat. Aber das wird hier eh keiner wissen.

Ist schon interessant, aber wir werden es in 4 Jahren wissen.

Aber auch wäre interessant, wieviele Ideen und Ansätze (Prototypen) in den Abfall landen.

SG

rechne den technologischen sprung NV25 --> G80 auf G80 --> Gxxx/NVxxxxx hoch, dann kann man erahnen was uns erwartet...

Wenn dann gibt's die sowieso nur als Simulation "in Software"...

Ich glaub ein paar Leut hier sind etwas illusionistisch.

Aber wie die Hardware-Entwickler wissen, worauf sie schauen müssen? Unter anderem durch wissenschaftliche Konferenzen wie die Eurographics, bzw. das dazugehörige Symposium on Graphics Hardware.


erste testsamples werden im labor sicher schon am laufen sein, verlasse dich drauf...

SKYNET
2006-11-18, 13:08:08
In einem Interview mit Nvidia hat Kirk mal geschildert das immer mehrere Teams am werkeln sind.
Einige kümmern sich wahrscheinlich um eventuelle Refreshchips oder auch um GPU´s die keine völligen Neuentwicklungen sind (also NV40 zu G70).
Das Zukunftsteam entwickelt dagegen in völlig neuen Bereichen,
es würde mich also nicht wundern wenn der G100 oder die GeForceX1000(falls die Serie dann immer noch so heißt) ähnliche Neuentwicklungen wie der G80 sind.
Und um noch auf den "millitärischen" Einsatz von Grafikchips zurückzukommen,
das US-Millitär hat letztens ein neues Trainingsspiel auf Basis der Unreal Engine 3 in Auftrag gegeben.

naja, bisher wars meistens so:

NV10 - NV15
NV20 - NV25
NV30 - NV35
NV40 - G70/71
G80 - G85(?)

also kommt erst mit dem G90 eine neuentwicklung, schätze mal anfang 2008 wird der ins haus segeln...

Coda
2006-11-18, 13:11:29
Ich denke G90 wird noch grob auf G80 basieren, so wie NV4x/G7x auf NV3x.

Ailuros
2006-11-18, 14:08:01
ich glaube aber dass das militär für ihre flugsimulationen sehr alte hardware nutzen teils gf 4 mx usw.. Man braucht dazu ja keiner super realistische grafik, oder?
Hab mal ihm Fernseher einen bericht darüber gesehen kann mich aber nicht mehr genau daran errinnern..

Und man hat dort erzaehlt dass GF4 MX-en benutzt werden oder ist das Deine eigene Schnapsidee?

http://www.quantum3d.com/products/Independence/Independence1.htm

IV3 Channels include 1, 2, 4, or 8 1U IG Rendering (IGR) Units. Each IGR is basically a server-class system with NVIDIA® QuadroFX® 4000 Graphics Board and Quantum3D patented nVSync™ module. IV3 Channels also include a Channel Compositor (CC) that combines or “composites” the synchronized outputs of each of the IGRs using realtime, low-latency image processing techniques to produce scalable realtime 3D rendering performance and image quality that far surpasses that of single GPU-based solutions while preserving the low (52 msec total on 60 Hz applications) transport delay . IV3 Channels include Mantis Realtime Scene Management Software and support video resolutions up to 2048 x 1536 with 24-bpp RGB digital and 30-bpp analog output at VESA standard or optional customer specific timings, with up to 64 SPS FSAA and 16x Anisotropic Filtering.

http://www.quantum3d.com/products/Independence/independence2.htm

Da solche Systeme bis zu 8 Quadros haben kosten sie sicher nicht nur ein "paar" Tausend Dollar und nix da mit MX-en LOL :biggrin:

RavenTS
2006-11-18, 17:37:44
In militärischen und allgemeinen zivilen Flugsimulatoren kommen natürlich nicht irgendwelche abgespeckten Billigchips zum Einsatz. Deren Grafik ist zwar oft nicht direkt mit dem PC vergleichbar, doch dort werden einfach viel höhere Anfoderungen gestellt, da zig Monitore in großen Auflösungen genutzt werden und Physik eine extrem wichtige Rolle spielt..!

Schau doch einfach ma auf http://www.es.com/ vorbei oder lies dich durch Google und Wikipedia. Auch im Forum findet man hier einige interessante Sachen, wie beispielsweise Bilder von den Quantum3D-Karten mit 3Dfx-Chips..!

Xmas
2006-11-18, 18:49:00
Trainings-Simulatoren...;)
Such einfach mal nach "Evans and Sutherland" oder "Quantum3D".
Die stellen Spezialkarten her, allerdings mit ganz normalen Serienchips. Ich glaube nicht dass irgendjemand spezielle Grafikchips nur fürs Militär entwickelt.

erste testsamples werden im labor sicher schon am laufen sein, verlasse dich drauf...
Höchstens wenn GeForce 9 sehr viel früher kommt als erwartet.

Tjell
2006-11-18, 19:43:33
naja, bisher wars meistens so:

NV10 - NV15
NV20 - NV25
NV30 - NV35
NV40 - G70/71
G80 - G85(?)

also kommt erst mit dem G90 eine neuentwicklung, schätze mal anfang 2008 wird der ins haus segeln...
Ich sehe eher eine konsistente Linie von GeForce256 bis GeForce 4 Ti, dann von GeForce FX5800 bis GeForce 7950.

Die GeForce 8-Serie wäre dann die 3. Reihe an GPU von NVIDIA. Bei den Generationen, die ich für mich zusammenfasse, sind die architektonischen Unterschiede nicht sehr groß.

Von der Nomenklatur hätte man im Übrigen erst jetzt bei GeForce 7 sein sollen, da aber mittendrin der NV47 in G70 umbennant worden ist, hatte man nun keine 6900er sondern eine 7800er auf dem Markt.

zappenduster
2006-11-18, 19:55:57
[G80 wurde in 4 Jahren entwickelt
].
In einem Interview mit Nvidia hat Kirk mal geschildert das immer mehrere Teams am werkeln sind.
Einige kümmern sich wahrscheinlich um eventuelle Refreshchips oder auch um GPU´s die keine völligen Neuentwicklungen sind (also NV40 zu G70).
Das Zukunftsteam entwickelt dagegen in völlig neuen Bereichen,
es würde mich also nicht wundern wenn der G100 oder die GeForceX1000(falls die Serie dann immer noch so heißt) ähnliche Neuentwicklungen wie der G80 sind.
Und um noch auf den "millitärischen" Einsatz von Grafikchips zurückzukommen,
das US-Millitär hat letztens ein neues Trainingsspiel auf Basis der Unreal Engine 3 in Auftrag gegeben.[/QUOTE]

ist auch sehr gut im The Xbox 360 Uncloaked buch von Dean Takahashi beschrieben dort wird auch auf die probleme einer solchen entwicklung eingegangen (ging dort im speziellen um die unterschiede zwichen ati und nvidia und wer fuer die xbox 360 schnell genug einen grafikchip entwickeln kann, damals waren noch beide firmen im rennen)

es arbeiten zb. 3-4 verschiedene teams die mit 1-2 jahren unterschied starten und jeweils am folgenden produkt arbeiten vorteil ist halt man bleibt technologisch nicht stehen und muss nicht mit einmal 5 jahre entwicklung aufholen, nachteil natuerlich 4 mal hoehere kosten

Coda
2006-11-18, 20:06:28
Ich sehe eher eine konsistente Linie von GeForce256 bis GeForce 4 Ti

Wenn man mal von den Vertexshadern und verbesserten Bandbreitensparmaßnahmen ab der GeForce 3 absieht stimme ich dir da auch zu.

OBrian
2006-11-19, 03:54:59
...
Und um noch auf den "millitärischen" Einsatz von Grafikchips zurückzukommen,
das US-Millitär hat letztens ein neues Trainingsspiel auf Basis der Unreal Engine 3 in Auftrag gegeben.Der Taktikshooter "America's Army" auf UT-2.x-Engine-Basis wurde vor mehreren Jahren vorgestellt, ursprünglich nur als kostenloses Werbespiel, um ein paar Rekruten zu gewinnen.

Seit längerer Zeit ist das aber nur noch ein Teil der Entwicklung, daneben gibt es auch mehrere Module, die von der Army intern zu Trainingszwecken genutzt werden - z.B. wird das Zielerfassungssystem einer Panzerabwehrwaffe oder eines Fahrzeugs modifiziert und an einen normalen PC angeschlossen, und wenn der Soldat durchschaut, sieht er die mit der UT-Engine modellierte Gegend+Ziele. Vorteil ist natürlich auch, daß man anhand von Satelliten-/Luftaufnahmen im Editor eine Map von iranischen Atomkraftwerken o.ä. basteln kann und Zugriffe direkt vorher genau trainieren kann.

Dafür reichen aber "normale" Grafikkarten, die jeder ambitionierte Spieler im Rechner hat - selbst wenn nächstes Jahr die Unreal Engine 3 darin verbraten wird.

Gaestle
2006-11-20, 09:37:46
Wenn man mal von den Vertexshadern und verbesserten Bandbreitensparmaßnahmen ab der GeForce 3 absieht stimme ich dir da auch zu.

Kann man auch das (speziell die Bandbreitensparmaßnahmen) denn nicht absolut als Evolution innerhalb einer Chip-Serie auffassen? Wie groß war der Sprung/ die Entwicklung bei den Vertexshadern, größer als bei den Pixelshadern? (Dass es von DX7 auf DX8.1 bzw. von SM1 zu SM1.4 hochging, ist mir soweit klar)