PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15

Gast
2005-05-26, 16:49:51
http://nvworld.ru/news/2005/04/G70_.jpg

Quelle : http://www.nvworld.ru/news/01_04_2005.html

nur ein gebasteltes bild eines nv fanboys

Demirug
2005-05-26, 16:52:21
Aber NV30/35 hatte das Flimmerproblem doch anscheinend nicht, woran liegt das dann?

Dort gibt es das Problem auch. Ich vermute mal das es nun in Verbindung mit der Winkelabhängigkeit aber stärker auffällt.

Nein, das ist garantiert ein Fake ;)

Sieht wie ein mobile Variante also nicht zwingend ein Fake.

aths
2005-05-26, 17:06:48
Passiert zuweilen - ausser, es lag in deiner Absicht. Dann war der Ton natürlich sehr treffend. :)


Man lädt aber nicht immer nur selektiv ein einziges Texturesample nach."Außer" bitte, bitte mit ß.

AF kostet neben der Füllrate natürlich auch Bandbreite, da Füllrate per se Bandbreite kostet. Nun verschiebt sich beim AF dank der Caches das Verhältnis zugunsten der Bandbreite. Allerdings sinkt die Gesamtperformance trotzdem. Damit man mit AF einen echten Qualitätsgewinn hat, braucht man mehr Texel-Daten, die irgendwie in den Cache kommen müssen. Der Cache muss bei hohen AF-Stufen häufiger nachladen. Ist die Bandbreitennutzung bereits am Anschlag, senkt das die Gesamtperformance.

Nur so gibts ja scheinbar "AF for free", in dem die Bandbreite stark limitiert und die TMUs noch einige extra Takte drehen könnten, da der Chip ohnehin auf neue Daten wartet. Aber: There is no lunch for free.

Rechnet man den lokalen Speicher und den PC-Hauptspeicher ebenfalls als Cache, kann man sich ein L4-Cachesystem denken :) doch L2-Cache bringt eigentlich nur, dass Nachbartexel nicht neu vom lokalem Speicher gelesen werden müssen. Die Bandbreite vom Speicher zum Chip sehe ich daher als das entscheidende Merkmal, und hoffe dass die Texturkomprimierung hier noch Fortschritte macht.


Ich halte 16 Pipelines angesichts der verfügbaren Speichertechnologie für derzeit genug und verlange sauberes, trilineares AF ohne "Optimierungen" die zulasten der Qualität gehen.

MarcWessels
2005-05-26, 17:12:01
Wo hast du den dieen Quatsch aufgegriffen????? Stimmt niet!*lol* Natürlich stimmt das, dass die Radeon mit einer niedrigen Präzision arbeitet.



Es flimmert isotrop eben nicht. Da ist ganz klar was beim AF faul.

Da es mir scheinbar mal wieder keiner glaubt:
http://home.arcor.de/aexorzist/flimmer-af.gif
(High Quality, Clamp, Alle Optimierungen aus)

Und so kann man eh nicht spielen, weil dann viel zu viel Leistung flöten geht. Und glaube mir, mit Quality statt High Quality ist das noch viel perverser.

Das sieht aber nach bilinearem Filtering aus! Bist Du Dir sicher, dass Du den Controlpanel-Bug umgangen oder nicht schon irgendwas mit'm Rivatuner "versaut" hast?

Und natürlich kann man mit HQ spielen - mach ich nur in Ausnahmefällen nicht.

robbitop
2005-05-26, 17:17:09
Sieht wie ein mobile Variante also nicht zwingend ein Fake.
mit 4 GPUs?

---
danke aths, mir scheinen Quasar/Exxtreme nicht glauben zu wollen.

aths
2005-05-26, 17:17:54
*lol* Natürlich stimmt das, dass die Radeon mit einer niedrigen Präzision arbeitet.Und zwar mehr, als man denkt.

- FP32-Texturzugriffe sollten mit einer bestimmten Mantissen-Genauigkeit arbeiten. GeForce-Karten (ab GF3) liefern das, die Radeon ist ein Bit ungenauer (was Xmas herausgefunden hat.)

- Die LOD-Bestimmung funktioniert nur ungenau. Insbesondere beim AF fällt das auf. Die GeForce arbeitet hingegen wie es sein sollte.

- Bei extrem dünnen Dreiecken (dünner als 1 Quad) treten zusätzliche Ungenauigkeiten auf, während die GeForce keine Probleme hat.

- Trilineare Interpolation mit 5 Bit LOD-Fraction statt 8 Bit wie GeForce.

- Bilineare Interpolation mit 6 Bit Fraction beim (u, v)-Vektor, statt 8 Bit wie GeForce.

Coda
2005-05-26, 17:18:53
Das sieht aber nach bilinearem Filtering aus! Bist Du Dir sicher, dass Du den Controlpanel-Bug umgangen oder nicht schon irgendwas mit'm Rivatuner "versaut" hast?Bilinear? Nein, AF ist definitiv an. Ohne wäre das sehr viel matschiger.

aths
2005-05-26, 17:20:01
mit 4 GPUs?Mit Speicher und anderen Chips.

aths
2005-05-26, 17:20:33
Und natürlich kann man mit HQ spielen - mach ich nur in Ausnahmefällen nicht.Dito hier – und ich hab nur ne 6600 GT AGP.

Demirug
2005-05-26, 17:20:34
mit 4 GPUs?

Das sind dann keine GPUs sondern Speicherbausteine. Die GPU ist wahscheinlich auf der anderen Seite des Subtrats. Die Kontaktpins sind dann um die GPU angeordnet. Der besondere Witz dabei ist in der Regel dann die Platine auf der man das ganze montiert. Die sollte nämlich an der Stelle wo sich später die GPU befindet ein Loch haben.

aths
2005-05-26, 17:28:19
Aus dem VRAM. Aber wo siehst du denn die Möglichkeit Bandbreite einzusparen wenn du an den Filtern drehst? Die Textur braucht ja nicht plötzlich weniger Speicherplatz bloß weil du den AF-Level an einigen Winkeln änderst.Dort nimmt man niedriger aufgelöste MIP-Stufen. Das verringert die "Geschwindigkeit" des Lesens im Cache, bzw. der Cache kann bei niedrigerer Auflösung und gleicher Datenmenge einen größeren Bereich vorrätig halten. Kurz: Die Hitrate steigt.

Nun hoffe ich, dass der Cache nicht auf einen Miss wartet ehe nachgeladen sind, sondern vorausschauend lädt. Wenn die Bandbreite leergenuckelt ist, nützt das allerdings auch nichts.

Heute, wo pro Pixel viele Texturen notwendig sind, "wiegt" die Pixel-Bandbreite (Farbe und Z) im Verhältnis entsprechend weniger. Die Texturbandbreite tritt damit in den Vordergrund. Je mehr Texturen pro Pixel, desto kleiner der Ausschnitt im Cache. Trilineare Filterung erfordert zudem, dass Ausschnitte von mindestens zwei MIP-Stufen gleichzeitig im Cache sind.

MarcWessels
2005-05-26, 17:32:28
Bilinear? Nein, AF ist definitiv an. Ohne wäre das sehr viel matschiger.

Ich meine bri- oder bil. AF.

Es ist beim nVidia-CP leider oftmals (komischerweise nicht immer) so, dass mehrere oder eine Optimierung NICHT abgeschaltet wird, wenn man einfach auf HQ schaltet! Das kann man meienr Erfahrung nach nur so umgehen, indem man zuerst auf Q stellt (übernehmen), dann von Hand alle Optimierungen auf aus (wiederum "übernehmen") und erst zum Schluß auf HQ wechselt.

aths
2005-05-26, 17:46:34
Falls das wirklich so ist will ich nichts gesagt haben. Ist also ein minimal positiver LOD Bias die Lösung?Nein.

Die Lösung ist der Verzicht auf "böse" Texturinhalte. "Böse" Texturen flimmern immer, sofern man an der Schärfe-Grenze operiert. Und das ist ja eigentlich das Ziel: So scharf wie möglich, aber ohne Aliasing.

Nun sollte man bei perfekten Filtern den Frequenzraum eben nicht voll ausnutzen, um "böse" Texturen zu vermeiden. ATI hat das zuerst erkannt und später NV, was genutzt wird um absichtlich zu unterfiltern. Bei gutmütigen Texturen flimmert es trotzdem noch nicht, sofern man die Unterfilterung nicht übertreibt. Aber hochwertige Texturen, die nah am Limit zum "bösen" Inhalt operieren, flimmern dann erst recht und da kannst du auch mit LOD-Spielereien nichts machen. Wenn Unterfilterung Standard wird, werden die ISV gezwungen immer schlechtere (unschärfere) Texturen zu nehmen, um Flimmern zu vermeiden. Um pro cm² die gleiche Schärfe zu haben, muss man dann ineffizienterweise die Bildschirmauflösung erhöhen. Man verballert also Leistung oder lebt mit schlechterer Qualität.

Lange Rede, kurzer Sinn: Man sollte so gut filtern, wie es geht, und vernünftige Texturen nutzen.

Coda
2005-05-26, 18:07:57
Ich meine bri- oder bil. AF.

Es ist beim nVidia-CP leider oftmals (komischerweise nicht immer) so, dass mehrere oder eine Optimierung NICHT abgeschaltet wird, wenn man einfach auf HQ schaltet! Das kann man meienr Erfahrung nach nur so umgehen, indem man zuerst auf Q stellt (übernehmen), dann von Hand alle Optimierungen auf aus (wiederum "übernehmen") und erst zum Schluß auf HQ wechselt.Jaja, ich habe alles im nHancer ausgeschaltet.

Gast
2005-05-26, 18:14:17
OT leute es geht hier um den g70 und keine filterdiskusionen

Coda
2005-05-26, 18:15:29
Das hat sehr wohl was mit dem G70 zu tun weil es unwahrscheinlich ist, das nVidia etwas daran verändert hat.

Gast
2005-05-26, 18:24:38
nv stand noch nie auf bildqualität ,denkt maldran wie lang nv gebraucht hat um endlich annähernd an die aa qualität von ati zu kommen.
und selbst jetzt kann nv noch nichtmal gleichziehn

Gast
2005-05-26, 18:41:17
Das hat sehr wohl was mit dem G70 zu tun weil es unwahrscheinlich ist, das nVidia etwas daran verändert hat.

Was auch ändern?

robbitop
2005-05-26, 18:41:56
Lol. Klar kann ATI Supersampling. :)
nur bis 1024 2x2 OGSS.

Gast
2005-05-26, 18:52:21
Geforce war wohl nicht der erste Geforce?
:confused:
Wie meinen?

Depp
Ist das nötig?

deekey777
2005-05-26, 19:05:08
Das konnte schon der R200 ROFL.

Und er konnte das gut. Ich vermisse meine 9100 manchmal.

Lol eher umgedreht. Ati kann bis heute kein Supersampling.

Nanana, erst mit dem NV40 zog nVidia mit ATi gleich - qualiltäts- und performancemäßig. Doch die Möglichkeit der xS-Modi ist ein Pluspunkt für nVidia.

Gast
2005-05-26, 19:16:00
Und er konnte das gut. Ich vermisse meine 9100 manchmal.
Der R200 war wirklich ein guter Chip. Das AF war aber nicht der Bringer. :(

Quasar
2005-05-26, 19:34:19
"Außer" bitte, bitte mit ß.

AF kostet neben der Füllrate natürlich auch Bandbreite, da Füllrate per se Bandbreite kostet. Nun verschiebt sich beim AF dank der Caches das Verhältnis zugunsten der Bandbreite. Allerdings sinkt die Gesamtperformance trotzdem. Damit man mit AF einen echten Qualitätsgewinn hat, braucht man mehr Texel-Daten, die irgendwie in den Cache kommen müssen. Der Cache muss bei hohen AF-Stufen häufiger nachladen. Ist die Bandbreitennutzung bereits am Anschlag, senkt das die Gesamtperformance.

Nur so gibts ja scheinbar "AF for free", in dem die Bandbreite stark limitiert und die TMUs noch einige extra Takte drehen könnten, da der Chip ohnehin auf neue Daten wartet. Aber: There is no lunch for free.

Ich sagte ja auch, und habe es etwas größer und roter wiederholt, daß ich von "wenig" Bandbreitenaufwand spreche. Wenig ist, wenn ich die Texelfüllrate im Extremfalle (und eben diesen forderte ich ja auch: trilineare Filterung und ordentliches AF) auf ein Sechzehntel (faktisch wohl erher auf rund ein Viertel), im Verhältnis zu den natürlich, "wenig" gestiegenen Bandbreitenanforderungen, selbstverständlich relativ zu sehen.

Kurzum:
Nie habe ich bestritten, daß Texturfilterung Bandbreite benötigt. Wenn ihr, du und robbitop, meine Einschränkung ("wenig") nicht lesen wollt - bitte sehr.

robbitop
2005-05-26, 19:40:45
Ich sagte ja auch, und habe es etwas größer und roter wiederholt, daß ich von "wenig" Bandbreitenaufwand spreche. Wenig ist, wenn ich die Texelfüllrate im Extremfalle (und eben diesen forderte ich ja auch: trilineare Filterung und ordentliches AF) auf ein Sechzehntel (faktisch wohl erher auf rund ein Viertel), im Verhältnis zu den natürlich, "wenig" gestiegenen Bandbreitenanforderungen, selbstverständlich relativ zu sehen.

Kurzum:
Nie habe ich bestritten, daß Texturfilterung Bandbreite benötigt. Wenn ihr, du und robbitop, meine Einschränkung ("wenig") nicht lesen wollt - bitte sehr.
Da ist wohl jemand angesäuert? ;)
Tut mir leid, ich glaube wir haben aneinander vorbeigeredet. Und "wenig" ist natürlich immer relativ zu sehen.

Quasar
2005-05-26, 19:44:24
Da ist wohl jemand angesäuert? ;)

Nö. Aber ständig "berichtigt" zu werden, nur weil einige nicht in der Lage sind, zu lesen, ist irgendwie müßig.

(Ja, diesmal war mein Ton auch Absicht)

robbitop
2005-05-26, 19:46:59
Nö. Aber ständig "berichtigt" zu werden, nur weil einige nicht in der Lage sind, zu lesen, ist irgendwie müßig.

(Ja, diesmal war mein Ton auch Absicht)
Ich bin sehr wohl in der Lage, zu lesen und vertrete nach wie vor die Ansicht, dass "wenig" zu wenig ist als Aussage. Und außerdem hat man in der Diskussion über die Caches gesehen, dass all das nicht umsonst war ;)
Ich hoffe, es kühlen sich die Gemüter nun wieder ein wenig ab. srykthx

SKYNET
2005-05-26, 21:09:32
Und er konnte das gut. Ich vermisse meine 9100 manchmal.



Nanana, erst mit dem NV40 zog nVidia mit ATi gleich - qualiltäts- und performancemäßig. Doch die Möglichkeit der xS-Modi ist ein Pluspunkt für nVidia.


ich verfeiner mal: mit dem NV40 zog NV wieder gleich. bis zum GF4 war NV die spitze der nahrungsk.. ähhh grafikkette. ;)

Gast
2005-05-26, 21:14:20
ich verfeiner mal: mit dem NV40 zog NV wieder gleich. bis zum GF4 war NV die spitze der nahrungsk.. ähhh grafikkette. ;)
Nö.
Die GF4 konnte nicht mal PS 1.4.
Bei Max Payne waren die Spiegel nicht darstellbar. Peinlich, peinlich. :)

Gast
2005-05-26, 21:17:27
Nö.
Die GF4 konnte nicht mal PS 1.4.
Bei Max Payne waren die Spiegel nicht darstellbar. Peinlich, peinlich. :)
Nachtrag :D
Das konnte der R200 ohne Probleme. :)

Coda
2005-05-26, 21:27:07
Nö.
Die GF4 konnte nicht mal PS 1.4.
Bei Max Payne waren die Spiegel nicht darstellbar. Peinlich, peinlich. :)Das liegt aber eher an Max Payne. Aber es ist mühsam so alte Themen aus der Schublade zu holen, nicht?

Gast
2005-05-26, 21:28:43
Das liegt aber eher an Max Payne. Aber es ist mühsam so alte Themen aus der Schublade zu holen, nicht?
Hast Recht. Multipass hätte es auch getan. :)

Black-Scorpion
2005-05-26, 21:31:21
Das liegt aber eher an Max Payne. Aber es ist mühsam so alte Themen aus der Schublade zu holen, nicht?
Das die GF4 keine PS1.4 kann bestimmt nicht. ;)
Und warum ist es mühsam das Beispiel aus der Schublade zu holen.
Es stimmt nunmal.

*edit*
Hätten die Programmierer PS1.4 mehr eingesetzt gäbe es auch mehr Beispiele.

deekey777
2005-05-26, 21:32:55
ich verfeiner mal: mit dem NV40 zog NV wieder gleich. bis zum GF4 war NV die spitze der nahrungsk.. ähhh grafikkette. ;)

Geht es jetzt um MSAA? Da erst der R300 MSAA hatte, gab es von der grünen Fraktion bis zum NV40 gegen ATis MSAA wenig entgegenzusetzen.

Gast
2005-05-26, 21:40:47
*edit*
Hätten die Programmierer PS1.4 mehr eingesetzt gäbe es auch mehr Beispiele.
Das stimmt :D
ATIs Marketing war damals aber für die Kloake.

Black-Scorpion
2005-05-26, 21:58:18
Das stimmt :D
ATIs Marketing war damals aber für die Kloake.
War wohl eher Aufwand und nutzen.
PS1.4 waren aufwendiger zu programmieren und dazu waren im Verhältnis zu wenig 8500er Karten im Umlauf das sich der Aufwand gelohnt hätte.
Jetzt sieht das natürlich anders aus.

PS. So wie es aussieht fallen die GF4 Karten jetzt auch bei den ersten Spielen ganz raus.
Denn bei BF² sollen ja auch nur Karten ab PS1.4 unterstützt werden.
Selbst da läuft die 8500 noch.
Fragt sich nur wie. ;)

aths
2005-05-26, 22:32:08
Das stimmt :D
ATIs Marketing war damals aber für die Kloake.ATIs Marketing war, abgesehen von einigen Patzern, recht stimmig und bot noch teilweise echte Informationen.

aths
2005-05-26, 22:36:57
Ich sagte ja auch, und habe es etwas größer und roter wiederholt, daß ich von "wenig" Bandbreitenaufwand spreche. Übergroße rote Buchstaben verbleiben bei mir im Inputfilter und gelangen gar nicht erst durch.

Wenig ist, wenn ich die Texelfüllrate im Extremfalle (und eben diesen forderte ich ja auch: trilineare Filterung und ordentliches AF) auf ein Sechzehntel (faktisch wohl erher auf rund ein Viertel), im Verhältnis zu den natürlich, "wenig" gestiegenen Bandbreitenanforderungen, selbstverständlich relativ zu sehen.

Kurzum:
Nie habe ich bestritten, daß Texturfilterung Bandbreite benötigt. Wenn ihr, du und robbitop, meine Einschränkung ("wenig") nicht lesen wollt - bitte sehr.So wenig ist das eben nicht.

Im Prinzip sehe ich es wie du: Gerade angesichts der Bandbreiten-Limitierung kostet AF im Verhältnis besonders wenig. Also: Immer her mit dem AF, und zwar bitte echtes 16x AF und nicht das was ATI oder NV ab NV40 bietet. Dass es weiterhin etwas die fps-Rate drückt ist angesichts des Qualitätsgewinns verschmerzbar.

Gast
2005-05-26, 22:43:52
ATIs Marketing war, abgesehen von einigen Patzern, recht stimmig und bot noch teilweise echte Informationen.
Nicht wirklich. :|
Warum hat sich so ein nützliches Feature wie Trueform damals nicht durchgesetzt?

aths
2005-05-26, 23:25:19
Nicht wirklich. :|
Warum hat sich so ein nützliches Feature wie Trueform damals nicht durchgesetzt?Auch mit Marketing kann man propietäre Features nur schlecht verbreiten. Bei Pixelshader 1.4 war klar, dass die nächste NV-Generation das auch kann – aber genutzt wurde es leider nur selten, weil die Kompatibilität mit alter DX8- und oft sogar mit DX7-HW im Vordergrund stand.

TruForm (ohne e) ist gar nicht so nützlich, sondern in vielen Fällen untauglich. Damit es nützt, müssen die 3D-Modelle speziell für TruForm erstellt werden. Nur wenige Radeon-Modelle können das in Hardware beschleunigen. Generell wäre es sinnvoller, gleich mehr "normale" Vertex-Power zur Verfügung zu stellen, dann kann man höher aufgelöste 3D-Modelle generell nutzen. Skaliert man vom hochaufgelösten Arbeits-Modell auf das endgültige Modell herunter, ist es einfacher, dies für die normales Rendering ohne TruForm zu gestalten.

Gast
2005-05-26, 23:36:05
ATIs Marketing war, abgesehen von einigen Patzern, recht stimmig und bot noch teilweise echte Informationen.
Vielleicht aus deiner Sicht, aber Marketing sollte man nicht mit technischen Informationen verwechseln. Das Marketing von ATI war schlecht und das belegen die Verkaufszahlen.

Konsolenfreund

robbitop
2005-05-26, 23:39:04
Max Payne 2 war aber zur Zeiten von NV3x und R3xx. IMO unangemessen soetwas zu vergleichen.

aths
2005-05-26, 23:44:06
Vielleicht aus deiner Sicht, aber Marketing sollte man nicht mit technischen Informationen verwechseln. Das Marketing von ATI war schlecht und das belegen die Verkaufszahlen.

KonsolenfreundDas Marketing von ATI war nicht schlecht, das belegen die Verkaufszahlen. Sie haben mit der Radeon 8500 im Gegensatz zur Radeon eine breite Wirkung entfaltet, sind weithin bekannt geworden und haben viele Freunde gefunden – trotz Nvidias jahrelanger Dominanz.

Gast
2005-05-26, 23:49:14
Das Marketing von ATI war nicht schlecht, das belegen die Verkaufszahlen. Sie haben mit der Radeon 8500 im Gegensatz zur Radeon eine breite Wirkung entfaltet, sind weithin bekannt geworden und haben viele Freunde gefunden – trotz Nvidias jahrelanger Dominanz.
Ok, man muss das schon in Relation zum Vorherigen sehen. Da hast Du schon Recht.

Kf

mapel110
2005-05-26, 23:50:39
Ja, die R200 PS1.4-Truform-Diskussion hatten wir schon. Das Topic hier sollte da etwas halbwegs Neues bieten. Darauf sollten wir jetzt mal zurückkommen. Danke.

HajottV
2005-05-27, 03:28:09
TruForm (ohne e) ist gar nicht so nützlich, sondern in vielen Fällen untauglich.


Undifferenziert und so bestimmt nicht richtig. Der verzogene Revolver bei SeriousSam ist allerdings schon ein Beispiel dafür, daß es kontraproduktiv sein kann.


Damit es nützt, müssen die 3D-Modelle speziell für TruForm erstellt werden.


Das stimmt nun mal gar nicht. (Siehe Morrowind, siehe Quake 1)


Nur wenige Radeon-Modelle können das in Hardware beschleunigen. Generell wäre es sinnvoller, gleich mehr "normale" Vertex-Power zur Verfügung zu stellen, dann kann man höher aufgelöste 3D-Modelle generell nutzen. Skaliert man vom hochaufgelösten Arbeits-Modell auf das endgültige Modell herunter, ist es einfacher, dies für die normales Rendering ohne TruForm zu gestalten.

Das sind ja prima Tips zur Herstellung von Models, aber dadurch wird kein altes Spiel "runder".

Morrowind wird durch TruForm enorm aufgewertet... es ist ziemlich schade, daß ATi sich davon verabschiedet hat und das bei den neueren Karten rein in Software implementiert. Aber das hängt wohl mit der fehlenden Akzeptanz zusammen.

Gruß

Jörg

Gast
2005-05-27, 03:42:04
wieder föntime ?

http://www.hartware.net/media/news/38000/38017_1b.jpg

schaut euch mal an wie flach der ist und der lüfter schreit ganz einfach nach hoher lautstärke

Xmas
2005-05-27, 08:56:01
RGBE kann man doch jetzt schon nutzen. Theoretisch auch in Verbindnung mit DXT Kompression. Ich habe allerdings noch nicht ausprobiert wie gut da die Ergebnisse sind.
Glaube ich nicht. Die ALU Leistung ist jetzt schon groß genug um das ohne Probleme on-the-fly im Shader auszupacken.

Naja vielleicht macht man das auch so über den Treiber, dann kann man transparent die Texturen wechseln
RGBE kann man nicht als RGBA filtern. Im Shader zu entpacken ist zu spät, man müsste dann auch im Shader filtern, und das ist nun mal Verschwendung.
Zur WinHEC 2004 war RGBE jedenfalls für WGF2.0 vorgesehen.


Ein LOD Bias von 0 darf nicht flimmern, egal wie hochfrequent die Textur ist!
Das ist leider (oder zum Glück, je nachdem wie man es sieht) falsch. Eine hochfrequente Textur wird flimmern, auf jeder Karte die sich in etwa an die übliche LOD-Berechnung hält.


schaut euch mal an wie flach der ist und der lüfter schreit ganz einfach nach hoher lautstärke
Es gibt auch leise Radiallüfter. Ich glaube kaum dass du aus dem Bild erkennen kannst, wie schnell der Lüfter dreht.

eQ
2005-05-27, 09:19:44
Quelle: http://www.nvworld.ru/news/01_04_2005.html

Суммарно выходит, что G70 будет иметь 32 пиксельных и 12 вершинных конвейеров. К сожалению, шина памяти останется только 256-битной.

Laut Text(speku? :) ) hat der G70:

32 Pixel Shader Pipelines
12 Höhere ("Unified") Shader Pipelines
256Bit Speicherinterface

Совсем недавно Мы упоминали, что NVIDIA начала разработку новой серии драйверов для видеокарт ForceWare 9x.xx. Основным нововведением в этой серии является поддержка более чем двух GPU в конфигурации SLI.

Desweiteren steht da, das Nvidia an einer neuen ForceWare-Version (9x.xx) arbeitet,
welche in einer SLI-Konfiguration mehr als 2 Grafikkarten unterstützen wird.

Das Datum der Quelle spricht für sich. ^^

Winter[Raven]
2005-05-27, 09:27:44
Nu esli G70 imeit 32 Pipes, moshno nawerno etkriwat' butilku Schampnskogo ...

Ne Spaß bei seite, 32 Pipes wären jetzt aber ganz schön übertrieben, oder nicht?

Oder erleben wir wieder Marketin ala NV? Ähnlich war es ja beim Nv40, erst war es ein 6x2, dann 8x2, 12x1 ... am ende wurden es doch 16x1 bzw. 32x0....

Wenn 32 ...... :D

//EDIT:

http://nvworld.ru/news/2005/04/G70_.jpg

Ich dachte April der 1ste wäre schon vorbei...

Demirug
2005-05-27, 09:53:15
RGBE kann man nicht als RGBA filtern. Im Shader zu entpacken ist zu spät, man müsste dann auch im Shader filtern, und das ist nun mal Verschwendung.
Zur WinHEC 2004 war RGBE jedenfalls für WGF2.0 vorgesehen.

Ein eigenes Textureformat würde natürlich schon Sinn machen.

2004 ist allerdings nicht mehr massgeblich.

Adam D.
2005-05-27, 11:08:53
Ich eh davon aus, dass die Karte leiser wird als eine 6800 Ultra. Nvidia hat ja extra ein 10-Mann-Team auf die Beine gestellt, die sich um das Kühl-Design kümmern. Außerdem ging ja das Gerücht um, dass die Verlustleistung reduziert wurde. Außerdem fehlt ein zweiter Stromanschluss, obwohl das nicht allzu viel zu bedeuten hat. Auf jeden Fall würde diese Karte nicht mehr in mein Gehäuse passen - mit meiner 6800GT ist es schon verdammt knapp.

Gast
2005-05-27, 11:11:28
pci-express-karten haben doch auch jetzt nur einenn zusatzstromanschluss.

Mark
2005-05-27, 11:21:52
stimmt, man darf eben nicht vergessen das sie über das mainboard auch noch ne menge strom ziehen können

robbitop
2005-05-27, 11:25:55
Ich eh davon aus, dass die Karte leiser wird als eine 6800 Ultra. Nvidia hat ja extra ein 10-Mann-Team auf die Beine gestellt, die sich um das Kühl-Design kümmern. Außerdem ging ja das Gerücht um, dass die Verlustleistung reduziert wurde. Außerdem fehlt ein zweiter Stromanschluss, obwohl das nicht allzu viel zu bedeuten hat. Auf jeden Fall würde diese Karte nicht mehr in mein Gehäuse passen - mit meiner 6800GT ist es schon verdammt knapp.

Der Stromanschluss hat nicht viel zu sagen. 75W kann aus dem PCI-E gezogen werden und nochmal 75W aus dem Anschluss. Die 6800U hatte laut XBit's Messungen leicht unter 75W Leistungsaufnahme. Hat also gar nichts zu heißen. Ich würde spontan sagen, das Ding nimmt mindestens die gleiche Leistung auf wie eine 6800U.
Das Kühlerdesign sieht IMO nicht besser aus als die letzten. Die waren zwar ok, aber den Lösungen von Zalman immer deutlich unterlegen.
Ich wüßte auch nicht, was eine 1-Slot kühlung bringt, da man den 1. PCI Slot eh nicht belegen kann, ohne die Luftzufuhr zur Kühlung zu blockieren. Quasar hat das damals mal mit einer R3xx gemacht und das Ding stürzte ab.

Gast
2005-05-27, 11:28:33
Weil einige motzen die Karte sei so gross, verweise mal auf Elsa Gloria XXL(Bj.:1996/Permedia II-Chip/AGP) :
http://www.linux-magazin.de/Artikel/ausgabe/2000/03/Graphikkarten/Gloria_XXL.gif :D
und die gute,alte Geforce4 Ti4600 war sicher auch nicht kleiner :
http://images.google.at/images?hl=de&lr=&rls=GGLD%2CGGLD%3A2005-11%2CGGLD%3Aen&q=ti4600

Ich würde mal eher sagen das so einige Leute "verwöhnt" sind von den zugegeben kleineren Layoutgrössen etwa einer X800XT : http://images.google.de/images?q=x800xt&hl=de

...

robbitop
2005-05-27, 11:33:33
Große Karten bringen eben Probleme mit sich. Der Luftstrom wird problematischer und auch der ganze Kabelsalat. ATI zeigt, dass es auch anders geht, trotz hohen Taktraten. Ich hoffe nicht auf Kosten der Haltbarkeit (siehe 9700 und 9800er Sterben).
R520 scheint ja nun auch größer zu werden.

Gast
2005-05-27, 11:39:48
Große Karten bringen eben Probleme mit sich. Der Luftstrom wird problematischer und auch der ganze Kabelsalat.
Soviel macht es dem Luftstrom nicht denke ich, ich kenne Testberichte aus der PCGH wo bewiesen wurde das Kabelsalate die Gehäuseinnentemperaturen um vielleicht 1-2 Grad beinträchtigen können.Wer seinen PC liebt nimmt onehin Kabelbinder :)
Problem sind vielmehr möglicherweise Kondensatoren direkt hinter dem PCIe-Slot der Karte wo die Karte dann hinten aufsitzt und so nicht ganz rein geht.
Da heisst es eben Lötkolben->störendenen Kondensator auslöten->deren Anschlussbeine verlängern oder baugleichen Typ kaufen->wieder einlöten->zur Seite biegen.Heisst halt leider Garantieverlust...

SKYNET
2005-05-27, 11:48:23
Große Karten bringen eben Probleme mit sich. Der Luftstrom wird problematischer und auch der ganze Kabelsalat. ATI zeigt, dass es auch anders geht, trotz hohen Taktraten. Ich hoffe nicht auf Kosten der Haltbarkeit (siehe 9700 und 9800er Sterben).
R520 scheint ja nun auch größer zu werden.


welche problerme mit der luftzirkulation? also wenn man ein GUTES case hat ist das alles kein problem, genausowenig mit dem platz, ich kann beimir vom ersten(PCIe) bis zum letzten(PCI) slot karten einbauen die über 400mm lang sind.
auch hier heißt die devise: wer am falschen ende spart hat das nachsehn.
und das die r300 serie am massensterben ist.... mal jemand auf das haltbarkeitsdatum auf der verpackung geguckt? ;)
scherz aber ist wohl klar, das wenn an kondensatoren und anderen gespart wird, die karte recht schnell ins nirvana geht.
ATI spart halt wo geht, transistoren, bauteile....
NV war bei sowas halt schon immer großzügiger, lieber zuviel als zuwenig.

Winter[Raven]
2005-05-27, 11:51:06
NV war bei sowas halt schon immer großzügiger, lieber zuviel als zuwenig

FULLACK!

Gast
2005-05-27, 11:56:56
']FULLACK!

und kommt trotzdem nix bei raus mit dem großzugig sein,nv ist seit dem r300 hintendran

Gast
2005-05-27, 11:57:56
welche problerme mit der luftzirkulation? also wenn man ein GUTES case hat ist das alles kein problem, genausowenig mit dem platz, ich kann beimir vom ersten(PCIe) bis zum letzten(PCI) slot karten einbauen die über 400mm lang sind.
auch hier heißt die devise: wer am falschen ende spart hat das nachsehn.
und das die r300 serie am massensterben ist.... mal jemand auf das haltbarkeitsdatum auf der verpackung geguckt? ;)
scherz aber ist wohl klar, das wenn an kondensatoren und anderen gespart wird, die karte recht schnell ins nirvana geht.
ATI spart halt wo geht, transistoren, bauteile....
NV war bei sowas halt schon immer großzügiger, lieber zuviel als zuwenig.
']FULLACK!
Habt ihr jetzt wirklich technisches Fachwissen und könnt beurteilen wie gut die PCBs aufgebaut sind oder guckt ihr euch die Dinger einfach nur an und findet, dass mehr besser ist, um dann *snip* von euch zu lassen?

Konsolenfreund

bissl freundlicher bitte

SKYNET
2005-05-27, 12:02:51
und kommt trotzdem nix bei raus mit dem großzugig sein,nv ist seit dem r300 hintendran


möööp falsch, seit der aktuellen generation ist es ziemlich(-genau) ausgewogen.
erst seit ATI vor kurzem die kaum(?) lieferbaren X850XTPE ins rennen geschick that, konnten die kanadier das blatt wieder leicht zu ihren gunsten wenden... :rolleyes:
dafür stellen sie nichtnur leistungmäßig neue rekorde auf auch in allen anderen... auf dem teil kannste eier braten und dem stromzähler kannste zugucken wie er die warp-mauer durchbricht... X-D

Winter[Raven]
2005-05-27, 12:03:26
braucht man nicht drauf eingehen *snip*

SKYNET
2005-05-27, 12:06:26
Habt ihr jetzt wirklich technisches Fachwissen und könnt beurteilen wie gut die PCBs aufgebaut sind oder guckt ihr euch die Dinger einfach nur an und findet, dass mehr besser ist, um dann ******* von euch zu lassen?

Konsolenfreund


lezteres... oder warum fackeln ATI karten zwangläufig ab wenn man ihnen mehr saft gibt? und nein, nicht die chips sterben, sondern die bauteile.
bei NV kann man schön rumlöten und den hahn aufdrehn, +0.37V(1.77V) gehn ohne weiteres(PCIe), mehr geht leider nicht... wegen was weiß ich auch immer.
bei ATI gibste mal 0.2V mehr und schon facken die teile ab. :|


wie gesagt, liegt nicht an den chips, nur an den bauteilen, die bei ATI zuwenig und/oder unterdimensioniert sind. ;(

[edit] habs mal selber wecheditiert was der pöse gast da getippelt hat. ;)

DjDino
2005-05-27, 12:07:06
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11637
Quelle : www.nvnews.net

reunion
2005-05-27, 12:11:37
Ich hoffe nicht auf Kosten der Haltbarkeit (siehe 9700 und 9800er Sterben).


Was nicht mehr als ein Gerücht ist.
Meine 9700pro läuft in meinem zweiten PC jedenfalls immernoch absolut problemlos, und die Platine ist dabei nicht größer als die einer Geforce3.

SKYNET
2005-05-27, 12:12:30
Was nicht mehr als ein Gerücht ist.
Meine 9700pro läuft in meinem zweiten PC jedenfalls immernoch absolut problemlos, und die Platine ist dabei nicht größer als die einer Geforce3.


24/7 betrieb? :|

reunion
2005-05-27, 12:15:44
möööp falsch, seit der aktuellen generation ist es ziemlich(-genau) ausgewogen.
erst seit ATI vor kurzem die kaum(?) lieferbaren X850XTPE ins rennen geschick that, konnten die kanadier das blatt wieder leicht zu ihren gunsten wenden... :rolleyes:


Erstens reicht selbst eine "normale" X800XT aus, und zweitens ist die X850XT PE fast überall palletenweise auf Lager.


dafür stellen sie nichtnur leistungmäßig neue rekorde auf auch in allen anderen... auf dem teil kannste eier braten und dem stromzähler kannste zugucken wie er die warp-mauer durchbricht... X-D

'Ne X850XT PE verbraucht weniger Strom als eine 6800U, troz deutlich höherem Takt.

reunion
2005-05-27, 12:18:01
lezteres... oder warum fackeln ATI karten zwangläufig ab wenn man ihnen mehr saft gibt? und nein, nicht die chips sterben, sondern die bauteile.
bei NV kann man schön rumlöten und den hahn aufdrehn, +0.37V(1.77V) gehn ohne weiteres(PCIe), mehr geht leider nicht... wegen was weiß ich auch immer.
bei ATI gibste mal 0.2V mehr und schon facken die teile ab. :|


wie gesagt, liegt nicht an den chips, nur an den bauteilen, die bei ATI zuwenig und/oder unterdimensioniert sind. ;(



Wer seine Karte außerhalb der vom Hersteller festgelegten Spezifikationen betreibt, braucht sich nicht wundern wenn ein Bauteil versagt.

Desweiteren zweifle ich an, dass du das wirklich mal ausprobiert hast.

reunion
2005-05-27, 12:19:11
24/7 betrieb? :|


Nein, wozu auch?
Man muss ja auch mal schlafen oder anderweitiges bewerkstelligen.

SKYNET
2005-05-27, 12:26:11
Erstens reicht selbst eine "normale" X800XT aus, und zweitens ist die X850XT PE fast überall palletenweise auf Lager.

Ne' X850XT PE verbraucht weniger Strom als eine 6800U, troz deutlich höherem Takt.


1. nö, ne normale x800xt ist nen tick langsamer als ne 6800U, ne x800xtpe dafür nen tick schneller, erst die 850xtpe kann sich schon recht "deutlich" absetzen.
2. deswegen mein fragezeichen.
3. :|

SKYNET
2005-05-27, 12:33:01
Wer seine Karte außerhalb der vom Hersteller festgelegten Spezifikationen betreibt, braucht sich nicht wundern wenn ein Bauteil versagt.

Desweiteren zweifle ich an, dass du das wirklich mal ausprobiert hast.


das ist mir schon klar... dennoch zeugt das nicht von qualität wenn auf der einen karte bauteile versagen bei minimaler spannungssteigerung, und die andere karte munter weiter werkelt obwohl da gut mehr saft druff ist.

p.s. mein letztes richtiges grafik-"opfer" war ne Ti4200(turbo ~ Ti4600 layout) @ 2.5V-core/3.8V-dimm... die hat durch den imensen stromhunger sogar nen paar(5-6) NF7 in den tot gerissen. ;D


Nein, wozu auch?
Man muss ja auch mal schlafen oder anderweitiges bewerkstelligen.


ich schlafe auch(auch wenns manchmal nicht den anschein hat;D)
und dennoch lüppt die kiste 24/7.

Thowe
2005-05-27, 12:41:16
lezteres... oder warum fackeln ATI karten zwangläufig ab wenn man ihnen mehr saft gibt? und nein, nicht die chips sterben, sondern die bauteile.
bei NV kann man schön rumlöten und den hahn aufdrehn, +0.37V(1.77V) gehn ohne weiteres(PCIe), mehr geht leider nicht... wegen was weiß ich auch immer.
bei ATI gibste mal 0.2V mehr und schon facken die teile ab. :|


wie gesagt, liegt nicht an den chips, nur an den bauteilen, die bei ATI zuwenig und/oder unterdimensioniert sind. ;(

[edit] habs mal selber wecheditiert was der pöse gast da getippelt hat. ;)

Dazu gibt es nur eines zu sagen: Gut so ATI! Kann ja nicht sein, das jeder Hans und Franz daherläuft und den Grafikchip durch Elektromigration töten will. Besser die Passivelektronik raucht da vorher ab. Mal eben die Spannung um 20% erhöhen grenzt schon an Mordabsicht.

Mir persönlich würde da eher NV zu denken geben als ATI, wenn man ein Design derart überspezifiziert spricht das meist eher von Misstrauen in den eigenen Produkten, was deren "Leistungsaufnahme" angeht.

Gast
2005-05-27, 12:42:48
http://www.pcom.cn/f/2005/5/27/1117151071.html

SKYNET
2005-05-27, 12:44:46
Dazu gibt es nur eines zu sagen: Gut so ATI! Kann ja nicht sein, das jeder Hans und Franz daherläuft und den Grafikchip durch Elektromigration töten will. Besser die Passivelektronik raucht da vorher ab. Mal eben die Spannung um 20% erhöhen grenzt schon an Mordabsicht.

Mir persönlich würde da eher NV zu denken geben als ATI, wenn man ein Design derart überspezifiziert spricht das meist eher von Misstrauen in den eigenen Produkten, was deren "Leistungsaufnahme" angeht.


nö, ist bei autos ja nicht anders, sogut wie jede karre heutzutage kann locker 20-60PS nur durchs chiptuning rausholen, der motor nimmt dabei aber keinen schaden.
ist halt auch die devise "lieber ein paar reserven, als am limit"
selbiges ist wohl auch bei NV der fall, klotzen, nicht kleckern. ;)

Gast
2005-05-27, 12:50:35
lezteres... oder warum fackeln ATI karten zwangläufig ab wenn man ihnen mehr saft gibt? und nein, nicht die chips sterben, sondern die bauteile.
bei NV kann man schön rumlöten und den hahn aufdrehn, +0.37V(1.77V) gehn ohne weiteres(PCIe), mehr geht leider nicht... wegen was weiß ich auch immer.
bei ATI gibste mal 0.2V mehr und schon facken die teile ab. :|


wie gesagt, liegt nicht an den chips, nur an den bauteilen, die bei ATI zuwenig und/oder unterdimensioniert sind. ;(

[edit] habs mal selber wecheditiert was der pöse gast da getippelt hat. ;)
Das sind doch Verallgemeinerungen. Um sowas beurteilen zu können, bräuchte man RMA Daten Hersteller. Nur weil einige Leute in Foren davon berichten, kann man keine Zahlen ableiten. Ist doch klar, dass man von defekten Karten berichtet in einem Supportforum, nur sagt das halt nix aus in Realtion zu der hohen Anzahal verkaufter R300 Karten. Meine 9700 non-pro läuft immer noch beinahe auf 9800Pro Takt mit Voltmod und das seit sehr langer Zeit und die 9700Pro eines Freundes auch. Von einem generellen Problem kann man daher wohl nicht sprechen und sowas von der Optik des PCBs abzuleiten ist auch Unsinn. Das Zählen der Bauteile sagt wenig aus, solange man nicht Elektrotechniker ist und das ganze wirklich bewerten kann anhand des Bauplans.

Und meine 6800GT und meine X800XT werden beide ebenfalls richtig befeuert. Da könnte man jetzt auch sagen, nVidia hat gespart, weil die Stromwandler gekühlt werden müssen, was natürlich offensichtlich unsachlicher Unsinn wäre.

Konsolenfreund

ShadowXX
2005-05-27, 12:53:58
'Ne X850XT PE verbraucht weniger Strom als eine 6800U, troz deutlich höherem Takt.

Beide Karten liegen im Verbrauch so hoch, das es sich nicht wirklich lohn um ein paar Watt mehr oder weniger zu streiten.

Es ist ja nicht so, das die ATI gleich 30Watt weniger frisst...(wobei ich mir bei der x850xtpe gar nicht so sicher wäre, dass diese wirklich weniger aufnimmt als eine 6800Ultra...denn schon bei x800xtpe vs. 6800Ultra war es extrem "knapp")

r3ptil3
2005-05-27, 12:54:20
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11637
Quelle : www.nvnews.net

Das Bild mit dem Fettsack ist ja sowas von dumm, besser die nehmen wieder das gleiche.

Gast
2005-05-27, 12:55:09
nö, ist bei autos ja nicht anders, sogut wie jede karre heutzutage kann locker 20-60PS nur durchs chiptuning rausholen, der motor nimmt dabei aber keinen schaden.
ist halt auch die devise "lieber ein paar reserven, als am limit"
selbiges ist wohl auch bei NV der fall, klotzen, nicht kleckern. ;)
Man, es wird wirklich lächerlich. nvida klotzt sicher nicht. nvidia ist ein Unternehemen mit Gewinnabsicht. Die werden sich hüten Geld zum Fenster rauszuwerfen. Ebenso wie ATI.

Meinste Du nicht auch, dass deine Postings etwas unsachlich sind?

Konsolenfreund

Thowe
2005-05-27, 13:01:32
nö, ist bei autos ja nicht anders, sogut wie jede karre heutzutage kann locker 20-60PS nur durchs chiptuning rausholen, der motor nimmt dabei aber keinen schaden.
ist halt auch die devise "lieber ein paar reserven, als am limit"
selbiges ist wohl auch bei NV der fall, klotzen, nicht kleckern. ;)


Vielleicht solltest du dich einfach mal etwas mit der Thematik des Chipdesign befassen, bevor du eine Nadel mit einem Hammer in die Wand schlägst. Man kann nun einmal kein Auto mit einem Chip vergleichen, schon gar nicht wenn es um derart kleine Strukturen geht, die bei den heutigen Herstellungsprozessen verwendet werden. Da bedeuten eben 20% mehr Spannung 90% weniger Lebenserwartung und das unabhängig davon, wie gut die Kühlung ist, die dabei auch einen gewissen Einfluss ausübt. Eigentlich dachte ich immer, das durch das Sudden Death Syndrom der P4s sich mitlerweile rumgesprochen hat, das es unumstößliche physikalische Eigenschaften beim Chipdesign gibt.

Die ganzen 6600GT Karten von NV sind sicher nicht abgeraucht weil die passive Seite unterdimensioniert war, vermutlich eher weil es zu Kurzschlüssen im Chip gekommen ist. Was nicht nur von fehlerhaften Revisionen/Design sprechen kann, sondern eben auch davon, das sie längt am Limit gefahren werden. Da braucht es niemanden der ihnen den Schubs über die Klippe beschert.

Wenn schon der Hersteller in der Qualität seiner Produktion irrt, dann braucht es sicher keine DAUs die da noch einen drauflegen. Wer das nicht erkennen kann, der hat in dieser Beziehung schlicht den Blick für die Realität verloren.

Wer meint das er außerhalb dieser Betrachtung auch noch auf Overvoltage-Eigenschaften eigehen muss, der will entweder nur sinnlos provozieren um sich daran zu erfreuen das sich andere darüber ärgern oder ist die Alternative, die man nicht mal nennen braucht um es zu wissen.

Gast
2005-05-27, 13:05:51
möööp falsch, seit der aktuellen generation ist es ziemlich(-genau) ausgewogen.
erst seit ATI vor kurzem die kaum(?) lieferbaren X850XTPE ins rennen geschick that, konnten die kanadier das blatt wieder leicht zu ihren gunsten wenden... :rolleyes:
dafür stellen sie nichtnur leistungmäßig neue rekorde auf auch in allen anderen... auf dem teil kannste eier braten und dem stromzähler kannste zugucken wie er die warp-mauer durchbricht... X-D
Schwachsinn, die X850 XT PE verbraucht weniger als die 6800 GT Ulra und ist schneller! Immer diese Fanboys von NVIDIA!

Thowe
2005-05-27, 13:05:51
Das sind doch Verallgemeinerungen. Um sowas beurteilen zu können, bräuchte man RMA Daten Hersteller. Nur weil einige Leute in Foren davon berichten, kann man keine Zahlen ableiten. Ist doch klar, dass man von defekten Karten berichtet in einem Supportforum, nur sagt das halt nix aus in Realtion zu der hohen Anzahal verkaufter R300 Karten. Meine 9700 non-pro läuft immer noch beinahe auf 9800Pro Takt mit Voltmod und das seit sehr langer Zeit und die 9700Pro eines Freundes auch. Von einem generellen Problem kann man daher wohl nicht sprechen und sowas von der Optik des PCBs abzuleiten ist auch Unsinn. Das Zählen der Bauteile sagt wenig aus, solange man nicht Elektrotechniker ist und das ganze wirklich bewerten kann anhand des Bauplans.

Und meine 6800GT und meine X800XT werden beide ebenfalls richtig befeuert. Da könnte man jetzt auch sagen, nVidia hat gespart, weil die Stromwandler gekühlt werden müssen, was natürlich offensichtlich unsachlicher Unsinn wäre.

Konsolenfreund


Beruflich bedingt habe ich da mit etwas Geschick einige Daten rausbekommen, werde sie aber nicht nennen. Sagen wir es mal so, es hat einen Grund das ich nach den beiden abgerauchten NVs, die nie übertaktet waren, wieder eine ATI im Rechner habe. Die nächste NV-Karte die ich bekomme, wird die Playstation 3 sein - sofern es Spiele wie FF12 oder was auch immer als Grund geben mag. Ansonsten wird es die Xbox 360, die mich nicht nur auf Grund der Technik fasziniert. Auch einiges an Ideen dahinter klingt gut und mir ist MS als Konzern eh sympathischer als Sony.

DrumDub
2005-05-27, 13:12:37
Schwachsinn, die X850 XT PE verbraucht weniger als die 6800 GT Ulra und ist schneller! weniger als ne ultra stimmt, aber schon mehr als ne 6800 gt: http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html

ShadowXX
2005-05-27, 13:12:41
Schwachsinn, die X850 XT PE verbraucht weniger als die 6800 GT Ulra und ist schneller! Immer diese Fanboys von NVIDIA!

Wieviel.....5 Watt??

Nein ernsthaft....gib mir mal einen Link (einer halbwegs seriösen Seite) wo die x850xtpe wirklich deutlich weniger als eine 6800Ultra verbraucht....

DrumDub
2005-05-27, 13:14:14
Wieviel.....5 Watt??

Nein ernsthaft....gib mir mal einen Link (einer halbwegs seriösen Seite) wo die x850xtpe wirklich deutlich weniger als eine 6800Ultra verbraucht.... siehe link oben. sind ca. 9 watt. (x800xt@525/1150 vs. 6800u@400/1100)

Quasar
2005-05-27, 13:16:53
weniger als ne ultra stimmt, aber schon mehr als ne 6800 gt: http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html
Hm, dann bleibt noch die Frage, wie sich der 0,11µ-Prozess ohne Low-K (was ja offenbar zur Reduzierung der Leistungsaufnahme recht hilfreich ist) und der höhere Takt einer X850 XT PE gegenüber einer X800 XT PE auswirken.

Dürfte IMO zumindest recht nahe an die 6800u herankommen.

Thowe
2005-05-27, 13:18:26
Wieviel.....5 Watt??

Nein ernsthaft....gib mir mal einen Link (einer halbwegs seriösen Seite) wo die x850xtpe wirklich deutlich weniger als eine 6800Ultra verbraucht....


Die HighEnd-Karten zeigen durch ihren Verbrauch eigentlich deutlich auf, das sie eigentlich aus qualitativen Gründen keinen Markt haben sollten. Niemand würde sich ein Auto kaufen das 300 Km/h fährt, wenn droht, das es bei dem Tempo schlicht weg auseinanderfällt und genau diese Situation gibt es im Moment im Grafikkarten-Markt. Die doch recht unterschiedlichen Verbrauchswerte bei eigentlich identischen Chips und relativ geringen Taktunterschieden sollten da einen zu denken geben.

Alle HighEnd-Karten die "übertaktet" auf den Markt kommen stehen in keiner Verbrauchs/Leistung-Relation. Da ist es unsinnig über die paar Watt Unterschied zu diskutieren, somal da diverse andere Faktoren auch noch einen Einfluss üben.

DrumDub
2005-05-27, 13:22:22
Hm, dann bleibt noch die Frage, wie sich der 0,11µ-Prozess ohne Low-K (was ja offenbar zur Reduzierung der Leistungsaufnahme recht hilfreich ist) und der höhere Takt einer X850 XT PE gegenüber einer X800 XT PE auswirken.

Dürfte IMO zumindest recht nahe an die 6800u herankommen. wie meinst du das? die x850 xt pe ist doch auch in 130nm low-k gefertigt.

interessnt ist ja auch, dass die 6800gt auf ultra niveau übertaktet wesentlich weniger verbraucht als die ultra. dürfte wohl daran liegen, dass die ultra mit ner höheren spannug als die gt die gpu befeuert.

Winter[Raven]
2005-05-27, 13:24:54
wie meinst du das? die x850 xt pe ist doch auch in 130nm low-k gefertigt.

interessnt ist ja auch, dass die 6800gt auf ultra niveau übertaktet wesentlich weniger verbraucht als die ultra. dürfte wohl daran liegen, dass die ultra mit ner höheren spannug als die gt die gpu befeuert.

Quasar meinte ehe wie es aussehn würde wenn ATI ohne Low-K bzw. NV mit Low-K produzieren würden....

Den Nvidia muss man shcon zugute halten bei 222Millionen Transis, und ohne Low-K "nur" 9 Watt mehr zu verbrauchen...

Quasar
2005-05-27, 13:30:43
wie meinst du das? die x850 xt pe ist doch auch in 130nm low-k gefertigt.
Oh - komisch. Das hatte ich irgendwie anders in Erinnerung. Sorry, mein Fehler.

Der Punkt mit den Spannungen verleiht dem Unterschied zwischen X800 XT PE und X850 XT PE (irgendwie etwas mächtigerer Kühler) allerdings weiterhin Spannung. :)

reunion
2005-05-27, 13:32:53
siehe link oben. sind ca. 9 watt. (x800xt@525/1150 vs. 6800u@400/1100)


Jap, stand auch in der PCGH, dass die X850XT PE ca. 9Watt weniger verbraucht als eine 6800U.

reunion
2005-05-27, 13:35:10
']Quasar meinte ehe wie es aussehn würde wenn ATI ohne Low-K bzw. NV mit Low-K produzieren würden....

Den Nvidia muss man shcon zugute halten bei 222Millionen Transis, und ohne Low-K "nur" 9 Watt mehr zu verbrauchen...


Wenn man damit anfängt, kommt man nie auf einen grünen Zweig, dann könnte ich auch behaupten, dass der R480 nur aufgrund der deutlich höheren Taktfrequenz soviel Strom schluckt.

Winter[Raven]
2005-05-27, 13:39:16
Wenn man damit anfängt, kommt man nie auf einen grünen Zweig, dann könnte ich auch behaupten, dass der R480 nur aufgrund der deutlich höheren Taktfrequenz soviel Strom schluckt.

Ok, damit wir wieder auf den "grünen" Zweig kommen, wer schon 500€ für eine High-End Karte ausgibt, der macht sich keine Sorgen um die Stromrechnung...

ShadowXX
2005-05-27, 13:39:39
Jap, stand auch in der PCGH, dass die X850XT PE ca. 9Watt weniger verbraucht als eine 6800U.

x800xtpe nicht x850xtpe.....die x850xtpe wird sich mehr verbrauchen (zumindest etwas) als die x800xtpe.

@Thowe
das gleiche hatte ich im prinzip schon 5 postings vorher gesagt.

robbitop
2005-05-27, 13:41:05
welche problerme mit der luftzirkulation? also wenn man ein GUTES case hat ist das alles kein problem, genausowenig mit dem platz, ich kann beimir vom ersten(PCIe) bis zum letzten(PCI) slot karten einbauen die über 400mm lang sind.
auch hier heißt die devise: wer am falschen ende spart hat das nachsehn.
und das die r300 serie am massensterben ist.... mal jemand auf das haltbarkeitsdatum auf der verpackung geguckt? ;)
scherz aber ist wohl klar, das wenn an kondensatoren und anderen gespart wird, die karte recht schnell ins nirvana geht.
ATI spart halt wo geht, transistoren, bauteile....
NV war bei sowas halt schon immer großzügiger, lieber zuviel als zuwenig.
Ich besitze ein CS601 und finde, dass dies schon ein recht gutes Case ist. Besser jedenfalls als die ganzen OEM Gehäuse. Und da ich viele Laufwerke habe sind entsprechend viele Kabel im Gehäuse dazu noch eine lange Karte und zack wirds eng. Sicher es geht aber die Luftzirkulation wird merklich schlechter.
Ich gebe dir hinsichtlich der Haltbarkeit Recht. Lieber eine lange Karte als, dass sie kaputt geht. Aber ob dieser Zusammenhang wirklich so stimmt, weiß ich leider auch nicht mit absoluter Gewißheit. Es ist nur eine Vermutung.

Gast
2005-05-27, 13:43:57
weniger als ne ultra stimmt, aber schon mehr als ne 6800 gt: http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html

Gegen eine 6800GT sehe ich aber keine X850XTPE, da reicht schon eine X800XL, ist schneller und die X800XL kann sogar passiv gekühlt werden!

Probier das mal mit 6800GT!

mapel110
2005-05-27, 13:52:30
222 Mio Transistoren zu 165 Mio transistoren. So what (Da ist mehr Verbrauch nur logisch)?! Wer keine Verwendung für die zusätzlichen 60 Mio Transistoren(aka SM3) hat, soll halt mit einer ATI zufrieden sein und gut.

Dann soll derjenige auch nicht meckern, wenn er auf einer 1 Jahr alten, damals 400 € Karte nicht alle Effekte zu sehen bekommt.

robbitop
2005-05-27, 13:58:10
@Thowe

die Ursache für die abrauchenden 6600GT waren die Spannungswandler. Es gab kein neues Tapeout, lediglich eine andere Platine mit besser dimensionierter Spannungswandlung.

Gast
2005-05-27, 13:59:47
222 Mio Transistoren zu 165 Mio transistoren. So what (Da ist mehr Verbrauch nur logisch)?! Wer keine Verwendung für die zusätzlichen 60 Mio Transistoren(aka SM3) hat, soll halt mit einer ATI zufrieden sein und gut.

Dann soll derjenige auch nicht meckern, wenn er auf einer 1 Jahr alten, damals 400 € Karte nicht alle Effekte zu sehen bekommt.
Jetzt geht das wieder los. ;( Manchen Leute sind halt hohe Auflösungen und flimmerfreie Filterung wichtiger, als auf irgendwelche Spiele zu warten, die mal SM3.0 Effekte zeigen, die wirklich nicht auf SM2.0 möglich sind.

Man könnte genauso kontern, dass sich die Leute wundern werden mit ihre SM3.0 karten, wenn diese nicht ausreichend performant ist für höchste Details und hohe Auflösungen, wenn vollwertige SM3.0 Spiele auf UE3 Basis kommen.

Konsolenfreund

Thowe
2005-05-27, 14:00:56
Gegen eine 6800GT sehe ich aber keine X850XTPE, da reicht schon eine X800XL, ist schneller und die X800XL kann sogar passiv gekühlt werden!

Probier das mal mit 6800GT!


Die passive Gigabyte hatte ich gestern mal gemessen, wohlgemerkt erstmal nur IDLE, da kommt die Karte bei 25 Grad Raumtemp in einen schlecht belüfteten Gehäuse auf 45 Grad. Was das Lastverhalten angeht, das werde ich die Tage noch mal erforschen.

Quasar
2005-05-27, 14:04:09
Klingt interessant, Thowe. Was meinst du mit "vermessen"? Temperaturfühler an den Kühlkörper gehalten oder GPU-Kerntemperatur ausgelesen?

Thowe
2005-05-27, 14:06:16
@Thowe

die Ursache für die abrauchenden 6600GT waren die Spannungswandler. Es gab kein neues Tapeout, lediglich eine andere Platine mit besser dimensionierter Spannungswandlung.


Erhlichgesagt halte ich das für eine Ausrede, die waren prinzipiell ausreichend dimensioniert und können somit einfach nicht der alleinige Grund gewesen sein. Ausschliessen will ich nicht, das sie mitschuldig sind. Aber wie schlecht will NV sein, das sie beim Platinenlayout/Design derart drittklassig arbeiten? Das wäre ja deutlich peinlicher als ein fehlerhaften Chip zu produzieren und mit den Mitteln die denen zur Verfügung stehen (die werden aktuelle Software einsetzen, die die Dinger quasi automatisch berechnen) halte ich das nicht gerade für eine ernsthafte Aussage.

mapel110
2005-05-27, 14:07:24
Jetzt geht das wieder los. ;( Manchen Leute sind halt hohe Auflösungen und flimmerfreie Filterung wichtiger, als auf irgendwelche Spiele zu warten, die mal SM3.0 Effekte zeigen, die wirklich nicht auf SM2.0 möglich sind.

Man könnte genauso kontern, dass sich die Leute wundern werden mit ihre SM3.0 karten, wenn diese nicht ausreichend performant ist für höchste Details und hohe Auflösungen, wenn vollwertige SM3.0 Spiele auf UE3 Basis kommen.

Konsolenfreund
Es gibt schon einige Effekte in Spielen, die man nur mit einer nvidia NV4x-GPU sieht. Ob du da noch differenzieren willst, ob der Effekt auch mit SM2 möglich wäre oder nicht, spielt da keine Rolle. Er wird auf einer 400 € ATI-Karte NICHT dargestellt und damit hat sichs.
Bis SM3 "richtig" genutzt wird, wird kein ambitionierter Zocker mehr eine NV4x im Rechner haben. Aber bis dahin gibts eben hier und da EINIGE Effekte. Das war bei R300/NV3x-Zeiten nicht anders, dennoch wurde der SM2-Speed der Radeon gelobt und fand (siehe Umfrage) viele Käufer.
Genauso siehts bei NV4x derzeit aus, nur mit dem Unterschied, dass nvidia das Monopol 1 Jahr lang auf SM3 hatte.

robbitop
2005-05-27, 14:10:08
Erhlichgesagt halte ich das für eine Ausrede, die waren prinzipiell ausreichend dimensioniert und können somit einfach nicht der alleinige Grund gewesen sein. Ausschliessen will ich nicht, das sie mitschuldig sind. Aber wie schlecht will NV sein, das sie beim Platinenlayout/Design derart drittklassig arbeiten? Das wäre ja deutlich peinlicher als ein fehlerhaften Chip zu produzieren und mit den Mitteln die denen zur Verfügung stehen (die werden aktuelle Software einsetzen, die die Dinger quasi automatisch berechnen) halte ich das nicht gerade für eine ernsthafte Aussage.

Hätte es ein neues TapeOut gegeben, hätte das viel länger gedauert und mit hoher Wahrscheinlichkeit wüßte man das dann. Ganz so empfindlich wie du es beschreibst sind auch heutige ASICs nicht.
Man sah eindeutig die Unterschiede in der Spannungswandlung. Für das PCB sind im Übrigen die Hersteller verantwortlich. Das Referenz PCB war allerdings schlecht, da hast du Recht. Wenn die Hersteller das nicht überprüfen, sind sie Schuld.

Thowe
2005-05-27, 14:12:29
Klingt interessant, Thowe. Was meinst du mit "vermessen"? Temperaturfühler an den Kühlkörper gehalten oder GPU-Kerntemperatur ausgelesen?


Kühlkörper, ist bei passiv wichtiger, die Kerntemp darf ja relativ hoch sein. Der passive Körper strahlt aber auf die Passivelektronik ab und bei 90 Grad möchte ich nicht die Hand ins Feuer legen, das die Karte zahlreiche Jahre lebt.

Gast
2005-05-27, 14:16:51
Es gibt schon einige Effekte in Spielen, die man nur mit einer nvidia NV4x-GPU sieht. Ob du da noch differenzieren willst, ob der Effekt auch mit SM2 möglich wäre oder nicht, spielt da keine Rolle. Er wird auf einer 400 € ATI-Karte NICHT dargestellt und damit hat sichs.
Bis SM3 "richtig" genutzt wird, wird kein ambitionierter Zocker mehr eine NV4x im Rechner haben. Aber bis dahin gibts eben hier und da EINIGE Effekte. Das war bei R300/NV3x-Zeiten nicht anders, dennoch wurde der SM2-Speed der Radeon gelobt und fand (siehe Umfrage) viele Käufer.
Genauso siehts bei NV4x derzeit aus, nur mit dem Unterschied, dass nvidia das Monopol 1 Jahr lang auf SM3 hatte.
Nun, das sehe ich anders. In FarCry haben die 5800/5900 Serie in DX8 grendert. In HL2 war es ähnlich. Wenn sich Softwarehersteller dazu entschließen Karten auszugrenzen, weil nVidia oder ATi dafür zahlen oder andere Leitungen bringen, um die Developer zu solchen Entscheidungen zu überreden, ist das wohl kein Grund für SM3.0. Das macht ATI ebenso machen, wie nVidia.

Und bisher gibt es keinen technologischen Grund für SM3.0, nur weil einige wenige Developer einen Großteil der Gamer prellen, wenn sie SM2.0 einfach weglassen, um SM3.0 im Auftrag von nVidia künstlich zu hypen.

Daran merkt man nur, wie gut diese Art von Marketing bei einigen Kunden funktioniert, die dann meinen wirklich was auf ihrer SM3.0 zu sehen, was nicht mit SM2.0 möglich wäre. Ich für meinen Teil springe nicht auf solch billiges Marketing an.

Und da Du hier MOD bist, solltest Du eigentlich merken wie sehr offtopic Du den G70 Thread damit machst. Jedenfalls nicht weniger, als mit einer PS1.4 Diskussion.


Konsolenfreund

Gast
2005-05-27, 14:17:00
ist die computex nicht ende mai also jetzt ?

warum reden jetzt einige von ende juni ?

Quasar
2005-05-27, 14:17:42
Thowe,
dann bin ich ja mal gespannt, was die Lastprobe sagt. IIRC hatte ich irgendwas in den hohen Siebzigern zuwege gebracht bei meiner Karte.

robbitop
2005-05-27, 14:20:37
Nun, das sehe ich anders. In FarCry haben die 5800/5900 Serie in DX8 grendert. In HL2 war es ähnlich. Wenn sich Softwarehersteller dazu entschließen Karten auszugrenzen, weil nVidia oder ATi dafür zahlen oder andere Leitungen bringen, um die Developer zu solchen Entscheidungen zu überreden, ist das wohl kein Grund für SM3.0. Das macht ATI ebenso machen, wie nVidia.

Und bisher gibt es keinen technologischen Grund für SM3.0, nur weil einige wenige Developer einen Großteil der Gamer prellen, wenn sie SM2.0 einfach weglassen, um SM3.0 im Auftrag von nVidia künstlich zu hypen.

Daran merkt man nur, wie gut diese Art von Marketing bei einigen Kunden funktioniert, die dann meinen wirklich was auf ihrer SM3.0 zu sehen, was nicht mit SM2.0 möglich wäre. Ich für meinen Teil springe nicht auf solch billiges Marketing an.

Und da Du hier MOD bist, solltest Du eigentlich merken wie sehr offtopic Du den G70 Thread damit machst. Jedenfalls nicht weniger, als mit einer PS1.4 Diskussion.


Konsolenfreund

-Far Cry wurde bis auf die Version 1.1 mit FP16/32 Shadern gerendert.
-für HL2 gibt es einen FP16 Pfad für NV3x
-SM3 kann auch Performance bringen, wenn man das vernünftig umsetzt. SC3 ist im SM3 Pfad mit deaktiviertem Paralax Mapping/HDR auch schneller als im SM1.1 Pfad. Umgesetzt wurde b.s.w Vertex Texturing in Parcific Fighters. In FC wurde SM3 über die größere Anzahl der Interpolatoren verwendet (mehr Performance je nach Shaderlast). HDR Kram hat ja mit SM3 nichts zu tun.

Quasar
2005-05-27, 14:27:04
-Far Cry wurde bis auf die Version 1.1 mit FP16/32 Shadern gerendert.
Und mit was wurde in Version 1.1 gerendert?

Nebenbei bemerkt verwendete Far Cry auch großflächig 1.x-Shader per default.

Gast
2005-05-27, 14:34:24
-SM3 kann auch Performance bringen, wenn man das vernünftig umsetzt. SC3 ist im SM3 Pfad mit deaktiviertem Paralax Mapping/HDR auch schneller als im SM1.1 Pfad. Umgesetzt wurde b.s.w Vertex Texturing in Parcific Fighters. In FC wurde SM3 über die größere Anzahl der Interpolatoren verwendet (mehr Performance je nach Shaderlast). HDR Kram hat ja mit SM3 nichts zu tun.
Bei SC3 ist kein Vergleich zu SM2.0 möglich. Und das wahrscheinlich nicht ohne Grund. Und meinst Du nicht, dass R300/R400 Karten mit SM2.0 schöner und schneller rendern, als mit PS1.1? Und Paralaxmapping kann der R300 schon und das durchaus performant. Hier wurde einfach nur ein Marketingspiel für nVida gemacht. Wer das nicht sehen will, tut mir leid.

In der Regel sind Spiele mit SM3.0 Geschwindigkeitsoptimierungen auf Nv40 Karten gerade mal so schnell, wie die entsprechenden ATi Karten. Ohne Optimierungen sieht es für die NV40 Karten im Vergleich sehr schlecht aus.

Pacific Fighters ist ja wohl mal ein Witz. Ich habe zwei Freunde die das Spiel spielen und den SM3.0 Wassertweak wieder rausgenommen haben, weil das Spiel mit dem SM3.0 unspielbar langsam ist. Tolles Argument für SM3.0 auf Nv40, zumal es nichtmal offiziell supportet wird, was wohl seinen Grund hat. :|

Wer nicht sieht, dass SM3.0 erst in 1,5 - 2 Jahren interessant wird durch die UE3, der will sich meiner Meinung nach nur seine Hardware schön reden oder ist aufs Marketing reingefallen. Zum jetzigen Zeitpunkt ist ja SM2.0 trotz relativ hoher Verbeitung an Hardware selten in Spielen zu sehen.


Konsolenfreund

Thowe
2005-05-27, 14:34:37
Hätte es ein neues TapeOut gegeben, hätte das viel länger gedauert und mit hoher Wahrscheinlichkeit wüßte man das dann. Ganz so empfindlich wie du es beschreibst sind auch heutige ASICs nicht.
Man sah eindeutig die Unterschiede in der Spannungswandlung. Für das PCB sind im Übrigen die Hersteller verantwortlich. Das Referenz PCB war allerdings schlecht, da hast du Recht. Wenn die Hersteller das nicht überprüfen, sind sie Schuld.

Was die ASICs angeht, ich will sie ja nicht global als (über-)empfindlich darstellen. Allerdings halte ich es für sehr erstaunlich, wenn ein Hersteller wie NV, die ja keine "kleine Größe" sind derart beim Design schlampen sollten. In zweiter Linie wäre es durchaus erstaunlich, wenn die Kartenhersteller (bis auf wenige wie Asus, die ja bewusst nicht das NV Design nahmen) tatsächlich derart Blind den Vorgaben seitens NV trauen, wenn es einen massiven Grund für Zweifel gibt. Verstehen könnte ich es schon noch, wenn das Platinenlayout von MSI stammen würde, aber angeblich stammt es ja komplett von NV. Allerdings fertig MSI fast ausschliesslich nach NV-Vorgaben und ein Großteil aller Karten kommen aus deren Fertigungsstrecken.

Bei einer meiner Karten ist der Spannungsregler durch, weswegen ja die Vermutung naheliegt, das er schuldig ist. Hatte da damals selbst einen Thread in die Richtung verfasst und sogar ein PDF Dokument verlinkt für eine bessere Alternative Bestückung die ein Spannungsregler-Hersteller Kartenherstellern vorgelegt hat. Was ja durchaus andeuten mag, das hier geschlampt wurde.

Bei meiner 2 Karten ist der Spannungsregler nicht auf die übliche Weise durch, was nicht bedeutet, das er nicht doch defekt ist. Jedenfalls kann ich nicht dieser Begründung der Festspannungsregler als Schuldige folgen. Die Dinger sind Massenware mit sehr sehr ähnlichen Eigenschaften, wieso rauchen dann Karten aus einer gewissen Charge mehr ab als aus einer anderen? Sicherlich, man könnte nun vermuten das die Spannungsregler fehlerhaft waren, aber wirklich glauben kann ich das alles nicht.

Thowe
2005-05-27, 14:37:33
Thowe,
dann bin ich ja mal gespannt, was die Lastprobe sagt. IIRC hatte ich irgendwas in den hohen Siebzigern zuwege gebracht bei meiner Karte.

So in die Richtung tippe ich auch, naja, solange sie nich so heiss ist wie der Backcamembert den ich gerade hatte, ist mir das recht. Ja nicht die Zunge verbrennen :D

Mein Tipp wäre wohl sowas bei 75 Grad, das würde ich auch noch als gesund betrachten.

robbitop
2005-05-27, 14:43:42
Bei SC3 ist kein Vergleich zu SM2.0 möglich. Und das wahrscheinlich nicht ohne Grund. Und meinst Du nicht, dass R300/R400 Karten mit SM2.0 schöner und schneller rendern, als mit PS1.1? Und Paralaxmapping kann der R300 schon und das durchaus performant. Hier wurde einfach nur ein Marketingspiel für nVida gemacht. Wer das nicht sehen will, tut mir leid.

In der Regel sind Spiele mit SM3.0 Geschwindigkeitsoptimierungen auf Nv40 Karten gerade mal so schnell, wie die entsprechenden ATi Karten. Ohne Optimierungen sieht es für die NV40 Karten im Vergleich sehr schlecht aus.

Pacific Fighters ist ja wohl mal ein Witz. Ich habe zwei Freunde die das Spiel spielen und den SM3.0 Wassertweak wieder rausgenommen haben, weil das Spiel mit dem SM3.0 unspielbar langsam ist. Tolles Argument für SM3.0 auf Nv40, zumal es nichtmal offiziell supportet wird, was wohl seinen Grund hat. :|

Wer nicht sieht, dass SM3.0 erst in 1,5 - 2 Jahren interessant wird durch die UE3, der will sich meiner Meinung nach nur seine Hardware schön reden oder ist aufs Marketing reingefallen. Zum jetzigen Zeitpunkt ist ja SM2.0 trotz relativ hoher Verbeitung an Hardware selten in Spielen zu sehen.


Konsolenfreund

Aus dem Grunde, dass ein SM2 Pfad schwierig umzusetzen wäre und die Shader sehr lang würden. Das spart man sich mit SM3. SM3 wäre hier performanter. Zumindist aus Sicht eines Entwicklers (Demirug).
Paralax Mapping ist kein SM3 Effekt, und klar kann R300 das auch. Mit einem SM2 Pfad wäre das kein Problem gewesen, aber eben sehr sehr aufwändig. Gerade als Spieleschmiede muss man sehen, wo man bleibt und spart an allem Möglichen. Mit SM3 ist die Programmierung sehr viel einfacher und performanter lösbar.

Warum vergleichst du SM2 und SM3 mit R420 vs NV40?
Es wäre sinnvoller, wenn man das mit einer Karte täte. Denn so sind die Vorraussetzungen zu verschieden für einen anständigen Vergleich. Und natürlich vergisst du, dass ATI 33% mehr Takt zur Verfügung und somit mehr Grundleistung hat.

Vertex Texturing ist noch teuer. Sieht aber gut aus. Trifft auf echtes HDR zu. Muss man es deswegen verteufeln? Klar ist es wie damals Bump Mapping kaum nutzbar, aber man hat eben die Option, ob man es nutzen möchte.
Ich persönlich würde es, wenns zu lahm ist, auch ausschalten. Aber ich habe die Option. Noch ist die Exzessive Nutzung von SM3 Humbug aber ein wenig nutzen kann man es und von SM3 Performance Optimierungen profitiert NV40 schon jetzt. Das wird R520 ebenso.

SM3 ist ohne zusätzliche Effekte einfacher zu programmieren und performanter umzusetzen. Es zu verteufeln ist IMO falsch.

Es ist ein netter Bonus, aber nicht mehr. Als Kaufgrund sollte man es als Spieler nicht sehen. Nett hingegen ist es.

Gast
2005-05-27, 15:01:56
Aus dem Grunde, dass ein SM2 Pfad schwierig umzusetzen wäre und die Shader sehr lang würden. Das spart man sich mit SM3. SM3 wäre hier performanter. Zumindist aus Sicht eines Entwicklers (Demirug).
Paralax Mapping ist kein SM3 Effekt, und klar kann R300 das auch. Mit einem SM2 Pfad wäre das kein Problem gewesen, aber eben sehr sehr aufwändig. Gerade als Spieleschmiede muss man sehen, wo man bleibt und spart an allem Möglichen. Mit SM3 ist die Programmierung sehr viel einfacher und performanter lösbar.

Warum vergleichst du SM2 und SM3 mit R420 vs NV40?
Es wäre sinnvoller, wenn man das mit einer Karte täte. Denn so sind die Vorraussetzungen zu verschieden für einen anständigen Vergleich. Und natürlich vergisst du, dass ATI 33% mehr Takt zur Verfügung und somit mehr Grundleistung hat.

Vertex Texturing ist noch teuer. Sieht aber gut aus. Trifft auf echtes HDR zu. Muss man es deswegen verteufeln? Klar ist es wie damals Bump Mapping kaum nutzbar, aber man hat eben die Option, ob man es nutzen möchte.
Ich persönlich würde es, wenns zu lahm ist, auch ausschalten. Aber ich habe die Option. Noch ist die Exzessive Nutzung von SM3 Humbug aber ein wenig nutzen kann man es und von SM3 Performance Optimierungen profitiert NV40 schon jetzt. Das wird R520 ebenso.

SM3 ist ohne zusätzliche Effekte einfacher zu programmieren und performanter umzusetzen. Es zu verteufeln ist IMO falsch.

Es ist ein netter Bonus, aber nicht mehr. Als Kaufgrund sollte man es als Spieler nicht sehen. Nett hingegen ist es.
Also erstmal verteufel ich garnichts. SM3.0 wird ne tolle Sache, nur was bringt mir das jetzt? Wenn Spiele auf UE3 Engine kommen, die wirklich sichtba von SM3.0 profitieren, werde ich mir auch eine neue Karte kaufen, wie viele Highend User auch, die jetzt einen NV40 besitzen. Wer denkt, dass der NV40 noch highend ist, wenn Unreal3 kommt oder Ut2007, der ist blauäugig.

Und SC3 sieht abgesehen von HDR nicht gerade berauschend aus. Es gibt Spiele und es werden noch viele kommen, die mit SM2.0 erheblich besser aussehen werden. Und wenn man SC3 bei SC zu faul war einen SM2.0 Pfad zu machen, dann ist das ein schlechter Witz oder einfach gutes Marketing seitens nVidia.

Über die Vorzüge von SM3.0 brauchen wir nicht zu streiten, darüber sich jetzt ein SM3.0 Karte zu kaufen und in vielen Spielen auf Leistung zu verzichten scheinbar schon. Und das flimmerige AF beim Nv40 scheint auch nicht mehr Viele zu stören. Diejenigen, die vorher über ATis AF gemeckert haben, müssten jetzt eigentlich eine ATI Karte mit Kussahnd nehmen, wenn man den Vergleich in Bewegung sieht.


Konsolenfreund

P.S.
Ich mache jetzt mal EOD. Bringt sowieso nix die Diskussion und ist OT.

robbitop
2005-05-27, 15:09:49
Ja ist ein ausgelatschtes Thema. Maßgeblich mehr Geschwindigkeit sehe ich bei ATI Karten aber auch nicht. Das Flimmern beim AF kommt, wie Demirug schon sagte, vom falsch eingestellten LOD.

Quasar
2005-05-27, 15:11:10
Wer nicht sieht, dass SM3.0 erst in 1,5 - 2 Jahren interessant wird durch die UE3, der will sich meiner Meinung nach nur seine Hardware schön reden oder ist aufs Marketing reingefallen. Zum jetzigen Zeitpunkt ist ja SM2.0 trotz relativ hoher Verbeitung an Hardware selten in Spielen zu sehen.

Sobald der R520 da ist, wird auch ATi für SM3 trommeln, was das Zeug hält - erst recht, wenn man vorhat, die komplette Produktpalette in kurzer Zeit auf SM3-fähige GPUs umzustellen.

Dann wird es vermutlich düster aussehen für reine SM2-Produkte, alldieweil sich sowohl für reine DX8-Parts als auch für die allermeisten FX-Karten kein durchgehendes SM2 performant implementieren läßt und mit einem gut gemachten SM1.x auch alle SM2-Karten prima zurechtkommen.

SM3 wird dann der Eye-Candy Träger für die Packungsrückseite und Preview-Shots sein.

ShadowXX
2005-05-27, 15:20:54
Also erstmal verteufel ich garnichts. SM3.0 wird ne tolle Sache, nur was bringt mir das jetzt? Wenn Spiele auf UE3 Engine kommen, die wirklich sichtba von SM3.0 profitieren, werde ich mir auch eine neue Karte kaufen, wie viele Highend User auch, die jetzt einen NV40 besitzen. Wer denkt, dass der NV40 noch highend ist, wenn Unreal3 kommt oder Ut2007, der ist blauäugig.

Und SC3 sieht abgesehen von HDR nicht gerade berauschend aus. Es gibt Spiele und es werden noch viele kommen, die mit SM2.0 erheblich besser aussehen werden. Und wenn man SC3 bei SC zu faul war einen SM2.0 Pfad zu machen, dann ist das ein schlechter Witz oder einfach gutes Marketing seitens nVidia.

Über die Vorzüge von SM3.0 brauchen wir nicht zu streiten, darüber sich jetzt ein SM3.0 Karte zu kaufen und in vielen Spielen auf Leistung zu verzichten scheinbar schon. Und das flimmerige AF beim Nv40 scheint auch nicht mehr Viele zu stören. Diejenigen, die vorher über ATis AF gemeckert haben, müssten jetzt eigentlich eine ATI Karte mit Kussahnd nehmen, wenn man den Vergleich in Bewegung sieht.


Konsolenfreund

P.S.
Ich mache jetzt mal EOD. Bringt sowieso nix die Diskussion und ist OT.

Auch hier stelle ich mir wie so oft die hypothetische Frage, ob alle ATI-Besitzer genauso argumentieren würden, wenn die Situation genau andersherum wäre (also wenn ATI SM3.0 hätte und nV nur SM2.0).

Gast
2005-05-27, 15:29:24
Auch hier stelle ich mir wie so oft die hypothetische Frage, ob alle ATI-Besitzer genauso argumentieren würden, wenn die Situation genau andersherum wäre (also wenn ATI SM3.0 hätte und nV nur SM2.0).
Wahrschenlich nicht, so wie das bei Fanboys nunmal ist. Wer eine Firma immer schön redet, wird immer was finden, um sich für die Lieblingsfirma zu entscheiden, so dumm das auch ist.

Kf

Gast
2005-05-27, 17:21:35
http://pics.computerbase.de/news/10973/1.jpg

alt?!

Quasar
2005-05-27, 17:22:52
Ja. Zwei Tage.

seahawk
2005-05-27, 17:55:31
Thowe,
dann bin ich ja mal gespannt, was die Lastprobe sagt. IIRC hatte ich irgendwas in den hohen Siebzigern zuwege gebracht bei meiner Karte.

Bei simulierten 30°C Raumtemepratur ist unsere instabil geworden. Mach mal bitte einen Test bei so hohen Temperaturen.

Quasar
2005-05-27, 18:01:32
Ich meinte meine 6800nu... und nein, ich weiß nicht, wie ich 30°C Zimmertemperatur simulieren soll. Ausser warten - warm ist's ja.

SKYNET
2005-05-27, 18:06:53
Ich meinte meine 6800nu... und nein, ich weiß nicht, wie ich 30°C Zimmertemperatur simulieren soll. Ausser warten - warm ist's ja.


nen kleines feuerchen machen?
komme auch gerne kurz rum, grillanzünder hab ich noch. ;D

Gast
2005-05-27, 19:02:21
computex fängt noch diesen monat an wird ati/nv ihre bretter vorstellen ?

weiß wieder keiner was hier :D

Gast
2005-05-27, 19:07:35
Ja ist ein ausgelatschtes Thema. Maßgeblich mehr Geschwindigkeit sehe ich bei ATI Karten aber auch nicht. Das Flimmern beim AF kommt, wie Demirug schon sagte, vom falsch eingestellten LOD.
Jaklar und nachts ist es kälter als draussen!!!!
Du kannst am LOD alles VERSTELLEN!!!

Es flimmert immer noch, es sei denn du nimst den Core runter, nur dann wird das Ding schnecken-langsam!

Coda
2005-05-27, 19:08:20
Es flimmert immer noch, es sei denn du nimst den Core runter, nur dann wird das Ding schnecken-langsam!Also mit dem Coretakt hast das ganz sicher nichts zu tun...

Und so extrem ist das flimmern auf High-Quality nun auch nicht.

Quasar
2005-05-27, 19:36:01
Es flimmert immer noch, es sei denn du nimst den Core runter, nur dann wird das Ding schnecken-langsam!
Erklärung? Meinst du, ich soll die GPU physisch entfernen, damit es nicht mehr flimmert? Da hast du recht - aber das nützt nichts, weil dann auch kein Bild mehr erzeugt wird.

Gast
2005-05-27, 20:29:54
Jaklar und nachts ist es kälter als draussen!!!!
Du kannst am LOD alles VERSTELLEN!!!

Es flimmert immer noch, es sei denn du nimst den Core runter, nur dann wird das Ding schnecken-langsam!

also in HQ gibt es kein texturflimmern außer bei texturen die schon bei isotroper filterung flimmern, und diese flimmern auch auf ati-karten.

Gast
2005-05-27, 20:35:31
also in HQ gibt es kein texturflimmern außer bei texturen die schon bei isotroper filterung flimmern, und diese flimmern auch auf ati-karten.
Falsch! Das flimmern tritt immer bei hoch aufgelösten Texturen auf.

Konsolenfreund

Gast
2005-05-27, 20:48:28
Falsch! Das flimmern tritt immer bei hoch aufgelösten Texturen auf.

Konsolenfreund

zeckensacks moire-tester zeigt bei mir mit der noise-textur kein flimmern in HQ (in Q ohne optimierungen dagegen deutliches flimmern wie ich es in realen applikationen noch nicht wahrgenommen habe)

die checkboard-textur flimmert logischerweise, aber auch bei isotropem filter und logischerweise auch auf der radeon 9800 nebenan (die ja angeblich noch schöner als die x-serie filtert)

Ailuros
2005-05-28, 09:20:10
Ich meinte meine 6800nu... und nein, ich weiß nicht, wie ich 30°C Zimmertemperatur simulieren soll. Ausser warten - warm ist's ja.

6800nonU/16p/6VS@360/438MHz bei bis zu 29C wahrer Zimmertemperatur hier bei mir (eben wenn die Klimaanlage mal krepiert bei einer Hitzewelle)....um was geht es hier eigentlich?

In einem subtropischen Klima brauch ich ja nichts emulieren....

***edit: falls es um NV43 gehen sollte, der erste Schub hatte bei einigen vendors schlechte Kuehlungsloesungen. Nach dem ersten Aufschrei aenderten die vendors schnell wieder die Kuehlungsloesungen. Persoenlich hatte ich mit dem "zweiten" Schub keine Probleme bei 500/450-AGP.

Ganz OT: die beste GPU was Stromverbrauch, Preis/Leistungsverhaeltnis und Laerm betrifft fuer dieses Jahr ist IMHO die X800XL von Gigabyte mit passiver Kuehlung. Haette ich ein PCI-E System, haette ich das Ding gleich behalten :)

Gast
2005-05-28, 09:27:52
also in HQ gibt es kein texturflimmern außer bei texturen die schon bei isotroper filterung flimmern, und diese flimmern auch auf ati-karten. Kann ich nicht nachvollziehen!

Quasar
2005-05-28, 13:11:36
Hier traf jemand den Ton nicht...
Auf wieviel MHz muss ich denn deinen INformationen nach heruntertakten, damit's nicht mehr flimmert?

Quasar
2005-05-28, 13:16:27
Bei mir ging es um eine 16/6 6800nU bei 350/350MHz (denke mal, der Speicher ändert nichts daran, wenn ich den auf 400 prügeln würde). Allerdings eben passiv gekühlt - CPU war in dem System auch passiv gekühlt, keine Gehäuselüfter, nur der winzige 80mm-Lüfter vom 145W-Netzteil (thx@Frank nochmal!).
6800nonU/16p/6VS@360/438MHz bei bis zu 29C wahrer Zimmertemperatur hier bei mir (eben wenn die Klimaanlage mal krepiert bei einer Hitzewelle)....um was geht es hier eigentlich?

In einem subtropischen Klima brauch ich ja nichts emulieren....

***edit: falls es um NV43 gehen sollte, der erste Schub hatte bei einigen vendors schlechte Kuehlungsloesungen. Nach dem ersten Aufschrei aenderten die vendors schnell wieder die Kuehlungsloesungen. Persoenlich hatte ich mit dem "zweiten" Schub keine Probleme bei 500/450-AGP.

Ganz OT: die beste GPU was Stromverbrauch, Preis/Leistungsverhaeltnis und Laerm betrifft fuer dieses Jahr ist IMHO die X800XL von Gigabyte mit passiver Kuehlung. Haette ich ein PCI-E System, haette ich das Ding gleich behalten :)
Die wäre mal interessant, ja. Wobei die maximal-Temperatur bei "normalem" Spielen ja nur seltenst erreicht wird - von einem User habe ich schon gehört, daß sie Stabilitätsprobleme hatte. Ob das allerdings vielleicht am individuellen Exemplar lag oder am sonstigen System ließ sich nicht nachvollziehen.
Wärmeentwicklung sollte jedenfalls im ungefähr selben Bereich liegen laut eines Internet-Test - mal sehen, was Thowe dazu sagt.

Die FPS, die man aus der 800XL herausbekommt sind wohl höher als die der 6800nu - von daher wohl eine gangbarere Alternative, wenn man "nur" spielen will. :)

Ailuros
2005-05-28, 14:21:56
Mehr als 38-39C case temperature konnte ich bis jetzt nicht bemerken selbst im schlimmsten Fall. Und dabei liest der Treiber fast genau die gleichen Temperaturen wie der sensor des Gehaeuses (momentan 33.9/sensor, 34C im Treiber bei 23C Zimmertemperatur). Es schwirren auch 7 silent fans in dem Ding und es ist auch ein full ATX tower (ich brauch ne neue PSU, das Ding macht mehr laerm als das gesamte Gehaeuse und dessen Inhalt).

~65C nach intensivem spielen war glaub ich das hoechste was ich sehen konnte.

Die FPS, die man aus der 800XL herausbekommt sind wohl höher als die der 6800nu - von daher wohl eine gangbarere Alternative, wenn man "nur" spielen will.

So gigantisch ist der Unterschied nun auch wieder nicht, ausser natuerlich >2xAA in 1600. Generell gesehen aber - und ueberhaupt fuer die Leute die einen Koller mit dem Laerm der Kuehlungsloesungen haben - ist die XL mit dem passiven Kuehler eine ausgezeichnete Loesung.

Gast
2005-05-28, 15:03:01
Auf wieviel MHz muss ich denn deinen INformationen nach heruntertakten, damit's nicht mehr flimmert?

Es reichen schon 50MHz und das Flimmer ist besser zu ertragen!
Ausserdem empgehle ich die Fast-Writing Settings auszuschalten!

Coda
2005-05-28, 15:04:08
Die Taktrate ändert an den AF Berechnungen rein gar nichts und Fastwrites erst recht nicht.

ShadowXX
2005-05-28, 15:41:31
Die Taktrate ändert an den AF Berechnungen rein gar nichts und Fastwrites erst recht nicht.

Als klitzekleine OT zwischenfrage...hast du eigentlich einen CRT oder einen TFT.

Ich habe irgendwie den Eindruck, das die TFT benutzer das Flimmern insgesamt weniger bzw. gar nicht bemerken...was vielleicht TFT-Funktionsweise-Bedingt sein könnte.

Ich hatte mämlich zuerst einen CRT an der Ultra hängen und jetzt wieder einen TFT....und fand das das minimale Flimmern das bei HQ-Settings + Clamp noch manchmal auftritt beim TFT völlig eliminiert war (hatte das allerdings auf den gleichzeitigen Treiberwechsel den ich beim TFT-Anstöpseln gemacht hatte geschoben).

Kann natürlich auch Einbildung sein....

Coda
2005-05-28, 15:54:27
Einen CRT. Kann gut sein, dass durch das leichte "verwischen" durch den TFT Delay das flimmern abnimmt.

Mir fällt sowas aber auch sofort auf, das ist das Problem wenn man ein Auge dafür hat ;)

seahawk
2005-05-28, 17:20:02
Ich meinte meine 6800nu... und nein, ich weiß nicht, wie ich 30°C Zimmertemperatur simulieren soll. Ausser warten - warm ist's ja.

Wir haben die Klima auf 30°C gestellt. Nach 30 Minuten 3D Mark im Loop ist sie abgestürzt. Sensor auf dem Kühlkörper zeigt 85,8°C. Allerdings ging sie nach dem Abkühlen wieder.

Gast
2005-05-28, 21:49:13
wer denkt das die g70 groß ist

http://content.3dlabs.com/products/products/mainpic_prod293.jpg

Gast
2005-05-28, 22:01:56
wer denkt das die g70 groß ist

http://content.3dlabs.com/products/products/mainpic_prod293.jpg

..ist ja auch eine grafikkarte mit integriertem staubsauger

DerNeue
2005-05-28, 22:01:56
wer denkt das die g70 groß ist

http://content.3dlabs.com/products/products/mainpic_prod293.jpg
.

Coda
2005-05-28, 23:03:08
Das ist auch keine Grafikkarte für den Consumerbereich :rolleyes:

Quasar
2005-05-29, 11:13:30
Wir haben die Klima auf 30°C gestellt. Nach 30 Minuten 3D Mark im Loop ist sie abgestürzt. Sensor auf dem Kühlkörper zeigt 85,8°C. Allerdings ging sie nach dem Abkühlen wieder.
Wer ist "wir" und welchen 3DMark habt ihr loopen lassen?

Quasar
2005-05-29, 11:14:45
Es reichen schon 50MHz und das Flimmer ist besser zu ertragen!
Ausserdem empgehle ich die Fast-Writing Settings auszuschalten!
Danke, das werde ich mal probieren - Fast Writes gehen bei meinem i815-Board sowieso nicht.

Quasar
2005-05-29, 11:19:51
Das ist auch keine Grafikkarte für den Consumerbereich :rolleyes:
Zusätzlich ist es eine Dual-GPU-Karte mit vorgeschalteter Vertexeinheit.

(del676)
2005-05-29, 11:22:36
Das ist auch keine Grafikkarte für den Consumerbereich :rolleyes:

2 500 Euro Karten mit jeweils 2 Stromanschlüssen und jeweils 2 Slots belegen aber auch nicht X-D

Coda
2005-05-29, 12:45:57
Ging es grad um SLi?
Eine GeForce 6800 Ultra ist absoluter Mainstream gegen so ein Realizm Teil. Die Verkaufszahlen dürften sehr weit auseinander liegen.

seahawk
2005-05-29, 17:38:52
Wer ist "wir" und welchen 3DMark habt ihr loopen lassen?

Wir hatten die auf der Arbeit zum Test für Workstations, die ab und zu mal 3D Anwendungen laufen alssen, aber keine Profikarte rechtfertigen. Ich glaube den 2001.

wuzetti
2005-05-30, 13:39:49
G70 info
http://www.hardwarezone.com/articles/view.php?id=1603&cid=3&pg=1

r3ptil3
2005-05-30, 13:46:04
G70 info
http://www.hardwarezone.com/articles/view.php?id=1603&cid=3&pg=1

:eek:

DrumDub
2005-05-30, 13:53:23
G70 info
http://www.hardwarezone.com/articles/view.php?id=1603&cid=3&pg=1

das klingt aber nicht so toll. die 150w können meiner meinung nach nicht stimmen, da das ja mehr als das doppelte einer 6800u ist. wieder ne bestätigung für 110nm im text.

SKYNET
2005-05-30, 13:53:25
G70 info
http://www.hardwarezone.com/articles/view.php?id=1603&cid=3&pg=1


system an skynet....
neues waffensystem entdeckt....
es wird empfohlen das aktuelle primärwaffensystem zu ersetzen....
ende....



ahhhh, ich will sie, sofort... gleich shop anrufen und vorbestellen. ;D

deekey777
2005-05-30, 13:53:39
:eek:

Na so viel steht da auch wieder nicht.
Bis auf die beiden letzten Absätze... :biggrin:
Aber es ist immernoch ein "Engineering Samlpe", hat also noch nicht sehr viel zu sagen über das das fertige Produkt. ;(

system an skynet....
neues waffensystem entdeckt....
es wird empfohlen das aktuelle primärwaffensystem zu ersetzen....
ende....



ahhhh, ich will sie, sofort... gleich shop anrufen und vorbestellen. ;D

Was willst du mit einer durchgebrannten Grafikkarte? ;(

Coda
2005-05-30, 13:54:06
Das Ding braucht nie im Leben 150W. Da hat wohl wieder jemand die Spezifikation in den falschen Hals gebracht, die genau 150W erlaubt.

Allein schon das Single Slot Design lässt vermuten dass die Karte eher weniger als ein NV40 verbrät.

SKYNET
2005-05-30, 14:03:38
Das Ding braucht nie im Leben 150W. Da hat wohl wieder jemand die Spezifikation in den falschen Hals gebracht, die genau 150W erlaubt.

Allein schon das Single Slot Design lässt vermuten dass die Karte eher weniger als ein NV40 verbrät.


wahrscheinlich 150W im SLI modus... =)

seahawk
2005-05-30, 14:03:42
das klingt aber nicht so toll. die 150w können meiner meinung nach nicht stimmen, da das ja mehr als das doppelte einer 6800u ist. wieder ne bestätigung für 110nm im text.

Ist wohl eine absolute nicht Serienversion.

deLuxX`
2005-05-30, 14:20:33
Also die Version, so wie sie da gezeigt wird, hat niemals eine Verlustleistung von 150W. Der Kühler ist dafür garnicht ausgelegt.
Ich nehme auch an, dass der Autor da was verwechselt hat.

-deLuxX`

DrumDub
2005-05-30, 14:26:53
Ist wohl eine absolute nicht Serienversion. schon klar. die frage ist nur, ob die karte dann noch wirklich im juni/juli in den handel kommt. das bezweifle ich doch stark.

SKYNET
2005-05-30, 14:33:33
schon klar. die frage ist nur, ob die karte dann noch wirklich im juni/juli in den handel kommt. das bezweifle ich doch stark.



ich hatte meine 6800GT letztes jahr ca. 5-6 wochen nach vorstellung des NV40. :cool:

also dürfte es diesmal auch nicht länger dauern.

p.s. hatte die erste käuflich erwerbbare 6800GT in deutschland. ;D

Gast
2005-05-30, 15:09:15
ich hatte meine 6800GT letztes jahr ca. 5-6 wochen nach vorstellung des NV40. :cool:

also dürfte es diesmal auch nicht länger dauern.

p.s. hatte die erste käuflich erwerbbare 6800GT in deutschland. ;D

Wir alle wissen aber das die Massenverfügbarkeit bis zu 3 Monate nach Launch gedauert hat!

Generell sind deine Beiträge sehr ulkig!

SKYNET
2005-05-30, 15:32:45
Wir alle wissen aber das die Massenverfügbarkeit bis zu 3 Monate nach Launch gedauert hat!

Generell sind deine Beiträge sehr ulkig!


die massenverfügbartkeit intressiert mich nicht die bohne, die hauptsache ist, ich bekomme das wann ich es will.

mapel110
2005-05-30, 15:35:49
Wir alle wissen aber das die Massenverfügbarkeit bis zu 3 Monate nach Launch gedauert hat!

Generell sind deine Beiträge sehr ulkig!
Bei den letzten High-End-Geschossen hats würde ich sagen eher 6-9 Monate gedauert.
Aber die News von Hardwarezone ist sowieso ziemlich unglaubwürdig.

(del676)
2005-05-30, 15:37:28
die massenverfügbartkeit intressiert mich nicht die bohne, die hauptsache ist, ich bekomme das wann ich es will.

leider gibts es neider die sichs ned leisten können oder zu faul sind und deshalb rumsudern :(
ich freue mich schon auf meine zwei 7800GTX

Gast
2005-05-30, 15:40:26
leider gibts es neider die sichs ned leisten können oder zu faul sind und deshalb rumsudern :(
ich freue mich schon auf meine zwei 7800GTX
Es geht hier um Massenverfügbarkeit und nicht darum, ob irgendjemand das Glück hat eine Karte von ganz wenigen sehr früh zu bekommen.

(del676)
2005-05-30, 15:42:21
wen interessiert die massenverfügbarkeit?
mich nicht, dich auch nicht sobald du eine hast oder?

SKYNET
2005-05-30, 15:42:36
leider gibts es neider die sichs ned leisten können oder zu faul sind und deshalb rumsudern :(
ich freue mich schon auf meine zwei 7800GTX


so ist es (leider).
mir aber egal, werde wie immer 1x im jahr hochrüsten mit neuer CPU und grafik, dann langt mir das.... ob mich dann irgentwelche leute für gestört halten weil ich bereit bin 20% mehr auszugeben nur damit ichs halt vor anderne habe, geht mir auch am ischias vorbei. ;D

SKYNET
2005-05-30, 15:44:01
Es geht hier um Massenverfügbarkeit und nicht darum, ob irgendjemand das Glück hat eine Karte von ganz wenigen sehr früh zu bekommen.


warum? geht doch um die lieferbarkeit für den endkunden markt nach vorstellung der karten, und ob das nun nur 10 karten für deutschland sind, oder 2000, das ist egal, aber sie wären lieferbar. =)

reunion
2005-05-30, 16:10:39
Hm, schön langsam sollte nV mal etwas auf das Platinendesign achten, die Karte erreicht ja schon fast V5 6000 Ausmaße.

Das Die scheint auch nicht wirklich kleiner geworden zu sein.
Damit kann man 90nm wohl definitiv ausschließen.

seahawk
2005-05-30, 18:38:10
schon klar. die frage ist nur, ob die karte dann noch wirklich im juni/juli in den handel kommt. das bezweifle ich doch stark.

Ich würde eher sagen, dass die KArte eher schon ziemlich alt ist. Wenn ich mir Chip, Kühler und PCB ansehe und sehe welche Schäde nvorliegen, dann hat sie wohl schon eine gewisse Vergangenheit. ;)

Demirug
2005-05-30, 18:57:54
Ich würde eher sagen, dass die KArte eher schon ziemlich alt ist. Wenn ich mir Chip, Kühler und PCB ansehe und sehe welche Schäde nvorliegen, dann hat sie wohl schon eine gewisse Vergangenheit. ;)

Der Chip ist jedenfalls aus der ersten Februarwoche.

reunion
2005-05-30, 19:00:19
NVIDIA to Show Off GeForce 7800 at Computex. (http://www.xbitlabs.com/news/video/display/20050530083535.html)

Quasar
2005-05-30, 19:01:49
Kühlkörper, ist bei passiv wichtiger, die Kerntemp darf ja relativ hoch sein. Der passive Körper strahlt aber auf die Passivelektronik ab und bei 90 Grad möchte ich nicht die Hand ins Feuer legen, das die Karte zahlreiche Jahre lebt.
Hab' hier gerade runde 83°C am KüKö gemessen - offenes Gehäuse... :eek:
Bei einem Einsteiger-Part in 0,11µ btw.

mapel110
2005-05-30, 19:04:07
NVIDIA to Show Off GeForce 7800 at Computex. (http://www.xbitlabs.com/news/video/display/20050530083535.html)
hm, nur hinter verschlossenen Türen?! Also keine Webreviews oder ähnliches?! :(

Gast
2005-05-30, 19:09:00
hm, nur hinter verschlossenen Türen?! Also keine Webreviews oder ähnliches?! :(
die kommen wohl am 22. Juni.
Die ersten Hersteller bekommen Ihre Karten in der 2. Juni Woche. Das ist also bereits recht bald.

Gast
2005-05-30, 19:23:36
NVIDIA to Show Off GeForce 7800 at Computex. (http://www.xbitlabs.com/news/video/display/20050530083535.html)

das ding kann man keinem antun was

Adam D.
2005-05-30, 19:42:09
Der Chip ist jedenfalls aus der ersten Februarwoche.
Seitdem kann sich ja schon einiges getan haben :)

Gast
2005-05-30, 19:46:21
Kann man im aktuellen Aldi-PC (640) statt der x740xl eine G70 nutzen? Die G70 soll ja einiges an Strom benötigen.
Wenn es technisch möglich ist, wäre das von der Effizienz noch sinnvoll, oder ist der 640 für eine G70 zu lahm?

pF3NG
2005-05-30, 19:54:23
Wenn das Netzteil ausreichent dimensioniert ist müsste es gehen, P4 640 ist imo schnell genug, wenn nicht dann Übertakten. Sinnvoll auf jeden Fall denn 100% Mehrleistung imo. Aber das gehört nicht zum Thema...

[dzp]Viper
2005-05-31, 00:29:37
Seid ihr alle langsam :D

http://www.hardwarezone.com/articles/view.php?cid=3&id=1603

Kurze Vorstellung des G70 ;)

http://www.hardwarezone.com/img/data/articles/2005/1603/g70-chip.jpg


*hust*


The card will draw, *drumroll*, a total of 150W. That's even more than any regular desktop CPU we know. 75W will be drawn from the PCI Express interface while another 75W will be supplied through an extra power connector on the card.


/edit: oh da war ich wohl zu langsam X-D *mist*

Gast
2005-05-31, 00:30:35
alt :)

seahawk
2005-05-31, 08:37:23
Der Chip ist jedenfalls aus der ersten Februarwoche.
Also schon über 3 Monate alt. :) Das wollte ich nur dezent anmerken.

DrumDub
2005-05-31, 10:47:27
Also schon über 3 Monate alt. :) Das wollte ich nur dezent anmerken. das stimmt natürlich. steht ja auch eng sample drauf.

warten wir einfach mal ab, ob es diesmal anders wird mit der verfügbarkeit. kann natürlich sein, dass der g70 in homöpathischen dosen im juni schon erhältlich ist, aber an massenverfügbarkeit denke ich erst ab august/september.

robbitop
2005-05-31, 10:49:46
Wer weiß...wenn es schon seit 3 Monaten eine lauffähige Revision gibt, könnte es schnell zur Massenverfügbarkeit kommen. Immerhin hat man nun den 110nm Prozess mit massig Kapazität bei TSMC zur Verfügung.
Die Frage ist nur, wie es mit dem Speicher steht.

DrumDub
2005-05-31, 10:55:11
Wer weiß...wenn es schon seit 3 Monaten eine lauffähige Revision gibt, könnte es schnell zur Massenverfügbarkeit kommen. Immerhin hat man nun den 110nm Prozess mit massig Kapazität bei TSMC zur Verfügung.
Die Frage ist nur, wie es mit dem Speicher steht. ist halt alles recht spekulativ meinerseits. ;)

robbitop
2005-05-31, 11:05:42
ist halt alles recht spekulativ meinerseits. ;)
meinerseits doch auch ;)

Coda
2005-05-31, 12:35:07
Viper']The card will draw, *drumroll*, a total of 150W. That's even more than any regular desktop CPU we know. 75W will be drawn from the PCI Express interface while another 75W will be supplied through an extra power connector on the card.Ich hab schonmal erwähnt dass das großer Quatsch ist...

seahawk
2005-05-31, 13:59:41
Ich werde mir meine nächste KArte im September kaufen ;)

Gast
2005-05-31, 14:18:38
Ich werde mir meine nächste KArte im September kaufen ;)

du bist ja ganz mutig

reunion
2005-06-01, 12:54:46
New G70 Pictures:

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2434&p=3

r3ptil3
2005-06-01, 12:57:39
New G70 Pictures:

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2434&p=3

Jetzt verbaut Nvidia die Speicher auch auf der Rückseite.
Ich glaub fast jede HW Seite hat wohl eine Geforce 7800 GTX nur dürfen die wohl noch nicht mit Benchmarks rausrücken.

Winter[Raven]
2005-06-01, 13:07:00
Wäre auch kein Wunder wenn es schon Samples seit 3 Monaten gibt.... :D

reunion
2005-06-01, 13:09:45
Ich glaub fast jede HW Seite hat wohl eine Geforce 7800 GTX nur dürfen die wohl noch nicht mit Benchmarks rausrücken.


Die Bilder stammen von der Computex.

r3ptil3
2005-06-01, 13:15:04
Die Bilder stammen von der Computex.

Ah so, dachte weil jetzt fast täglich neue Bilder erscheinen!

wuzetti
2005-06-01, 18:01:15
g70 news
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xMjI3

kommt am end doch die ultra variante? ich habs ja gleich gesagt ;D
naja, mal abwarten und tee trinken......

DjDino
2005-06-02, 12:34:23
g70 news
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xMjI3

kommt am end doch die ultra variante?

So scheint es :
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3079407&postcount=1449

DrumDub
2005-06-02, 13:14:30
g70 news
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xMjI3

kommt am end doch die ultra variante? ich habs ja gleich gesagt ;D
naja, mal abwarten und tee trinken...... das gleiche spiel wie letztes jahr... nur kann sich diesmal nvidia zurücklehen und ati muss erstmal die karten auf den tisch legen. sehr komfortabel.

p.s.: ich vermute, dass die x800xt pe letztes jahr nur eine reaktion auf die 6800u war, denn eigentlich war nur die x800xt geplant.

wuzetti
2005-06-02, 14:16:25
p.s.: ich vermute, dass die x800xt pe letztes jahr nur eine reaktion auf die 6800u war, denn eigentlich war nur die x800xt geplant.

seh ich auch so. wenn man schon bei den features zurückliegt, muss man eben schaun, dass man performancemässig vorne bleibt. auch wenn der preis dafür ein wenig oder kaum verfügbares produkt ist. für die tester hat's ja gereicht. :D

Ailuros
2005-06-02, 16:28:41
g70 news
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xMjI3

kommt am end doch die ultra variante? ich habs ja gleich gesagt ;D
naja, mal abwarten und tee trinken......

Humbug IMO; natuerlich wird es eine schneller getaktete G70 auf 90nm irgendwann in der Zukunft geben, aber ich wuerde mich an Eurer Stelle erstmal fragen warum RSX gerade momentan vor seinem finalen tapeout liegt.

Schon 430MHz ist nicht gerade wenig fuer 6 quads@110nm und ich hatte vor einem halben Jahr ungefaehr 400MHz erwartet.

Zwischen 430MHz G70@110nm und 550MHz G7x@90nm wird es wohl auch einen gesunden Leistungsunterschied geben. Selbst wenn NVIDIA schon einen fertigen 90nm desktop chip haette wuerde man wohl nicht gleich alle Karten ausspielen, ueberhaupt wenn man weiss dass noch ein R580 bevorsteht.

SKYNET
2005-06-02, 18:07:13
Humbug IMO; natuerlich wird es eine schneller getaktete G70 auf 90nm irgendwann in der Zukunft geben, aber ich wuerde mich an Eurer Stelle erstmal fragen warum RSX gerade momentan vor seinem finalen tapeout liegt.

Schon 430MHz ist nicht gerade wenig fuer 6 quads@110nm und ich hatte vor einem halben Jahr ungefaehr 400MHz erwartet.

Zwischen 430MHz G70@110nm und 550MHz G7x@90nm wird es wohl auch einen gesunden Leistungsunterschied geben. Selbst wenn NVIDIA schon einen fertigen 90nm desktop chip haette wuerde man wohl nicht gleich alle Karten ausspielen, ueberhaupt wenn man weiss dass noch ein R580 bevorsteht.


denke ich auch, diesmal wartet man sicherlich auf ATIs PE version und wird dann entscheiden ob die ultra kommt oder nicht.

aber 550MHz @ 24pipes = 13200M :eek:
das wird dann ein ganz ganz böses tier. :biggrin:

seahawk
2005-06-02, 19:08:34
g70 news
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xMjI3

kommt am end doch die ultra variante? ich habs ja gleich gesagt ;D
naja, mal abwarten und tee trinken......

Eine Ultra müßte nicht unbedingt einen wesentlich schnelleren Chip haben.

SKYNET
2005-06-02, 19:13:33
Eine Ultra müßte nicht unbedingt einen wesentlich schnelleren Chip haben.


50MHz sicher. ;)

robbitop
2005-06-02, 19:18:11
Humbug IMO; natuerlich wird es eine schneller getaktete G70 auf 90nm irgendwann in der Zukunft geben, aber ich wuerde mich an Eurer Stelle erstmal fragen warum RSX gerade momentan vor seinem finalen tapeout liegt.


Weil RSX != G70. Dort ist noch ein propertäres Interface zum Cell dran und evtl noch ein paar andere Änderungen. Außerdem ist Sony eine völlig andere Foundry als TSMC. Das dauert bis man die Parameter so hat, wie man es gern hätte. Hinzukommt natürlich, dass 90nm ein sehr junger Prozess für GPUs ist.

Gast
2005-06-02, 19:23:14
Humbug IMO; natuerlich wird es eine schneller getaktete G70 auf 90nm irgendwann in der Zukunft geben, aber ich wuerde mich an Eurer Stelle erstmal fragen warum RSX gerade momentan vor seinem finalen tapeout liegt.
Der RSX hat wenig mit dem G70 zu tun, nur mal so am Rande. Der RSX beinhaltet Technologien, die erst mit dem NV50 kommen und ein extra Dateninterface zum Cell.

Konsolenfreund

Quasar
2005-06-02, 19:27:28
Je nach massentauglichkeit, aber da soll's ja wohl recht gut aussehen, würde ich am ehesten schauen, möglichst schnell meine Volumen-Parts auf ,09µ umzustellen. Das bringt dann richtig Kohle.

Ok, High-End ist prestigeträchtig, aber nicht besonders wirtschaftlich.

Demirug
2005-06-02, 19:29:08
Der RSX hat wenig mit dem G70 zu tun, nur mal so am Rande. Der RSX beinhaltet Technologien, die erst mit dem NV50 kommen und ein extra Dateninterface zum Cell.

Konsolenfreund

Den Eindruck das man dort NV50 Technologie findet hatte ich bisher eigentlich nicht.

Das Interface zu tauschen ist nicht mehr Aufwand als der Wechsel von AGP zu PCIe. Vorallem da nVidia die IP dafür wohl weitgehend fertig von Sony/IBM bekommen hat.

Gast
2005-06-02, 19:30:17
50MHz sicher. ;)

Niemals! höchstens etwa 450-460mhz einzig der Speichertakt wird falls eben die Ultra kommt höher liegen.

Gast
2005-06-02, 19:36:21
Den Eindruck das man dort NV50 Technologie findet hatte ich bisher eigentlich nicht.
nVidia und Sony haben mehrmals gesagt, dass der RSX Technologien beinhaltet, die erst in der übernächsten GPU von nVidia zu sehen sein werden.

Das Interface zu tauschen ist nicht mehr Aufwand als der Wechsel von AGP zu PCIe. Vorallem da nVidia die IP dafür wohl weitgehend fertig von Sony/IBM bekommen hat.
Abwarten. Ich würde annehmen, dass der RSX etwas mehr angepasst wurde zur effizienten Kommunikation mit dem Cell. Ich würde da erstmal abwarten bis der RSX vorgestellt wird, um zu sehen wie das Cellinterface implementiert wurde.

BTW ist für mich das Thema RSX und eDRAM noch nicht gegessen. Ich würde mich nicht wundern, wenn der RSX über eDRAM verfügt.

Konsolenfreund

SKYNET
2005-06-02, 19:39:34
Niemals! höchstens etwa 450-460mhz einzig der Speichertakt wird falls eben die Ultra kommt höher liegen.


glaubst doch nicht das bei 0.09µ, die ultra nur 30Mhz mehr als die 0.11µ GTX hat. :|

Demirug
2005-06-02, 19:41:11
nVidia und Sony haben mehrmals gesagt, dass der RSX Technologien beinhaltet, die erst in der übernächsten GPU von nVidia zu sehen sein werden.

Nächste. Ich habe mir die Stelle in der Pressekonferenz extra mehrmals angehört.

Abwarten. Ich würde annehmen, dass der RSX etwas mehr angepasst wurde zur effizienten Kommunikation mit dem Cell. Ich würde da erstmal abwarten bis der RSX vorgestellt wird, um zu sehen wie das Cellinterface implementiert wurde.

Die notwendige Technik hat nVidia mit der "Turbo Cache" Technologie. Wie gesagt muss da nur das PCIe Interface getauscht werden.

BTW ist für mich das Thema RSX und eDRAM noch nicht gegessen. Ich würde mich nicht wundern, wenn der RSX über eDRAM verfügt.

Konsolenfreund

Sehr sehr unwahrscheinlich.

robbitop
2005-06-02, 19:53:12
Der RSX hat wenig mit dem G70 zu tun, nur mal so am Rande. Der RSX beinhaltet Technologien, die erst mit dem NV50 kommen und ein extra Dateninterface zum Cell.

Konsolenfreund
RSX ist wie G70 und G80 ein NV40 Derivat. Wobei es sehr sehr nahe an G70 liegt (wegen der Specs).

Gast
2005-06-02, 19:53:50
Nächste. Ich habe mir die Stelle in der Pressekonferenz extra mehrmals angehört.
Mhh. Vor der E3 haben sie immer von Technolgien aus der übernächsten Generation gesprochen.

Die notwendige Technik hat nVidia mit der "Turbo Cache" Technologie. Wie gesagt muss da nur das PCIe Interface getauscht werden.
Ok, wenn Du das sagst. Ich dachte da die SPEs direkt abgegriffen werden können, würde man da doch noch tiefergehendere Änderungen vornehmen.

Sehr sehr unwahrscheinlich.
Finde ich nicht. Erstens mal hat Sony schon beim GS einen hervorragend angebundenen eDRAm gehabt, also sollte das KnowHow da sein und zweitens ist es mir schleierhaft, wie man AA hinbekommen will bei hohen Auflösungen ohne eDRAM.


Konsolenfreund

Gast
2005-06-02, 19:54:47
RSX ist wie G70 und G80 ein NV40 Derivat. Wobei es sehr sehr nahe an G70 liegt (wegen der Specs).
Welche Specs geben denn Aufschluss über die Fähigkeiten des RSX? Habe ich was verpasst?

Konsolenfreund

robbitop
2005-06-02, 19:55:25
Finde ich nicht. Erstens mal hat Sony schon beim GS einen hervorragend angebundenen eDRAm gehabt, also sollte das KnowHow da sein und zweitens ist es mir schleierhaft, wie man AA hinbekommen will bei hohen Auflösungen ohne eDRAM.


Konsolenfreund

55GB/sek reichen nicht für AA bei höheren Auflösungen? :|

robbitop
2005-06-02, 19:56:10
Welche Specs geben denn Aufschluss über die Fähigkeiten des RSX? Habe ich was verpasst?

Konsolenfreund
Du kannst dir die Infos im Netz anschauen und in der Präsentation. Außerdem hat Wavey schon einiges dazu gesagt. Die OPS/sek treffen dann taktneutralisiert sogar zu.

Demirug
2005-06-02, 19:57:18
Ok, wenn Du das sagst. Ich dachte da die SPEs direkt abgegriffen werden können, würde man da doch noch tiefergehendere Änderungen vornehmen.

Da die SPEs am gleichen Ringbus hängen wie das Interface muss man da nichts zusätzliches machen.

Finde ich nicht. Erstens mal hat Sony schon beim GS einen hervorragend angebundenen eDRAm gehabt, also sollte das KnowHow da sein und zweitens ist es mir schleierhaft, wie man AA hinbekommen will bei hohen Auflösungen ohne eDRAM.


Konsolenfreund

Wenn man schlau rendert reicht die Bandbreite. Hätte das Teil EDRAM wäre das gesagt worden aleine um der XBox 360 eine reinzuwürgen.

Gast
2005-06-02, 19:58:47
55GB/sek reichen nicht für AA bei höheren Auflösungen? :|
Schon, aber es sind ja "nur" ~ 45GB/s - XDA + GDDR3. Die 33GB/s zum Cell/XDA sind ja nicht gleich dem Speicherdurchsatz des XDA Speichers. Zum anderen müsste dann der Frambuffer splitbar sein, um ihn auf XDA und GDDR3 aufteilen zu können.

Konsolenfreund

Quasar
2005-06-02, 20:00:55
nVidia und Sony haben mehrmals gesagt, dass der RSX Technologien beinhaltet, die erst in der übernächsten GPU von nVidia zu sehen sein werden.

Damit kann genausogut das XDR-Interface gemeint sein.

edit:
Allerschlimmstenfalls könnte sogar der 0,09µ-Herstellungsprozess gemeint sein.

Gast
2005-06-02, 20:05:15
Da die SPEs am gleichen Ringbus hängen wie das Interface muss man da nichts zusätzliches machen.
Ok, das leuchtet mir ein.

Wenn man schlau rendert reicht die Bandbreite. Hätte das Teil EDRAM wäre das gesagt worden aleine um der XBox 360 eine reinzuwürgen.
Aber im Endeffekt wurde doch wirklich sehr wenig zum RSX gesagt. Und ein eDRAM wäre nunmal ideal und folgerichtig nach dem GS der PS2. Und vielleicht hat Sony noch nichts zum eDRAM gesagt, weil man noch keine finalen Specs hat, jedenfalls für die Serienproduktion. Und auch ohne das vermeintliche vorhande eDRAM zu erwähnen, hat Sony auf der E3 schon genug gepunktet gegenüber der XBox 360 was das Marketing angeht.

Wäre doch komisch, wenn Microsoft das eDRAM Konzept der PS2 übernimmt und sogar weiterntwickelt, und Sony es zum eigenen Nachteil nicht weiter verfolgt.

Konsolenfreund

Gast
2005-06-02, 20:10:03
Damit kann genausogut das XDR-Interface gemeint sein.

edit:
Allerschlimmstenfalls könnte sogar der 0,09µ-Herstellungsprozess gemeint sein.
Da hast Du natürlich Recht. Im Endeffekt muss das garnichts heißen. Jedenfalls wurde das immer so hingestellt von Sony, dass der RSX ein G70 Abkömmling wird, der schon Technolgien des Folgechips beinhaltet, was auch immer das heißen mag in der euphorischen Marketingsprache.

Konsolenfreund

robbitop
2005-06-02, 20:14:31
Schon, aber es sind ja "nur" ~ 45GB/s - XDA + GDDR3. Die 33GB/s zum Cell/XDA sind ja nicht gleich dem Speicherdurchsatz des XDA Speichers. Zum anderen müsste dann der Frambuffer splitbar sein, um ihn auf XDA und GDDR3 aufteilen zu können.

Konsolenfreund
Wieso muss der Framebuffer splitbar sein? Für den Framebuffer kann der GDDR3 genutzt werden und fürs Textursampling und den Vertexcache das XDR Interface. So kann man die Bandbreite auch gut aufteilen.

robbitop
2005-06-02, 20:16:16
Ok, das leuchtet mir ein.


Aber im Endeffekt wurde doch wirklich sehr wenig zum RSX gesagt. Und ein eDRAM wäre nunmal ideal und folgerichtig nach dem GS der PS2. Und vielleicht hat Sony noch nichts zum eDRAM gesagt, weil man noch keine finalen Specs hat, jedenfalls für die Serienproduktion. Und auch ohne das vermeintliche vorhande eDRAM zu erwähnen, hat Sony auf der E3 schon genug gepunktet gegenüber der XBox 360 was das Marketing angeht.

Wäre doch komisch, wenn Microsoft das eDRAM Konzept der PS2 übernimmt und sogar weiterntwickelt, und Sony es zum eigenen Nachteil nicht weiter verfolgt.

Konsolenfreund
Sony entwickelte die GPU der PS2. Nun entwickelte NV diese. Es ist eben eine andere Philosophie. Keine Weiterentwicklung.

Gast
2005-06-02, 20:29:05
Wieso muss der Framebuffer splitbar sein? Für den Framebuffer kann der GDDR3 genutzt werden und fürs Textursampling und den Vertexcache das XDR Interface. So kann man die Bandbreite auch gut aufteilen.
Ja aber die 22GB/s beim GDDR3 reichen doch nun wirklich nicht aus, gerade da der Framebuffer keine 256MB braucht und dementsprechend noch andere Daten über den GDDR3 Bus fließen.

Konsolenfreund

Gast
2005-06-02, 20:33:37
Sony entwickelte die GPU der PS2. Nun entwickelte NV diese. Es ist eben eine andere Philosophie. Keine Weiterentwicklung.
Das stimmt. Die Frage ist nun wieviel Einfluss/Wünsche Sony hatte. Ich kann mir nicht vorstellen, dass der RSX einfach nur ein leicht modifizierter G70 ist, dessen PCI Interface einfach nur gegen ein Cell Interface ersetzt wurde. Sony und nVidia werden sich da schon zusammengesetzt haben und die Entwicklung des RSX soll ja schon seit Jahren laufen. Das passt einfach nicht zu Sonys Philosophie einfach nur einen PC Chip zu kaufen.

Konsolenfreund

robbitop
2005-06-02, 20:46:26
Das stimmt. Die Frage ist nun wieviel Einfluss/Wünsche Sony hatte. Ich kann mir nicht vorstellen, dass der RSX einfach nur ein leicht modifizierter G70 ist, dessen PCI Interface einfach nur gegen ein Cell Interface ersetzt wurde. Sony und nVidia werden sich da schon zusammengesetzt haben und die Entwicklung des RSX soll ja schon seit Jahren laufen. Das passt einfach nicht zu Sonys Philosophie einfach nur einen PC Chip zu kaufen.

Konsolenfreund
Ich glaube nicht, dass irgendein IHV extra ein eigenes Design für jemanden baut. Dafür müsste derjenige dann schon 400Mio $ Entwicklungskosten auf den Tisch legen. I.d.R. bietet man ein Design an und dann wird entschieden obs passt oder nicht. Detailänderungen sind sicher drin, mehr glaube ich nicht.
ATI b.s.w. hatte R500 eh in der Schublade. R400 und R500 wurden eh entwicklet, allerdings gecancled aufgrund der zu geringen Leistung.
Der Framebuffer ist allerdings nicht 256MiB groß. Allerdings kann man auch hier teiles des Textursamplings einfließen lassen. Ich gehe allerdings davon aus, dass RSX das alles recht flexibel partitionieren kann.

Gast
2005-06-02, 20:55:51
Ich glaube nicht, dass irgendein IHV extra ein eigenes Design für jemanden baut. Dafür müsste derjenige dann schon 400Mio $ Entwicklungskosten auf den Tisch legen. I.d.R. bietet man ein Design an und dann wird entschieden obs passt oder nicht. Detailänderungen sind sicher drin, mehr glaube ich nicht.
ATI b.s.w. hatte R500 eh in der Schublade. R400 und R500 wurden eh entwicklet, allerdings gecancled aufgrund der zu geringen Leistung.
Der Framebuffer ist allerdings nicht 256MiB groß. Allerdings kann man auch hier teiles des Textursamplings einfließen lassen. Ich gehe allerdings davon aus, dass RSX das alles recht flexibel partitionieren kann.
Eine komplette Neuentwicklung erwarte ich ja auch nicht, aber beim R500 sieht man schon wie ein Konsolenchip auszusehen hat. Und das R500 Design soll schon so wie es ist von Microsoft so in Auftrag gegeben worden sein. Das waren konkrete Wünsche seitens Microsoft, einmal was die Shaderunits angeht und auch was den eDRAM angeht. Das hat ATI selbst so gesagt. Und nun Frage ich mich, wieso der RSX nicht ähnlich den Wünschen Sonys anpasst sein soll inkl. eDRAM, bei dem Sony KnowHow mit einfließen lassen kann vom GS, auch wenn dieser vom Core nichts mit dem RSX zu tun hat.

Konsolenfreund

Gast
2005-06-02, 20:58:31
Und zum Framebuffer muss man dann ganz klar sagen, dass der Rest vom 256MB GDDR3 RAM seine Daten irgendwo durchschicken muss und dann erscheinen mir 22GB/s minus der Texturdaten einfach zu wenig.

konsolenfreund

Demirug
2005-06-02, 21:08:58
Eine komplette Neuentwicklung erwarte ich ja auch nicht, aber beim R500 sieht man schon wie ein Konsolenchip auszusehen hat. Und das R500 Design soll schon so wie es ist von Microsoft so in Auftrag gegeben worden sein. Das waren konkrete Wünsche seitens Microsoft, einmal was die Shaderunits angeht und auch was den eDRAM angeht. Das hat ATI selbst so gesagt. Und nun Frage ich mich, wieso der RSX nicht ähnlich den Wünschen Sonys anpasst sein soll inkl. eDRAM, bei dem Sony KnowHow mit einfließen lassen kann vom GS, auch wenn dieser vom Core nichts mit dem RSX zu tun hat.

Konsolenfreund

Der R500 ist die R400 Weiterentwicklung. Eigentlich wollte ATI den R400 schon für den PC einsetzten hat sich dann aber dazu entschlossen lieber einen verbesserten R300 zu bringen weil man den R400 nicht für performant genug gehalten hat.

Gast
2005-06-02, 21:12:40
Der R500 ist die R400 Weiterentwicklung. Eigentlich wollte ATI den R400 schon für den PC einsetzten hat sich dann aber dazu entschlossen lieber einen verbesserten R300 zu bringen weil man den R400 nicht für performant genug gehalten hat.
Das mag sein. Aber die R400 Weiterentwicklung, der R500, wurde nach Wünschen seitens Microsoft entwickelt. Weder die Shaderarchitekur noch das eDRAM ist für den PC Einsatz gedacht und lohnt dort.

Konsolenfreund

Quasar
2005-06-02, 21:16:01
Der R500 ist die R400 Weiterentwicklung. Eigentlich wollte ATI den R400 schon für den PC einsetzten hat sich dann aber dazu entschlossen lieber einen verbesserten R300 zu bringen weil man den R400 nicht für performant genug gehalten hat.
ATi sagt, daß die XBox-360-GPU eigens entwickelt wurde und auf keinem Design für den PC basiert.

robbitop
2005-06-02, 21:19:16
Das mag sein. Aber die R400 Weiterentwicklung, der R500, wurde nach Wünschen seitens Microsoft entwickelt. Weder die Shaderarchitekur noch das eDRAM ist für den PC Einsatz gedacht und lohnt dort.

Konsolenfreund
Weil man einen Fehler machte und diesen durch Plan B (R420/520) ausbesserte (im Gegensatz zu NV). Microsoft hatte da wenig zu schaffen. Zumal eDRAM gar nicht Teil des R500 ist, sondern auf einem extra Package untergebracht ist. Im Nintendo Revolution kommt mit hoher Wahrscheinlichkeit ein R500 Ableger.
Diese Statements sind alle hochgradig PR Verseucht. Da gibts leider wenig Fakten.

robbitop
2005-06-02, 21:19:56
ATi sagt, daß die XBox-360-GPU eigens entwickelt wurde und auf keinem Design für den PC basiert.
ATI sagt viel wenn der Tag lang ist. Sogar bei unserem CeBIT Interview hauten die uns die Taschen voll. PR Kram halt.

reunion
2005-06-02, 21:21:09
Zumal eDRAM gar nicht Teil des R500 ist, sondern auf einem extra Package untergebracht ist.


Was hat das damit zu tun?
Beide Chips wurden von ATi entwickelt und zumindest der extra eDRAM-Chip hat wirklich absolut nichts mit einem Desktopdesign gemein.

ShadowXX
2005-06-02, 21:29:02
ATi sagt, daß die XBox-360-GPU eigens entwickelt wurde und auf keinem Design für den PC basiert.

Man kann sich vieles so hindrehen (damit meine ich jetzt ATI & MS) das in dieser Aussage sogar ein stückchen Wahrheit steckt.....

Aber ernsthaft gesagt, glaubt ATI den Satz wohl selbst nicht.

Schon beim r400 gab die Gerüchte über Unified-Shader......

Was ich mir durchaus vorstehllen kann, ist das ATI vom r400-"Grunddesign" dann nach dem Angebot an MS tatsächlich den r500 Entwichlungstechnisch nur noch auf Konsole ausgelegt hat.
Dabei sind Sie bestimmt dann auch auf ein paar vorschläge von MS eingegangen.

So gesehen, ist der Satz dann natürlich nicht ganz falsch, der da von ATI kommt. Aber es ist eben nur die eine Seite der Wahrheit.

Mich würde sowieso mal interessieren, wer das "Konzept/Design" der Konsole insgesamt erdacht hat? MS alleine? Die Xbox soll ja quasi von nV Designed worden sein, ist die XBox360 von ATI designed?

Zum RSX und Sony...irgendwie hab ich das Gefühl, als wenn nV und Sony nicht ganz so lange an dem Chip zusammengearbeitet haben, wie Sie uns weismachen wollen....Ist nur so ein Bauchgefühl.

Der RSX sieht irgendwie nach "nV2A" aus.....

Demirug
2005-06-02, 21:29:18
ATi sagt, daß die XBox-360-GPU eigens entwickelt wurde und auf keinem Design für den PC basiert.

Nachdem der R400 nicht mehr im PC zum Einsatz gekommen ist stimmt das ja auch, oder?

Gutes Marketing lügt nicht aber dreht sich die Fakten so zu recht das man gut darsteht.

Wir bekommen doch auch schon seit Jahren erzählt das jede neue Chipgeneration ein völlig neues Design darstellt.

ShadowXX
2005-06-02, 21:31:30
Was hat das damit zu tun?
Beide Chips wurden von ATi entwickelt und zumindest der eDRAM-Chip hat wirklich absolut nichts mit einem Desktopdesign gemein.

Er wirkt dadurch aber doch etwas "angeflanscht" bzw. wie "nachgeschoben" in ein sonst schon "halbfertiges" Design welches schon vorhanden war.

Demirug
2005-06-02, 21:31:33
Zum RSX und Sony...irgendwie hab ich das Gefühl, als wenn nV und Sony nicht ganz so lange an dem Chip zusammengearbeitet haben, wie Sie uns weismachen wollen....Ist nur so ein Bauchgefühl.

Der RSX sieht irgendwie nach "nV2A" aus.....

G7A bitte.

Wahrscheinlich hat man ab dem Tag gezählt als man die erste email geschrieben hat.

Demirug
2005-06-02, 21:35:08
Er wirkt dadurch aber doch etwas "angeflanscht" bzw. wie "nachgeschoben" in ein sonst schon "halbfertiges" Design welches schon vorhanden war.

Anders wäre es technisch aber gar nicht gegangen. Für den R500 brauchten sie einen Prozess der sich gut für Logik eignet. Für den Speicher aber einen guten EDRAM Prozess. Wobein die Idee mit dem Speicher aber sowieso ursprünglich nicht von ATI kommt.

Gast
2005-06-02, 21:39:07
Fakt ist nun aber, egal ob der R500 nun in Form eines R400 mal als PC GPU gedacht war, dass der R500 nichts mit einer PC GPU von ATI gemein hat. Weder der Aufbau der Shaderunits, och das eDRAM was FP Logik von ATI enthält. Ähnliches, wenn nicht noch mahr, erwarte ich vom RSX, schlicht weil es nicht zu Sony passt einfach eine PC GPU in deren Konsolen reinzuhauen. Die lange gemeinsame Entwicklungszeit von Sony und nVidia würden sonst auch nicht ins Bild passen, und der Datendurchsatz von 22Gb/s minus der Textursamples, die über den GDDR3 möglich sind, schreit förmlich nach eDRAM für den Frambuffer, gerade da Sony schon mal schnellen eDRAm auf dem GS implementiert hatte und nun sogar Microsoft das Konzept aufgreift.

Aber ist ja alles sowieso nur Spekulation, da man im Grunde fast nichts über den RSX weiß. Sony sich hat meiner Meinung nach nicht ohne Grund so bedeckt gehalten. Die wollten halt noch nichts genaues zum RSX sagen, weil sie imho noch abwägen, was sie in Serie zum angestrebten Zeitpunkt bauen können.

Konsolenfreund

ShadowXX
2005-06-02, 21:42:19
G7A bitte.

Wahrscheinlich hat man ab dem Tag gezählt als man die erste email geschrieben hat.

Deshalb meine "" (tütelchen)....

Anders wäre es technisch aber gar nicht gegangen. Für den R500 brauchten sie einen Prozess der sich gut für Logik eignet. Für den Speicher aber einen guten EDRAM Prozess. Wobein die Idee mit dem Speicher aber sowieso ursprünglich nicht von ATI kommt.

Wie ich schon erwähnte....man wird nachdem man den r500 als PC-Design beerdigt hatte relativ offen für Vorschläge von MS gewesen sein.

Die zusätzlichen technischen Probs hatte ich allerdings nicht auf der Rechnung....

robbitop
2005-06-02, 21:57:32
Fakt ist nun aber, egal ob der R500 nun in Form eines R400 mal als PC GPU gedacht war, dass der R500 nichts mit einer PC GPU von ATI gemein hat. Weder der Aufbau der Shaderunits, och das eDRAM was FP Logik von ATI enthält. Ähnliches, wenn nicht noch mahr, erwarte ich vom RSX, schlicht weil es nicht zu Sony passt einfach eine PC GPU in deren Konsolen reinzuhauen. Die lange gemeinsame Entwicklungszeit von Sony und nVidia würden sonst auch nicht ins Bild passen, und der Datendurchsatz von 22Gb/s minus der Textursamples, die über den GDDR3 möglich sind, schreit förmlich nach eDRAM für den Frambuffer, gerade da Sony schon mal schnellen eDRAm auf dem GS implementiert hatte und nun sogar Microsoft das Konzept aufgreift.

Aber ist ja alles sowieso nur Spekulation, da man im Grunde fast nichts über den RSX weiß. Sony sich hat meiner Meinung nach nicht ohne Grund so bedeckt gehalten. Die wollten halt noch nichts genaues zum RSX sagen, weil sie imho noch abwägen, was sie in Serie zum angestrebten Zeitpunkt bauen können.

Konsolenfreund
1. R500 sollte ebenso für den PC kommen.
2. einen eDRAM Chip zu "entwickeln" ist wohl eher das geringste Problem. eDRAM muss man nicht extra entwickeln und die ROPs in diesen Chip hineinzutun ebenso nicht.
3. Die Shaderunits haben sich vom R400 hin zum R500 IMO kaum geändert. Es ist noch dieselbe Architektur. ALUs designed man nicht jedes Jahr neu.
4. Wo soll NV die Ressourcen für einen extra Konsolenchip hergenommen haben? Man hatte die letzten Jahre genug mit CineFX 1/2/3 den Chipsätzen und dem PDA Beschleuniger zu tun. ATI hat lediglich ein PC Projekt recycled und es für die Konsole gebracht. Für den PC gabs dann nur aufgebohrte Vorgänger. Da wird nichts extra entwickelt. So könnte man nie 400 Mio $ für die Entwicklungskosten und zusätzlich noch Gewinn rausschlagen.

ShadowXX
2005-06-02, 22:21:23
Die lange gemeinsame Entwicklungszeit von Sony und nVidia würden sonst auch nicht ins Bild passen......

Wie Demi schon erwähnte....kreative Zählweise. Haben alle (Sony,MS,ATI&nV) auch bei den Tech-Specs Erfahrung mit....


Aber ist ja alles sowieso nur Spekulation, da man im Grunde fast nichts über den RSX weiß. Sony sich hat meiner Meinung nach nicht ohne Grund so bedeckt gehalten. Die wollten halt noch nichts genaues zum RSX sagen, weil sie imho noch abwägen, was sie in Serie zum angestrebten Zeitpunkt bauen können.

Konsolenfreund

Der RSX soll AFAIK demnächst sein Tapeout "bekommen"....da wird bestimmt nichts mehr dran geändert...(Bugs beseitigen ausgenommen).

Wenn der RSX eDram oder sonstige besonderheiten hätte, hätte es Sony bei der E3 an die große Glocke gehängt.....allein wegen der XBox360 präsentation.

Aussserdem wurde schon von mehrern Seiten über ein 24Pipe Design @ 550MHz "geredet" ....das hört sich extrem nach G70/80 an.

DrumDub
2005-06-02, 23:14:21
1. R500 sollte ebenso für den PC kommen.
natürlich sind sich r400 und r500 sehr ähnlich, aber die aussage stimmt imho dennoch nicht.

3. Die Shaderunits haben sich vom R400 hin zum R500 IMO kaum geändert. Es ist noch dieselbe Architektur. ALUs designed man nicht jedes Jahr neu. ja.

Demirug
2005-06-02, 23:19:07
natürlich sind sich r400 und r500 sehr ähnlich, aber die aussage stimmt imho dennoch nicht.

Wenn sie den R400 gebracht hätte wäre auch eine R500 Variante für den PC gekommen.

Demirug
2005-06-02, 23:23:07
Aussserdem wurde schon von mehrern Seiten über ein 24Pipe Design @ 550MHz "geredet" ....das hört sich extrem nach G70/80 an.

Wobei ich mich Frage ob es wirklich ein 24 Pipe Design ist oder nicht doch eher ein 28 Pipe Design. Beim Cell hat sich Sony ja auch eine Sicherheitsreserve gelasen.

Gast
2005-06-02, 23:31:15
1. R500 sollte ebenso für den PC kommen.
2. einen eDRAM Chip zu "entwickeln" ist wohl eher das geringste Problem. eDRAM muss man nicht extra entwickeln und die ROPs in diesen Chip hineinzutun ebenso nicht.
3. Die Shaderunits haben sich vom R400 hin zum R500 IMO kaum geändert. Es ist noch dieselbe Architektur. ALUs designed man nicht jedes Jahr neu.
4. Wo soll NV die Ressourcen für einen extra Konsolenchip hergenommen haben? Man hatte die letzten Jahre genug mit CineFX 1/2/3 den Chipsätzen und dem PDA Beschleuniger zu tun. ATI hat lediglich ein PC Projekt recycled und es für die Konsole gebracht. Für den PC gabs dann nur aufgebohrte Vorgänger. Da wird nichts extra entwickelt. So könnte man nie 400 Mio $ für die Entwicklungskosten und zusätzlich noch Gewinn rausschlagen.
1. Quelle?
2. Ja dann ist das für den RSX wohl auch kein Problem
3. Quelle?
4. Der RSX ist ein gemeinsames Projekt von Sony und nV. Und Sony wird bestimmt viel dafür gezahlt haben. Woher kennst Du Sonys und nvdias Recourcenaufteilung?

Du stellst irgenwie deine Mutmaßungen so hin, als ob sie Fakt wären. :|

Konsolenfreund

Gast
2005-06-02, 23:34:56
Der RSX soll AFAIK demnächst sein Tapeout "bekommen"....da wird bestimmt nichts mehr dran geändert...(Bugs beseitigen ausgenommen).

Wenn der RSX eDram oder sonstige besonderheiten hätte, hätte es Sony bei der E3 an die große Glocke gehängt.....allein wegen der XBox360 präsentation.

Aussserdem wurde schon von mehrern Seiten über ein 24Pipe Design @ 550MHz "geredet" ....das hört sich extrem nach G70/80 an.
Geändert werden könte durchaus noch was auf den letzten Drücker. Entscheidungen wie 32 oder 24 Pipes oder die "vermeintliche eDRAM Größe.

Und an die große Glocke musste Sony wohl garnichts hängen, da sie die Xbox 360 in Sachen Präsentation sowieo stehen lassen hat. Fakt ist, dass sich Sony bzgl. des RSX bedeckt gehalten hat und ein trifftiger Grund wäre, dass man zum Zeitpunkt der E3 die finalen Specs noch nicht festgelegt hatte, um noch reagieren zu können.

Konsolenfreund

Gast
2005-06-02, 23:40:36
Wenn sie den R400 gebracht hätte wäre auch eine R500 Variante für den PC gekommen.
Haben sie aber nicht und das nicht ohne Grund. Unified Shader zu bringen, die unter DX9 ihre Vorteile nicht auspielen können, haben sie nicht umsonst stecken lassen. Und ob der R500 so ausgesehen hätte, wenn er für den PC gekommen wäre bezweifel ich. ATI hat das R500 Design, was auf zwar auf dem R400 (für PC entwickelt) basiert, speziell für die Xbox entwickelt und da werden sie wohl auf die Wünsche von Microsoft eingegangen sein, denn der R500 wird nicht auf dem PC erscheinen und ist eine Entwicklung für die XBox, egal was die Ausgangsbasis war.

Konsolenfreund