PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI Entry Karte X300 in 0.11fertigung


dildo4u
2004-05-30, 00:31:46
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2004/05/28&pages=A7&seq=41

"ATI Technologies will showcase its first 0.11-micron graphics chip, the Radeon X300 (formally named RV370), at Computex Taipei 2004 from June 1-5, according to market sources. The Radeon X300 chips aim at the entry-level card market with prices below US$100."

EDIT: Ach mist kann das mal bidde ein mod in den ATI sammelthread verschieben

Raff
2004-05-30, 12:23:40
Die Karte müsste ja auch auf Grund ihrer wenigen Pipes enorme Taktreserven haben ... Naja, eigentlich egal, da das Teil selbst extrem übertaktet zu lahm sein wird. ;)

MfG,
Raff

WEGA
2004-05-30, 16:15:14
jup, die x300 is die low-end-karte. sowas wie heute ne 9200 oder 5200

[dzp]Viper
2004-05-30, 16:16:48
hm

wenn ATI das bereits jetzt schafft, dann könnte der refresh des r420 vielleicht wirklich schon on 0,11µm kommen :o

Winter[Raven]
2004-05-30, 16:25:04
Und was soll bitteschön daran so "NEU" sein? Ich mein Nvidia kommt bei ihren Mid-Rage Produkten auch mit 0.11µ.

reunion
2004-05-30, 16:41:07
Original geschrieben von dildo4u
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2004/05/28&pages=A7&seq=41

"ATI Technologies will showcase its first 0.11-micron graphics chip, the Radeon X300 (formally named RV370), at Computex Taipei 2004 from June 1-5, according to market sources. The Radeon X300 chips aim at the entry-level card market with prices below US$100."

EDIT: Ach mist kann das mal bidde ein mod in den ATI sammelthread verschieben

So wie es aussieht ist jetzt ATI nichtmehr so "vorsichtig" was neue Fertigungsprozesse angeht wie in den letzten Jahren.

\\Edit:Dell setzt auf PCI Express

28.05.2004 11:19 Uhr - Laut einem Bericht hat Dell bei MSI PCI-Express-Grafikkarten (x16) für Komplett-PCs bestellt, die bereits Ende Juni auf den Markt kommen sollen. Ob es sich dabei um Grafikkarten mit Ati- oder Nvidia-Chipsätzen handelt, ist unklar. Sowohl Ati als auch Nvidia werden die kommende Chipgeneration auch in PCI-Express-Versionen auf den Markt bringen, sobald der Markt danach verlangt. MSI ist nicht nur im Retail-Markt tätig, sondern produziert auch große Stückzahlen für Firmen wie Dell oder Medion.
http://www.pcgames.de/?article_id=316220

Sieht fast so aus als würde es sich dabei um den RV370 handeln ;)

seahawk
2004-05-30, 16:41:16
Original geschrieben von [dzp]Viper
hm

wenn ATI das bereits jetzt schafft, dann könnte der refresh des r420 vielleicht wirklich schon on 0,11µm kommen :o

Es wird kein 0,11 für High-End-Chips geben. Der nächste Schritt dort soll 0,09 sein.

[dzp]Viper
2004-05-30, 17:54:41
Original geschrieben von seahawk
Es wird kein 0,11 für High-End-Chips geben. Der nächste Schritt dort soll 0,09 sein.

wo steht das schwarz auf weiss?
das ist ebenfals nur ein gerücht ;)

Aber lass uns abwarten...

Original geschrieben von Winter[Raven]
Und was soll bitteschön daran so "NEU" sein? Ich mein Nvidia kommt bei ihren Mid-Rage Produkten auch mit 0.11µ.

nein falsch - NV will oder kann die massenproduktion von 0,11µm chips erst zum jahreswechsel beginnen

Auch nVidia kündigte bereits Ende Februar die Umstellung auf den feineren Fertigungsprozess an, in bisherigen Meldungen geht man jedoch von einer wirklichen Umstellung erst Anfang des Jahres 2005 aus

http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/ati_110_nanometer/

@ Winter - es wäre schön wenn du aussagen wie deiner, mit quellen abdecken würdest so wie das hier viele machen, wenn sie etwas behaupten...

seahawk
2004-05-30, 18:22:10
AFAIK bietet TSMC kein low-k für 0,11 an. Ob der Prozess dadurch für High-End-Lösungen besser geeignet ist als 0,13 low-k erscheint mir im Hinblick auf die lEckströme dieser Transistor/Takt-Monster fraglich.

http://www.tsmc.com.tw/english/technology/download/Technology_Roadmap.pdf

Wenn sich 0,09 verzögert, dann ist es imho denkbar, dass der R500 in 0,11 kommt. Für einen Refresh des R420 ist ein anderer Prozess imho unwahrscheinlich.

Börk
2004-05-30, 18:42:07
Original geschrieben von seahawk
AFAIK bietet TSMC kein low-k für 0,11 an. Ob der Prozess dadurch für High-End-Lösungen besser geeignet ist als 0,13 low-k erscheint mir im Hinblick auf die lEckströme dieser Transistor/Takt-Monster fraglich.

http://www.tsmc.com.tw/english/technology/download/Technology_Roadmap.pdf

Wenn sich 0,09 verzögert, dann ist es imho denkbar, dass der R500 in 0,11 kommt. Für einen Refresh des R420 ist ein anderer Prozess imho unwahrscheinlich.
low-k wafer sind teuer.
Gerade im low-end Bereich macht 0.11 mehr Sinn als 0.13 low-k, eben wegen den billigeren wafern und der kleineren Die-Fläche. Auch wenn dadurch die Taktbarkeit nicht so doll sein sollte (Leckströme, Probleme mitm Prozess), das ist im low-end Breich nicht so schlimm, da die Karte eh nicht so schnell sein muss.
Bzw. wieviele Pipes soll der RV370 denn haben?
Ich schätze mal auf nen RV360 mit ein paar Abspeckungen (evtl. VS...), ergo 4 Pipelines, alles andere müsste doch zu lahm sein...

Gruß,
Börk

[dzp]Viper
2004-05-30, 19:10:17
Original geschrieben von seahawk
AFAIK bietet TSMC kein low-k für 0,11 an. Ob der Prozess dadurch für High-End-Lösungen besser geeignet ist als 0,13 low-k erscheint mir im Hinblick auf die lEckströme dieser Transistor/Takt-Monster fraglich.

http://www.tsmc.com.tw/english/technology/download/Technology_Roadmap.pdf

Wenn sich 0,09 verzögert, dann ist es imho denkbar, dass der R500 in 0,11 kommt. Für einen Refresh des R420 ist ein anderer Prozess imho unwahrscheinlich.

ah das ist doch mal ein wort - thx :)

Black-Scorpion
2004-05-30, 19:11:10
So neu ist das nicht. ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=144993

Gast
2004-05-30, 19:40:30
najo, doll ist es ned. der Refresh des R420 wird definitiv nicht als 0,11µm kommen, da es dafür sowohl bei TSMC als auch bei IBM kein low-k gibt. Es ist für diesen Prozess imho sogar unmöglich. erst ab 0,09µm wird es wieder low-k geben (stand irgendwo im b3d forum (oder wars doch irgendwo aners ??? ))

DrumDub
2004-06-01, 13:26:38
Original geschrieben von Gast
najo, doll ist es ned. der Refresh des R420 wird definitiv nicht als 0,11µm kommen, da es dafür sowohl bei TSMC als auch bei IBM kein low-k gibt. Es ist für diesen Prozess imho sogar unmöglich. erst ab 0,09µm wird es wieder low-k geben (stand irgendwo im b3d forum (oder wars doch irgendwo aners ??? ))

ist korrekt.

hier gibts details zum x300: http://www.anandtech.com/video/showdoc.html?i=2066&p=3

Quasar
2004-06-01, 13:33:33
Und auf deutsch:
http://www.computerbase.de/artikel/hardware/grafikkarten/ati_pci_expressgrafikkarten/

ravage
2004-06-01, 13:47:14
Und von aths:

http://www.3dcenter.org/artikel/2004/06-01.php ;)

aths
2004-06-01, 13:59:56
Original geschrieben von Quasar
Und auf deutsch:
http://www.computerbase.de/artikel/hardware/grafikkarten/ati_pci_expressgrafikkarten/ Und auf 3DCenter: http://www.3dcenter.org/artikel/2004/06-01.php

edit: War wieder zu langsam ;( :schleich:

DrumDub
2004-06-01, 14:03:43
Original geschrieben von aths
Und auf 3DCenter: http://www.3dcenter.org/artikel/2004/06-01.php

edit: War wieder zu langsam ;( :schleich:

:tröst:

edit: sehr interessante technische zusatzinfos. :up:

leider wirkt der artikel dadurch etwas unstrukturiert. die technische seite hätte man wohl besser separat in einem eigenem abschnitt behandelt.

aths
2004-06-01, 15:51:44
Das beste wäre, den R420-Artikel zu updaten. Allerdings würde kaum jemand dann den Artikel noch mal neu lesen, nur um zu wissen, was sich geändert hat. Andererseits, wer nun das Update liest, der sollte auch den "Grundartikel" kennen.

Das Update soll 'unterhaltsam' geschrieben sein, so dass man im Laufe des Textes einiges neues erfährt. Dabei kam es mir weniger darauf an, die mir erst kürzlich bekanntgewordenen Dinge einfach zu nennen und mehr, sie auch einzuordnen.

DrumDub
2004-06-01, 16:09:14
Original geschrieben von aths
Das beste wäre, den R420-Artikel zu updaten. Allerdings würde kaum jemand dann den Artikel noch mal neu lesen, nur um zu wissen, was sich geändert hat. Andererseits, wer nun das Update liest, der sollte auch den "Grundartikel" kennen.

das ist mir schon klar.

Das Update soll 'unterhaltsam' geschrieben sein, so dass man im Laufe des Textes einiges neues erfährt. Dabei kam es mir weniger darauf an, die mir erst kürzlich bekanntgewordenen Dinge einfach zu nennen und mehr, sie auch einzuordnen.

ich habe angefangen den artikel zu lesen und dachte es geht um die neuen karten und dann kam im siebten absatz auf einmal neue infos zur technik des nv40/r420. wie gesagt, inhaltlich völlig o.k., aber von der struktur her etwas verwirrend. eine zwischenüberschrift oder eine einleitung, dass jetzt was zur technik kommt, hätte ich besser gefunden.

p.s.: in dem artikel steht was von 180 mio. transistoren. welche zahl ist denn nun richtig? wonders hab ich eigentlich immer 160 mio. gelesen.

aths
2004-06-01, 16:11:27
Original geschrieben von DrumDub
p.s.: in dem artikel steht was von 180 mio. transistoren. welche zahl ist denn nun richtig? wonders hab ich eigentlich immer 160 mio. gelesen. Das ist Leos Schuld!! 160 ist für die AGP-Version richtig, zum PCI-E-Chip sagt ATI nur 160+.

DrumDub
2004-06-01, 16:15:49
Original geschrieben von aths
Das ist Leos Schuld!! 160 ist für die AGP-Version richtig, zum PCI-E-Chip sagt ATI nur 160+.

ah... dacht ich mir schon fast. in seinem eigenen benchmark-review stands ja auch anfangs falsch drin.

MechWOLLIer
2004-06-01, 17:23:44
Original geschrieben von aths
Das ist Leos Schuld!! 160 ist für die AGP-Version richtig, zum PCI-E-Chip sagt ATI nur 160+.

Benötigt eine Schnittstelle wie AGP oder PCI-E wirklich Transistoren auf dem Chip?
Oder hat ATI noch an etwas anderem gebastelt?

seahawk
2004-06-01, 17:44:48
Damit wird 3dc also nur von dem R420 genutzt. Das spricht aber nicht für eine Verbreitung des Standards.

Abteil der High-End-Chips am Gesamtmarkt und davon Anteil der R420.

Das lohnt sich doch für keinen Entwickler, der nicht Geld direkt von ATI kriegt.

Gast
2004-06-02, 00:00:31
Also hier ist die PM von Ati:
http://www.ati.com/companyinfo/press/2004/4753.html

up

betasilie
2004-06-02, 14:39:06
Da der RV370 wohl technologisch dem RV360 entspricht, dürfte ATI den Konsumenten wohl einen riesigen Gefallen getan haben. Eine "echte" DX9 Karte im Lowcostsegment, im Gegensatz zu dieser miesen 5200er Mogelpackung in Hinsicht auf moderne Games, ist schon wirklich eine tolle Sache.

Ich denke der Markt wird die X300 hervorragend annehmen, was ATI zu gönnen wäre bei so einem Vorstoß.

Mal schauen, ob NV darauf reagiert und endlich auch eine Lösung bringt, die bei shaderlastigen Applikationen völlig einbricht.

betasilie
2004-06-02, 14:39:49
Original geschrieben von seahawk
Damit wird 3dc also nur von dem R420 genutzt. Das spricht aber nicht für eine Verbreitung des Standards.

Abteil der High-End-Chips am Gesamtmarkt und davon Anteil der R420.

Das lohnt sich doch für keinen Entwickler, der nicht Geld direkt von ATI kriegt.
Nun, das sehe ich völlig anders, weil a) die Technik opensource ist und b) leicht zu implementieren.

Winter[Raven]
2004-06-02, 15:10:21
@ betareverse

Du hast den vollen Durchblick ...:lolaway:

a) wir wollen vön Mögelpackung erst garnicht reden, ich sag nur R900 und 9200

b) 3dc leicht zu implementieren ... ahja ... du legst aber nacher Beweise dafür vor oder?

c) Du erwartest doch nicht wirklich dass NV ähnliches wie 5200 liefert?

Sorry, aber du bist ein NARR oder du bist wirklich mehr ATI verblendet als ich dachte :(

// Edit:

Im gegensatz zu ATI werden alle NV4x Chips 3.0 HW sein, ob langsamm oder schnell ist eine andere Sache.
Was Nv bittet ist die neuste Technik (3.0, VideoProzessor) und sicherlich auch die Performace.

Ich sehe keinen Grund zu einem Steinzeitchip zugreifen, wo ich für das selbe Geld, mindestens eine Preformace Ebenbürtige(von der Features wollen wir garnicht reden) NV Karte haben kann.

seahawk
2004-06-02, 15:33:40
Original geschrieben von betareverse
Nun, das sehe ich völlig anders, weil a) die Technik opensource ist und b) leicht zu implementieren.

Ist sie leicht zu implementieren ??

Sagte Demi nicht, dass man die Shader daraufabstimmen muss ?

Muss man die Texturen nocht in diesem Format vorhalten ??

Für mich ist 3dc erstmal sowas wie das neue Truform, tolle Idee, aber ob es sich durchsetzt ??

Winter[Raven]
2004-06-02, 15:41:33
Original geschrieben von seahawk
Ist sie leicht zu implementieren ??

Sagte Demi nicht, dass man die Shader daraufabstimmen muss ?

Muss man die Texturen nocht in diesem Format vorhalten ??

Für mich ist 3dc erstmal sowas wie das neue Truform, tolle Idee, aber ob es sich durchsetzt ??

So ist es, die normalmap muss neuegeneriert werden, da 3dc nur ein zweikanal kompressor ist, geht Z verloren, die Programmierer müssen dann die Shader umschreiben damit man diesen Z wieder hinbekommt, das kostet Rechenpower.

Fassen wir zusammen.

1. Normalmaps neu generieren
2. Die Shader umschreiben
3. ob die Rechenleistung ausreicht?

Für mich sind es 2 Schritte zuviel, dbei ist es ungewiss ob die Pixelshader Power dem R420 ned ausgeht wenn der Einsatz von 3DC höher liegt als bei den ATI Demos.

reunion
2004-06-02, 15:41:57
Original geschrieben von seahawk
Für mich ist 3dc erstmal sowas wie das neue Truform, tolle Idee, aber ob es sich durchsetzt ??

Im gegensatz zu damals hat ATI allerdings eine weitaus höheren marktanteil und damit auch weitaus mehr einfluss, zwei Top-Titel (HL2 und SS2) sind bereits mit 3dc unterstütztung ausgestattet und weitere werden sicherlich folgen...

[dzp]Viper
2004-06-02, 15:42:38
Original geschrieben von seahawk
Muss man die Texturen nocht in diesem Format vorhalten ??


also wenn man extra schärfere texturen reinmachen will - ja

man kann 3dc aber auch als kompression nutzen und damit alte texturen komprimieren (wenn ich Demi richtig verstanden habe)
Das würde dann nicht so viel Arbeit machen und Performance bringen.

Aber momentan is das genauso unsicher wie SM3.0 - die frage besteht, wie schnell es von den entwicklern angenommen wird/werden kann

Winter[Raven]
2004-06-02, 15:45:51
Aber momentan is das genauso unsicher wie SM3.0 - die frage besteht, wie schnell es von den entwicklern angenommen wird/werden kann

Laut Quasar:
Ich möchte mal behaupten, daß sie "world leading performance" bringt

Im gegensatz zu damals hat ATI allerdings eine weitaus höheren marktanteil und damit auch weitaus mehr einfluss

Dieser KÖNNTE schneller schrumpfen als es ATI vielleicht lieb ist ... *eg*

[dzp]Viper
2004-06-02, 15:51:49
Original geschrieben von Winter[Raven]
Laut Quasar:


Quasar meinte das ironisch, da sie die einzige firma mit SM3.0 support sind... da ist es egal wie schnell das ist - wenn das extrem langsam ist, haben sie dennoch eine "world leading performance" in sachen SM3.0

du verstehen? ;)

Momentan bahnt sich ja auch an, dass der SM3.0 speed nicht gerade das gelbe vom Ei ist. Demi baut da ja schon was zusammen -ihm fehlt nur ein testsamplle um das ganze zu testen

betasilie
2004-06-02, 16:00:01
Original geschrieben von seahawk
Ist sie leicht zu implementieren ??

Sagte Demi nicht, dass man die Shader daraufabstimmen muss ?

Muss man die Texturen nocht in diesem Format vorhalten ??

Für mich ist 3dc erstmal sowas wie das neue Truform, tolle Idee, aber ob es sich durchsetzt ??
Ja, man muss die Texture und die Shader drauf abstimmen. Mit nachträglichen patchen ist also nix in Sachen 3Dc, was bei SM3.0 ja sehr leicht geht.

Wenn man aber ein Spiel entwickelt, kann man es wohl sehr leicht 3Dc tauglich machen.

Und dass 3Dc funktioniert, sollte klar sein. Der geringe Mehraufwand an Shaderpower lohnt allemal für das Resultat. Die Rubydemo zeigt ja die Vorteile sehr gut und bei HL2, wo sehr viel Normalmaps eingesetzt werden, wird man auch schönes Eyecandy bekommen.

ow
2004-06-02, 16:03:04
Original geschrieben von reunion
Im gegensatz zu damals hat ATI allerdings eine weitaus höheren marktanteil und damit auch weitaus mehr einfluss, zwei Top-Titel (HL2 und SS2) sind bereits mit 3dc unterstütztung ausgestattet und weitere werden sicherlich folgen...


Wie gross ist denn der Marktanteil an 3DC-faehigen Chips? Denn nur die kann man doch hier zaehlen.

reunion
2004-06-02, 16:04:49
Original geschrieben von ow
Wie gross ist denn der Marktanteil an 3DC-faehigen Chips? Denn nur die kann man doch hier zaehlen.

Keine Ahnung =) zurzeit vielleicht 0,01%?

betasilie
2004-06-02, 16:05:32
@ Raven
Willst Du heute dein Punktekonto voll machen?

Und wenn Du Quasar und Demirug quotest, dann doch bitte nur Statements, die Du auch inhaltlich verstehst.

DrumDub
2004-06-02, 16:06:31
Original geschrieben von Winter[Raven]
Du hast den vollen Durchblick ...:lolaway:


soso. wer im glashaus sitzt... siehe: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1868225#post1868225

ich habe nämlich nicht das gefühl, dass du demirugs aussage verstanden hast bzw. was damit für möglichkeiten gegeben sind. dies begreift nämlich nur der, der selber täglich shader programmiert bzw. sich im detail mit der technik beschäftigt.

einfach mal nur stichworte wiedergeben, ohne nen blassen schimmer davon zu haben, wie die technik funktioniert, ist einfach nur langweilig und bringt garnix für die diskussion.

damit unterstellst du übrings betarverse etwas, was du selber praktizierst. doppelmoral rules. :bonk:

btw. ich hab keine ahnung von der shader-programmierung, deshalb geb ich dann auch nicht solche kommentare ab, wenn ich keinen durchblick habe.

zum thema: man kann jetzt keinen nutzen aus 3dc ziehen, genau wie aus sm 3.0. (bis auf die techdemos der beiden hersteller.)
sm 3.0 ist aber defintiv die zukunft, während 3dc das risiko für ati birgt nicht von den spieleentwicklern angenommen zu werden, da es sich (noch) um ein format handelt, was bisher nur von einem hersteller in einer grafikkartengeneration unterstützt wird. es gibt eine hohe wahrscheinlichkeit, dass in 2005 keiner mehr von 3dc spricht. auf der anderen seite stehen titel wie ss2, hl2 und andere, die es unterstützen. wenn die spieler darauf anspringen, dann könnte es sich durchsetzen, genau wie es sm 3.0 langfristig tun wird.
also bitte das ganze mal etwas differenzierte betrachten unr nicht immer gleich die verbale keule rausholen. das bringt doch keinem hier was außer unsinnige flamewars. ;)

ow
2004-06-02, 16:07:13
Original geschrieben von betareverse
Ja, man muss die Texture und die Shader drauf abstimmen. Mit nachträglichen patchen ist also nix in Sachen 3Dc, was bei SM3.0 ja sehr leicht geht.

Wenn man aber ein Spiel entwickelt, kann man es wohl sehr leicht 3Dc tauglich machen.

Und dass 3Dc funktioniert, sollte klar sein. Der geringe Mehraufwand an Shaderpower lohnt allemal für das Resultat. Die Rubydemo zeigt ja die Vorteile sehr gut und bei HL2, wo sehr viel Normalmaps eingesetzt werden, wird man auch schönes Eyecandy bekommen.


Wie kommst du darauf, dass der Mehraufwand an Shaderpower nur gering ist? Die Rubydemo zeigt keinerlei Vorteile von 3DC und HL2 gibt es noch nicht.
Bleibt ausser Luft nix uebrig von deinen Aussagen.

ow
2004-06-02, 16:09:31
Original geschrieben von reunion
Keine Ahnung =) zurzeit vielleicht 0,01%?


Das wird nicht ausreichen, um 3DC "flaechendeckend" im Einsatz zu sehen.
Und dass ATis Midrange- und Lowcostchips ebenfalls kein 3DC beherrschen koennte man auch so deuten, dass ATi selbst nicht an einen Erfolg von 3DC glaubt. Das gibt mir am Meisten zu denken.

betasilie
2004-06-02, 16:11:42
Original geschrieben von ow
Wie kommst du darauf, dass der Mehraufwand an Shaderpower nur gering ist? Die Rubydemo zeigt keinerlei Vorteile von 3DC und HL2 gibt es noch nicht.
Bleibt ausser Luft nix uebrig von deinen Aussagen.
Die Rubydemo zeigt keinerlei Vorteile? Ahso. Du hast also eine Grafikkarte mit mehr als 256MB?

Naja, wenn Du glaubst, dass 3Dc nicht funktioniert, dann glaub mal dran.

ow
2004-06-02, 16:11:43
Original geschrieben von betareverse
@ Raven
Willst Du heute dein Punktekonto voll machen?


Wie das denn?



Und wenn Du Quasar und Demirug quotest, dann doch bitte nur Statements, die Du auch inhaltlich verstehst.

Dies koennte man in der Tat bepunkten, da null Inhalt ausser einem persoenlichen Angriff.

betasilie
2004-06-02, 16:13:11
Original geschrieben von ow
Dies koennte man in der Tat bepunkten, da null Inhalt ausser einem persoenlichen Angriff.
Da ist ein Inhalt, nämlich der nur Statements zu quoten, die er auch versteht. Das ist ganz offensichtlich nicht der Fall.

DrumDub
2004-06-02, 16:13:32
Original geschrieben von ow
Das wird nicht ausreichen, um 3DC "flaechendeckend" im Einsatz zu sehen.
Und dass ATis Midrange- und Lowcostchips ebenfalls kein 3DC beherrschen koennte man auch so deuten, dass ATi selbst nicht an einen Erfolg von 3DC glaubt. Das gibt mir am Meisten zu denken.

richtig. wobei die beiden pci-e varianten des rv360 eben noch die alte generation sind. daher können sie logischerweise kein 3dc unterstützen.
die frage ist daher, ob und wann die rv-ableger des r42x kommen. im prinzip spricht aber einiges dafür, dass 3dc kein erfolg wird.

ow
2004-06-02, 16:14:51
Original geschrieben von betareverse
Die Rubydemo zeigt keinerlei Vorteile? Ahso. Du hast also eine Grafikkarte mit mehr als 256MB?



Korrekt. Ruby ist nur ein sysnthetisch konstruiertes Szenario. Nicht geeignet um damit ueberhaupt irgendwas zu zeigen (ausser das man Graka-RAM einfach zumuellen kann).

Und ja, dank AGP haben alle mein Karten mehr als 256MB RAM.

betasilie
2004-06-02, 16:15:55
Original geschrieben von ow
Korrekt. Ruby ist nur ein sysnthetisch konstruiertes Szenario. Nicht geeignet um damit ueberhaupt irgendwas zu zeigen (ausser das man Graka-RAM einfach zumuellen kann).

Und ja, dank AGP haben alle mein Karten mehr als 256MB RAM.
Und alle deine Karten haben eine hervorragende Performance dank AGP-Auslagerung. :bonk:

reunion
2004-06-02, 16:16:55
Original geschrieben von ow
Das wird nicht ausreichen, um 3DC "flaechendeckend" im Einsatz zu sehen.


Wir werden sehen, in Dx-Next ist es jedenfalls schon verankert:

http://www.tommti-systems.de/main-Dateien/MISC/l/image8.gif

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=143611


Und dass ATis Midrange- und Lowcostchips ebenfalls kein 3DC beherrschen koennte man auch so deuten, dass ATi selbst nicht an einen Erfolg von 3DC glaubt. Das gibt mir am Meisten zu denken.


Der grund dürfte wohl eher sein das man zurzeit noch keine Midrange- und Lowcostchips auf basis des R420 herausgebracht hat :)

Winter[Raven]
2004-06-02, 16:25:52
ATHS schrieb:


Komprimierung:

Nur .X und .Y wird berücksichtigt, und mit je 8 Bit der kleinste und größte Wert gespeichert (= 4 * 8 = 32 Bit.)


Demirug fügt hinzu:

Ja Z muss im Pixelshader wieder errechnet werden: z = sqrt (1-x*x-y*y). Da Z bei einer Normalmap ja in der Regel positiv ist stellt das eigentlich kein Problem da. Eine Normalmap mit negativen Z-Werten kann mit 3dc nicht komprimiert werden.

Habe ich nun was falsches erzählt?

So ist es, die Normalmap muss neuegeneriert werden, da 3dc nur ein zweikanal kompressor ist, geht Z verloren, die Programmierer müssen dann die Shader umschreiben damit man diesen Z wieder hinbekommt, das kostet Rechenpower.


Anders geschrieben:
Die Normalmap muss neuegeneriert werden, da 3dc nur ein zweikanal kompressor ist, die X und Y Werte werden komprimmiert, dabei geht aber Z verloren, die Programmierer müssen dann die Shader umschreiben damit man diesen Z Wert in den Pixelshadern errechnen kann.

[dzp]Viper
2004-06-02, 16:26:06
Original geschrieben von ow
Korrekt. Ruby ist nur ein sysnthetisch konstruiertes Szenario. Nicht geeignet um damit ueberhaupt irgendwas zu zeigen (ausser das man Graka-RAM einfach zumuellen kann).

Und ja, dank AGP haben alle mein Karten mehr als 256MB RAM.

ja - aber bitte vergiss dabei die NV techdemos auch nicht - die zeigen auch nur wie schön man Graka-RAM zumuellen kann...

aber wieder einmal einseitige betrachtungsweise ;)

[dzp]Viper
2004-06-02, 16:28:42
Original geschrieben von ow
Und dass ATis Midrange- und Lowcostchips ebenfalls kein 3DC beherrschen koennte man auch so deuten, dass ATi selbst nicht an einen Erfolg von 3DC glaubt. Das gibt mir am Meisten zu denken.

das statement könnte man richtig schön auf NV umformulieren (genauso wie es Lovesuck immer gerne macht).. aber ich lasse das lieber :eyes:

P.S. ich klink mich hier lieber aus - sonst bekomme ich von ow wieder einen Punkt weil nicht genug inhalt drin ist X-D

betasilie
2004-06-02, 16:35:16
Original geschrieben von [dzp]Viper
das statement könnte man richtig schön auf NV umformulieren (genauso wie es Lovesuck immer gerne macht).. aber ich lasse das lieber :eyes:
Du meinst, dass SM3.0 auch nur im Highend vertreten ist, ebenso wie 3Dc z.Zt. bei ATI? :)

ow
2004-06-02, 16:39:27
Original geschrieben von reunion
Wir werden sehen, in Dx-Next ist es jedenfalls schon verankert:

http://www.tommti-systems.de/main-Dateien/MISC/l/image8.gif


Das ist hier absolut unerheblich, weil man es ja auch schon in DX7/8/9 nutzen kann, wenn man denn will.


Der grund dürfte wohl eher sein das man zurzeit noch keine Midrange- und Lowcostchips auf basis des R420 herausgebracht hat :)

Dies duerfte nun aber die Verbreitung dieses Features nicht gerade vorantreiben.

[dzp]Viper
2004-06-02, 16:39:38
Original geschrieben von betareverse
Du meinst, dass SM3.0 auch nur im Highend vertreten ist, ebenso wie 3Dc z.Zt. bei ATI? :)

richtig - ist aber nicht so ernst gemeint, da SM3.0 auf alle fälle die Zukunft ist. SM3.0 ist für 2005 ein "Muss" Feature für Highendkarten.

die frage ist nun, wie schnell NV auch eine "low cost" grafiklösung für SM3.0 bringt und ob ATi vielleicht auch noch eine "low cost" lösung auf basis des r420 bringt (was ich aber bei beiden herstellern bezweifle)

ow
2004-06-02, 16:41:00
Original geschrieben von [dzp]Viper
ja - aber bitte vergiss dabei die NV techdemos auch nicht - die zeigen auch nur wie schön man Graka-RAM zumuellen kann...

aber wieder einmal einseitige betrachtungsweise ;)


Immer wieder interessant, dass einige Leute wohl nicht beim Topic bleiben koennen. Warum wohl nur.

[dzp]Viper
2004-06-02, 16:44:17
Original geschrieben von ow
Immer wieder interessant, dass einige Leute wohl nicht beim Topic bleiben koennen. Warum wohl nur.

OT

ich wollte dir nahebringen, dass du nicht immer so "einseitig" schreiben sollst - das ist genau das, was Aths HIER (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1855002#post1855002) meint...

war ja nicht böse gemeint oder so - wollte dich nur drauf aufmerksam machen und hatte gehofft, dass du das selber mitbekommst

sry ;(

Original geschrieben von aths
Das ewige, reine ATI-Gebashe von dir hat nunmal zur Folge, dass du einen bestimmten Eindruck erweckst.

Gestern unterhielt ich mich mit einigen Leuten von ATI, und kann ihre Entscheidung jetzt besser nachvollziehen. Unabhängig ob ich das kann oder nicht, zeichnet sich jetzt schon ab, dass sie mit ihrer Strategie durchkommen werden.

Du spulst immer die gleichen (für sich genommen berechtigten) Argumente ab, ohne zu versuchen mal andere Seiten zu sehen. Dadurch wird die Stimmung aufgeheizt und du gehst dann mit dem Strafzettel rum? Das kann's nicht sein, imo.

So ende von OT... will den thread nicht verkommen lassen...

zurück zum Thema...

betasilie
2004-06-02, 16:46:21
Original geschrieben von [dzp]Viper
richtig - ist aber nicht so ernst gemeint, da SM3.0 auf alle fälle die Zukunft ist. SM3.0 ist für 2005 ein "Muss" Feature für Highendkarten.

die frage ist nun, wie schnell NV auch eine "low cost" grafiklösung für SM3.0 bringt und ob ATi vielleicht auch noch eine "low cost" lösung auf basis des r420 bringt (was ich aber bei beiden herstellern bezweifle)
Klar, aber 3Dc ist auch die Zukunft, da in WGL spezifiert.

Also NV traue ich da eher zu SM3.0 in allen Segmenten zu bringen. Gerade durch die X300 ist NV unter Zugzwang und ich denke, dass NV jetzt richtig Gas geben.

Hoffentlich macht NV die Ankündigungen diesbzgl. noch dieses Jahr wahr, denn es war ja mal zu lesen, dass alle Preissegmente Ableger vom NV40 bekommen werden.

TheGood
2004-06-02, 17:25:18
Original geschrieben von [dzp]Viper
OT

ich wollte dir nahebringen, dass du nicht immer so "einseitig" schreiben sollst - das ist genau das, was Aths HIER (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1855002#post1855002) meint...

war ja nicht böse gemeint oder so - wollte dich nur drauf aufmerksam machen und hatte gehofft, dass du das selber mitbekommst

sry ;(



So ende von OT... will den thread nicht verkommen lassen...

zurück zum Thema...

Dem stimme ich mal zu und jetzt wollte ich endlich mal OW zur Ignorelist hinzufügen weil seine Beiträge einfach null bringen und zu 80% nur die Stimmung im forum anheizen.
Tja nur leider geht das nicht, weil er Moderator ist. Also das ist echt ein schlechter Witz!!!
Aber das kanns echt nicht mehr sein und sicher gibt er mir für diesen Beitrag gleich ne Verwarnung.....

Aber ein Moderator sollte einfach dazu da sein um für Ordnung in einem Forum zu sorgen Beiträge auf einem gemässigten Niveau zu behalten. Aber genau das Gegenteil macht OW zu genüge. Warum er immer noch MOderator ist ist mir absolut unverständlich (vermutlich gibt es hier zwischen meiner Definition eines Moderators und den Zuständingen Leuten bei 3dCenter da unterschiedliche Meinungen) und wir als mündiger User können nun ihn nun nichtmal mehr ignorieren......

Also 2 Möglichkeiten :
1. Die forumssoftware muss anders eingestellt werden damit ein ognore auch bei Moderatoren funktioniert
oder
2. Ow muss das Moderator recht entzogen werden...

ironMonkey
2004-06-02, 17:34:47
3. Mal etwas an die Frische Luft gehen, entspannen und nicht alles so eng sehen, weil was OW für gut und toll hält kann an sich jedem anderen am Ar... vorbei gehen, es ist ja seine Meinung und die darf er wohl sagen und Mod ist er ja nicht ohne Grund.



Gruß

[dzp]Viper
2004-06-02, 17:37:57
Original geschrieben von ironMonkey
3. Mal etwas an die Frische Luft gehen, entspannen und nicht alles so eng sehen, weil was OW für gut und toll hält kann an sich jedem anderen am Ar... vorbei gehen, es ist ja seine Meinung und die darf er wohl sagen und Mod ist er ja nicht ohne Grund.



Gruß

stop stop

zurück zum thema bitte....
ich wollte nicht, dass jetzt hier eine OT diskussion ausartet - thx
Entweder ow merkt es selber langsam, dass er auch fehler macht und sich zu oft "verformuliert" (wie es aths so schön beschrieben hat) oder eben nicht... es liegt jetzt an ihm

back to topic

ow
2004-06-02, 18:30:30
Original geschrieben von [dzp]Viper
OT

ich wollte dir nahebringen, dass du nicht immer so "einseitig" schreiben sollst -


Wieso einseitig?
Wenn ATi das Thema ist ist Ati das Thema.
Und wenn NV Thema ist ist NV Thema.
Und wenn es beide sind sind es beide.

Ist das so schwer zu verstehen?

ow
2004-06-02, 18:32:58
Original geschrieben von [dzp]Viper
stop stop

zurück zum thema bitte....
ich wollte nicht, dass jetzt hier eine OT diskussion ausartet - thx
Entweder ow merkt es selber langsam, dass er auch fehler macht und sich zu oft "verformuliert" (wie es aths so schön beschrieben hat) oder eben nicht... es liegt jetzt an ihm

back to topic

Ich verformuliere mich nicht.

[dzp]Viper
2004-06-02, 18:35:15
Original geschrieben von ow
Wieso einseitig?
Wenn ATi das Thema ist ist Ati das Thema.
Und wenn NV Thema ist ist NV Thema.
Und wenn es beide sind sind es beide.

Ist das so schwer zu verstehen?

das galt im allgemeinen... aths meint das auch im allgemeinen...
nicht nur in einem bestimmten thread :|

Wenn das schon so viele leute sagen ow, dann solltest du doch langsam mal drüber nachdenken, ob das was du manchmal machst/von dir gibst richtig ist. Es sind ja nicht nur die 3 leute, die bisher hier was geschrieben haben, sondern wesentlich mehr (die nur nicht unbedingt alles gerade heraus alles sagen was sie denken)
Und der Quote von aths sollte dir eigentlich zu denken geben, da er eine person ist, die doch sehr viel weiss und das wohl am besten von uns allem, sowas beurteilen kann oder?

ich meine es ja nicht böse, wir wollen dich nur darauf aufmerksam machen, dass deine art und weise wie du auf posts anwortest manchmal so kalt ist, dass es einfach extrem unfreundlich ist.

wie ich bereits sagte, bist du wahrscheinlich kein Fanboy (das denke ich immer noch) aber so WIE du schreibst und antwortest, kommt es einem oftmals so vor. Deswegen wirst du auch so oft missverstanden und als "unfreundlich" bezeichnet.



P.S. da du moderator bist, schneidest du die diskussion, die nun absolut OT ist, mal aus und schiebst sie ins 3dcenter unterforum (wenn dir was daran liegt und du bereit bist darüber zu diskutieren)

Wenn du darüber nicht diskutieren willst, dann lösch einfach die ganzen posts die OT sind und fertig...

Ich möchte alle user die das lesen bitte, keinen weiteren kommentar dazu abzugeben - wenn ow das ausdiskutieren will, dann sollten wir das nicht in diesem thread tun - also bitte erstmal abwarten ob der das diskutieren will

LovesuckZ
2004-06-02, 19:03:10
Original geschrieben von betareverse
Da der RV370 wohl technologisch dem RV360 entspricht, dürfte ATI den Konsumenten wohl einen riesigen Gefallen getan haben. Eine "echte" DX9 Karte im Lowcostsegment, im Gegensatz zu dieser miesen 5200er Mogelpackung in Hinsicht auf moderne Games, ist schon wirklich eine tolle Sache.

"moderne Games" benoetigen Grafikkarten, die deutlich mehr Leistung brauchen als eine X300 bietet.

ich denke der Markt wird die X300 hervorragend annehmen, was ATI zu gönnen wäre bei so einem Vorstoß.

Dank ATi haben wir seit 18 Monaten endlich eine Low - End SM2.0 faehige Grafikkarte. Warum ist Nvidia darauf nicht gekommen. Die haetten dadurch ihren marktanteil deutlich ausbauen koennen...

Mal schauen, ob NV darauf reagiert und endlich auch eine Lösung bringt, die bei shaderlastigen Applikationen völlig einbricht.

Bringe den Beweis, dass der X300 bei "shaderlastigen Applikationen [nicht] völlig einbricht".

Nun, das sehe ich völlig anders, weil a) die Technik opensource ist und b) leicht zu implementieren.

Das heißt nicht, dass dies auch vom Markt angenommen werde.
Und da ATi selbst ihre Technik im neuen Lowcost - Chip nicht eingebaut hat, spricht dafür, dass 3Dc eine Eintagsfliege ist.

Wenn man aber ein Spiel entwickelt, kann man es wohl sehr leicht 3Dc tauglich machen.

Nur, wenn das Spiel auf 3Dc hinentwickelt wird. Das heißt, es wird jeder Shader, der in Zusammenhang mit den normalmaps steht, gleich angepasst wird.

Die Rubydemo zeigt ja die Vorteile sehr gut und bei HL2, wo sehr viel Normalmaps eingesetzt werden, wird man auch schönes Eyecandy bekommen.

Zeige, dass es in der Rubydemo ohne 3Dc einen visuellen Nachteil gaebe. "schönes Eyecandy" ist nicht 3Dc abhaengig...

Die Rubydemo zeigt keinerlei Vorteile? Ahso. Du hast also eine Grafikkarte mit mehr als 256MB?

Und der visuelle Vorteil?
Es gibt bezueglich des SM3.0 von einigen eine Argumentation, dass es nicht benoetig werde, da es keinen visuellen Unterschied geben würde. Ich denke, einige sagen das auch über 3Dc. Zum Glueck gibt es aber Leute wie dich, die SM3.0 verteidigen. :top:!

reunion
2004-06-02, 19:21:11
Original geschrieben von LovesuckZ
"moderne Games" benoetigen Grafikkarten, die deutlich mehr Leistung brauchen als eine X300 bietet.


Die X300 liegt exakt auf dem leistungnivau einer 9600 nonpro, laut aths kann man damit ausgezeichnet spielen...

LovesuckZ
2004-06-02, 19:27:37
Original geschrieben von reunion
Die X300 liegt exakt auf dem leistungnivau einer 9600 nonpro, laut aths kann man damit ausgezeichnet spielen...

Ich weiß nicht, inwieweit aths SM2.0 faehige Spiele wie TR:6, Halo und Farcry ausprobiert hat.
Test jedenfalls bescheinigen einer 9600nonpro eine SM2.0 Leistung, die zum Spielen in hohen Aufloesungen (ab 1024*768) und mit allen Details nicht ausreicht.
Und damit müssten nun einige die selbe Argumentation gegen die X300 auffahren, mit welcher man die 5200 gebasht hat...

reunion
2004-06-02, 19:36:15
Original geschrieben von LovesuckZ
Ich weiß nicht, inwieweit aths SM2.0 faehige Spiele wie TR:6, Halo und Farcry ausprobiert hat.
Test jedenfalls bescheinigen einer 9600nonpro eine SM2.0 Leistung, die zum Spielen in hohen Aufloesungen (ab 1024*768) und mit allen Details nicht ausreicht.
Und damit müssten nun einige die selbe Argumentation gegen die X300 auffahren, mit welcher man die 5200 gebasht hat...

Wie kommst du darauf?
Die 9600nonpro hat exakt die halbe Shaderleistung einer 9700pro, was imo locker ausreichen sollte...

LovesuckZ
2004-06-02, 19:40:04
Original geschrieben von reunion
Wie kommst du darauf?
Die 9600nonpro hat exakt die halbe Shaderleistung einer 9700pro, was imo locker ausreichen sollte...

"halb" bedeutet = 100% weniger. Also statt 50 nur noch 25FPS.

reunion
2004-06-02, 19:43:12
Original geschrieben von LovesuckZ
"halb" bedeutet = 100% weniger. Also statt 50 nur noch 25FPS.

Ja, das ist allerdings immernoch soviel wie so mache NV FX 5900...

LovesuckZ
2004-06-02, 19:45:29
Original geschrieben von reunion
Ja, das ist allerdings immernoch soviel wie so mache NV FX 5900...

Darum geht es doch nicht.
Fakt ist, dass die Aussage, die Karte würde bei schaderlaestigen Anwendung nicht "einbrechen", falsch ist.

reunion
2004-06-02, 19:48:05
Original geschrieben von LovesuckZ
Darum geht es doch nicht.
Fakt ist, dass die Aussage, die Karte würde bei schaderlaestigen Anwendung nicht "einbrechen", falsch ist.

Ich glaube das genug Shaderleistung da ist, da limitiert vorher eher etwas anderes (wie zB die zu geringe Speicherbandbreite), das man mit der X300 keine grafisch anspruchsvollen Spiele mit allen Details in hoher Auflösung und AA/AF spielen kann ist natürlich auch klar...

Thowe
2004-06-02, 19:49:43
Original geschrieben von betareverse
@ Raven
Willst Du heute dein Punktekonto voll machen?

Und wenn Du Quasar und Demirug quotest, dann doch bitte nur Statements, die Du auch inhaltlich verstehst.

Eben

Winter[Raven] erhält einen Strafpunkt fürs völlig unnötige beleidigen anderer Personen.

Quasar
2004-06-02, 20:04:50
Original geschrieben von LovesuckZ
Farcry

Far Cry geht (auf R9600np) einigermaßen. Auf einer R9600XT lief es sogar recht angenehm.

Ob ich es mir jedoch auf einer X300 SE antun würde, ist noch eine andere Frage - wenn die INterface-Bandbreite höher ist, als die lokale VRAM-Bandbreite, läßt das nichts gutes vermuten.

Gast
2004-06-02, 21:39:18
Original geschrieben von betareverse
Klar, aber 3Dc ist auch die Zukunft, da in WGL spezifiert.

Also NV traue ich da eher zu SM3.0 in allen Segmenten zu bringen. Gerade durch die X300 ist NV unter Zugzwang und ich denke, dass NV jetzt richtig Gas geben.

Hoffentlich macht NV die Ankündigungen diesbzgl. noch dieses Jahr wahr, denn es war ja mal zu lesen, dass alle Preissegmente Ableger vom NV40 bekommen werden.

Und wann kommt WGL? Ende 2005, eher irgendwann 2006. D.h. man darf mindestens noch 1,5 Jahre darauf warten. DX9.0c gibt es wahrscheinlich schon diesen Sommer, spaetestens Herbst.

SM3.0 wird es auch in der 6200 geben und das ist was Neues im Vergleich zur X300/600. NV waere bloed wenn sie den Erfolg der 5200er, welcher mit Sicherheit auch auf DX9 beruht, nicht nochmal, in diesem Fall allerdings mit SM3.0, wiederholen. Geschwindigkeitsmaessig wird sich auch einiges im Vergleich zur 5200 getan haben. Zumindest werden den Kunden nicht wie bei ATI mal wieder nur alte Chips angeboten.

betasilie
2004-06-03, 00:52:29
Es ist schon beeindruckend, wie einige den NV40 als technologisches Katapult für kommende Spiele propagieren und im gleichen Atemzug die X300 runtermachen. Und dann noch die 5200er hypen, obwohl diese wohl ein Witz ist was die Shaderleistung angeht und welche als Spielekarte ein absolute Kundenverarschung ist. ... Es ist wirklich schade was hier im Forum abgeht.

Die X300 wird mehr dazu beitragen, dass wir in den nächsten Jahren viele moderne DX9 Spiele sehen werden, als der NV durch SM3.0. Wer das nicht erkennt, ist selber Schuld. ... Im Gegensatz zu den Fanboys, glaube/hoffe ich, dass NV das erkannt hat und zukünftig im lowcost Segment eine moderate Lösung anbieten wird.

tokugawa
2004-06-03, 05:13:55
Original geschrieben von betareverse
Es ist schon beeindruckend, wie einige den NV40 als technologisches Katapult für kommende Spiele propagieren und im gleichen Atemzug die X300 runtermachen. Und dann noch die 5200er hypen, obwohl diese wohl ein Witz ist was die Shaderleistung angeht und welche als Spielekarte ein absolute Kundenverarschung ist. ... Es ist wirklich schade was hier im Forum abgeht.

Die X300 wird mehr dazu beitragen, dass wir in den nächsten Jahren viele moderne DX9 Spiele sehen werden, als der NV durch SM3.0. Wer das nicht erkennt, ist selber Schuld. ... Im Gegensatz zu den Fanboys, glaube/hoffe ich, dass NV das erkannt hat und zukünftig im lowcost Segment eine moderate Lösung anbieten wird.

Verzeihung, was ist WGL noch mal? (Außer Windows GL, also der OpenGL Layer für Windows... aber anscheinend meint ihr hier doch was anderes).


Zur FX 5200: ich find nicht, dass die eine Verarschung ist. Für manche Anwendungsgebiete ist die sogar extrem lecker... als Entwickler hab ich z.B. mir einfach für 50 Euro eine FX 5200 gekauft, um mit Shadern rumzuprobieren (und auch mit Shadern die über SM 2.0 hinausgehen), ist wirklich nett. Offline-Rendering bzw. Echtzeit-Shader in-production (etwa mit dem CgFX-Plugin für 3D Studio MAX) ist auch sehr nett, da brauch ich keine 60 fps, da reichen 20, die die FX 5200 locker darstellt.

EDIT: die FX5200 stellt dabei meine persönliche Übergangslösung bis zu einem preiswerten/günstigen NV40-Ableger dar. Die Low-Cost ATI-Karten sind eben aufgrund begrenzterer Shader (Feature-weise) eben für die oben erwähnte Anwendung nicht ganz so nett.

ironMonkey
2004-06-03, 07:08:14
Original geschrieben von tokugawa
Verzeihung, was ist WGL noch mal? (Außer Windows GL, also der OpenGL Layer für Windows... aber anscheinend meint ihr hier doch was anderes).


Zur FX 5200: ich find nicht, dass die eine Verarschung ist. Für manche Anwendungsgebiete ist die sogar extrem lecker... als Entwickler hab ich z.B. mir einfach für 50 Euro eine FX 5200 gekauft, um mit Shadern rumzuprobieren (und auch mit Shadern die über SM 2.0 hinausgehen), ist wirklich nett. Offline-Rendering bzw. Echtzeit-Shader in-production (etwa mit dem CgFX-Plugin für 3D Studio MAX) ist auch sehr nett, da brauch ich keine 60 fps, da reichen 20, die die FX 5200 locker darstellt.

EDIT: die FX5200 stellt dabei meine persönliche Übergangslösung bis zu einem preiswerten/günstigen NV40-Ableger dar. Die Low-Cost ATI-Karten sind eben aufgrund begrenzterer Shader (Feature-weise) eben für die oben erwähnte Anwendung nicht ganz so nett.


Für Leute wie dich ist die FX5200 sicher gut, da sagt ja keiner was, nur trotzdem sieht die Karte kein Land gegen eine 9600/pro, features unterstützen ist das eine, aber auch die Karten mit der nötigen Geschwindigkeit bieten ist was anderes, weder NV noch bei ATI hat man beides zusammen, man kann also schlecht einen Hersteller in den Schatten stellen und den anderen in die Sonne, man kann nur den besten Chip für sich selbst finden.




Gruß

seahawk
2004-06-03, 07:34:10
Hinsichtlich der Kompression in DX-Next. Wer sagt, dass die impletierte Methode §dc ist.

Opensource in einem M$-Produkt ?? Ich weiss nicht.

StefanV
2004-06-03, 07:55:51
Original geschrieben von tokugawa
Verzeihung, was ist WGL noch mal? (Außer Windows GL, also der OpenGL Layer für Windows... aber anscheinend meint ihr hier doch was anderes).


Zur FX 5200: ich find nicht, dass die eine Verarschung ist. Für manche Anwendungsgebiete ist die sogar extrem lecker... als Entwickler hab ich z.B. mir einfach für 50 Euro eine FX 5200 gekauft, um mit Shadern rumzuprobieren (und auch mit Shadern die über SM 2.0 hinausgehen), ist wirklich nett. Offline-Rendering bzw. Echtzeit-Shader in-production (etwa mit dem CgFX-Plugin für 3D Studio MAX) ist auch sehr nett, da brauch ich keine 60 fps, da reichen 20, die die FX 5200 locker darstellt.

EDIT: die FX5200 stellt dabei meine persönliche Übergangslösung bis zu einem preiswerten/günstigen NV40-Ableger dar. Die Low-Cost ATI-Karten sind eben aufgrund begrenzterer Shader (Feature-weise) eben für die oben erwähnte Anwendung nicht ganz so nett.

Er meinte eher, daß die FX5200 einfach nur indiskutabel langsam ist.

Wenn man nur die Features benötigt, ohne die Performance, dann ist sie sicher eine ordentliche Entwicklerkarte, nur für jemanden, der vor hat damit zu zocken, für den ist die FX5200 nicht wirklich eine gute Wahl, für den wäre die X300 deutlich besser, zumal schon die X300SE etwa so schnell sein sollte wie eine 128bittige FX5200...

Thomas_B
2004-06-03, 08:17:28
Original geschrieben von betareverse
Es ist schon beeindruckend, wie einige den NV40 als technologisches Katapult für kommende Spiele propagieren und im gleichen Atemzug die X300 runtermachen. Und dann noch die 5200er hypen, obwohl diese wohl ein Witz ist was die Shaderleistung angeht und welche als Spielekarte ein absolute Kundenverarschung ist. ... Es ist wirklich schade was hier im Forum abgeht.

Die X300 wird mehr dazu beitragen, dass wir in den nächsten Jahren viele moderne DX9 Spiele sehen werden, als der NV durch SM3.0. Wer das nicht erkennt, ist selber Schuld. ... Im Gegensatz zu den Fanboys, glaube/hoffe ich, dass NV das erkannt hat und zukünftig im lowcost Segment eine moderate Lösung anbieten wird.

Davon gehe ich aus, das Problem ist nur das sie dummerweise auf eine Bridgelösung setzen und damit entgegem dem Trend von Intel & co. vom Marketing arbeiten.

Intel wird das Thema PCI-Express in allen Medien ab July fossieren und ATI wird sich als Vorzeigepartner, da NATIVE PCI Express, in die "Intel-Sonne" stellen.

Ich sehe das völlig DIGITAl, Intel hat es in der VErgangenheit immer schnell geschafft, neue Technologien zu etablieren.

Jeder OEM in Europa hat PCI-Express bereits fest für das Q3/Q4 Business eingeplant und AGP ausgemustert.

Das wird auch der Grund sein warum nv den kürzeren ziehen wird dieses Jahr und zwar DEUTLICH, denn jeder dieser OEM's bekommt seine entsprechenden $$$$ wenn er PCI-Express bewirbt!

Die X300 ist weiterhin eine sehr schnelle SM-Karte und als LOW-Profile auch verfügbar, d.h. Slim Line-Small Factor PC's fürs Wohnzimmer und etc. pepe.

Meine Meinung

Grüsse

Quasar
2004-06-03, 08:36:10
Original geschrieben von betareverse
Es ist schon beeindruckend, wie einige den NV40 als technologisches Katapult für kommende Spiele propagieren und im gleichen Atemzug die X300 runtermachen. Und dann noch die 5200er hypen, obwohl diese wohl ein Witz ist was die Shaderleistung angeht und welche als Spielekarte ein absolute Kundenverarschung ist. ... Es ist wirklich schade was hier im Forum abgeht.

Die X300 wird mehr dazu beitragen, dass wir in den nächsten Jahren viele moderne DX9 Spiele sehen werden, als der NV durch SM3.0. Wer das nicht erkennt, ist selber Schuld. ... Im Gegensatz zu den Fanboys, glaube/hoffe ich, dass NV das erkannt hat und zukünftig im lowcost Segment eine moderate Lösung anbieten wird.

Es ist schon beeindruckend.... (den Rest spare ich mir mal, weil man haargenau deine Kritik an "einigen" auch auf dich und "andere" übertragen könnte).

Wenn du natürlich das wahrscheinliche Volumen der X300 im Vergleich zum Volumen des NV40 allein siehst, dann gebe ich dir recht.
Allerdings scheint es ja so, daß nV nicht nur den NV40 allein auf weiter Flur mit SM3.0 bringen will - im Gegensatz zum 3dc, welches auch inklusive der bereits angekündigten Modelle für PCI-e bislang leider nur im High-End zu finden ist.

nV hat ja schon die 6200 und 6400 angekündigt - wobei ich berfürchte, daß die kleinste DX9-Variante weiterhin die FX5200 sein wird, die ja bekanntermaßen nicht gerade performance-berühmt ist, und die nV4x-Ableger eher im Bereich ab/um 100EUR zu finden sein werden.

Quasar
2004-06-03, 08:40:10
Original geschrieben von Thomas_B
Ich sehe das völlig DIGITAl, Intel hat es in der VErgangenheit immer schnell geschafft, neue Technologien zu etablieren.

Ich sehe das eher analog, denn digital hieße, daß ab Tag X, an dem Intel dann endlich mal die neuen Chipsätze anbietet (sollten die nicht schon in Q2 kommen? ;) ), auf einmal jeglicher andere Betriebszustand aufhörte zu existieren.

Der Pentium-Bug, ISA, USB, Caminogate, das RAMBUS-Desaster, seit neuestem der eingestellte P4-GHz-Wahn: Alles Beispiele dafür, daß auch Intel keine Midas-Hände hat und durchaus auch mal unvorhergesehen lange Zeit eintreten kann, bis ein neues Konzept sich durchsetzt, oder einfach wieder abgesägt wird.

aths
2004-06-03, 09:22:22
Original geschrieben von MechWOLLIer
Benötigt eine Schnittstelle wie AGP oder PCI-E wirklich Transistoren auf dem Chip? Ja. PCI-E ist komplexer, und braucht etwas mehr Transistoren als das AGP-Interface.
Original geschrieben von MechWOLLIer
Oder hat ATI noch an etwas anderem gebastelt? Nein. Der Chip entspricht ansonsten dem R420 so, wie er bekannt ist.

aths
2004-06-03, 09:25:32
Original geschrieben von betareverse
im Gegensatz zu dieser miesen 5200er Mogelpackung in Hinsicht auf moderne GamesBewirbt Nvidia die 5200 als Karte für moderne Games?

Original geschrieben von betareverse
ist schon wirklich eine tolle Sache.Das allerdings. Die 9600 bietet für wenig Geld ausreichend DirectX9-Performance.

Original geschrieben von betareverse
Mal schauen, ob NV darauf reagiert und endlich auch eine Lösung bringt, die bei shaderlastigen Applikationen völlig einbricht. ?? Die Karten, die bei shaderlastigen Applikationen völlig einbrechen, gibt es schon lange :)

aths
2004-06-03, 09:27:28
Original geschrieben von betareverse
Und dass 3Dc funktioniert, sollte klar sein. Der geringe Mehraufwand an Shaderpower lohnt allemal für das Resultat. Die Rubydemo zeigt ja die Vorteile sehr gut und bei HL2, wo sehr viel Normalmaps eingesetzt werden, wird man auch schönes Eyecandy bekommen. Die Rubydemo geht afaik von einer 4:1-Komprimierung aus, die ja eigentlich nicht gegeben ist.

aths
2004-06-03, 09:42:12
Original geschrieben von ow
Dies duerfte nun aber die Verbreitung dieses Features nicht gerade vorantreiben. Letztlich ist 3Dc ein gutes Feature. Ich hoffe, dass das so bald wie möglich Standard wird. Die Konkurrenz soll sich bitte nicht zieren, das schnellstmöglich ebenfalls anzubieten.

Original geschrieben von DrumDub
wenn die spieler darauf anspringen, dann könnte es sich durchsetzen, genau wie es sm 3.0 langfristig tun wird. Angenommen, SM 3.0 wird zunächst nur für ein Speed-Up genutzt. Dann ... ja dann sollten gerade kleinere Karten mit 3.0-Support kommen. Die profitieren dann ja am meisten. Auf die NV40-Ableger bin ich jedenfalls gespannt. Es kann aber sein, dass sie dort was an den Pipelines geändert (was weggelassen) haben.

aths
2004-06-03, 09:47:51
Original geschrieben von LovesuckZ
Ich weiß nicht, inwieweit aths SM2.0 faehige Spiele wie TR:6, Halo und Farcry ausprobiert hat.Far Cry läuft passabel. 1024x768, medium details. Natürlich mit Antialiasing und 4x AF.

Sicher, keine in jeder Situation butterweiche Grafik. Aber ein besseres Spielgefühl als mit der 5900, und das auch noch bei besserer Grafik.

Original geschrieben von LovesuckZ
"halb" bedeutet = 100% weniger. Also statt 50 nur noch 25FPS. Halb bedeutet, 50% weniger.

aths
2004-06-03, 09:50:51
Original geschrieben von ironMonkey
Für Leute wie dich ist die FX5200 sicher gut, da sagt ja keiner was, nur trotzdem sieht die Karte kein Land gegen eine 9600/pro, features unterstützen ist das eine, aber auch die Karten mit der nötigen Geschwindigkeit bieten ist was anderesGegen die 9600 hat NV nicht die 5200 gestellt. Passabler Konkurrent wäre eine 5700, wobei die afaik nicht so preiswert wie die 9600 ist. Wenn man bedenkt, dass schon die 5600 ca. 80 Millionen Transistoren hat, frage ich mich aller, wie sie das für die 5200 auf ca. 45 Millionen kürzen konnten.

aths
2004-06-03, 09:54:49
Original geschrieben von Thomas_B
Davon gehe ich aus, das Problem ist nur das sie dummerweise auf eine Bridgelösung setzen und damit entgegem dem Trend von Intel & co. vom Marketing arbeiten.Ich weiß nicht, worauf du guckst, aber ich kaufe bei einer Grafikkarte die Grafikkarte. Nvidia bietet hier PCI-E-Lösungen. Ob mit nativem Interface oder via onboard-Bridge, ist doch egal.

Original geschrieben von Thomas_B
Das wird auch der Grund sein warum nv den kürzeren ziehen wird dieses Jahr und zwar DEUTLICH, denn jeder dieser OEM's bekommt seine entsprechenden $$$$ wenn er PCI-Express bewirbt!Na das weiß ich nicht.

Von NV wird es für PCI-E sogar die GF4 MX geben, auch einige Produkte aus der FX-Reihe sind geplant, von der NV40-Familie ganz zu schweigen. Soweit ich weiß, alles via Bridge. Aber wen stört das?

Original geschrieben von Thomas_B
Die X300 ist weiterhin eine sehr schnelle SM-Karte und als LOW-Profile auch verfügbar, d.h. Slim Line-Small Factor PC's fürs Wohnzimmer und etc. pepe.Low Profile = 64 Bit. "Sehr schnell" ist so eine Karte dann nicht.

ow
2004-06-03, 11:38:29
Original geschrieben von aths
Letztlich ist 3Dc ein gutes Feature. Ich hoffe, dass das so bald wie möglich Standard wird. Die Konkurrenz soll sich bitte nicht zieren, das schnellstmöglich ebenfalls anzubieten.



Wieso nur die Konkurrenz? Wo sind denn ATis Nicht-Highend Karten mit 3Dc??

betasilie
2004-06-03, 11:43:36
Original geschrieben von Quasar
Wenn du natürlich das wahrscheinliche Volumen der X300 im Vergleich zum Volumen des NV40 allein siehst, dann gebe ich dir recht.
Allerdings scheint es ja so, daß nV nicht nur den NV40 allein auf weiter Flur mit SM3.0 bringen will - im Gegensatz zum 3dc, welches auch inklusive der bereits angekündigten Modelle für PCI-e bislang leider nur im High-End zu finden ist.

nV hat ja schon die 6200 und 6400 angekündigt - wobei ich berfürchte, daß die kleinste DX9-Variante weiterhin die FX5200 sein wird, die ja bekanntermaßen nicht gerade performance-berühmt ist, und die nV4x-Ableger eher im Bereich ab/um 100EUR zu finden sein werden.
Dann lass uns mal hoffen, dass die 6200 und 6400 schnell kommen und hoffen, dass sie ein super P/L-Verhältniss haben und die 6200er die X300 in Sachen Leistung einholt oder überholt.

Oder die 6200er wird wesentlich günstiger und die 6400er wird zur X300 positioniert, was Du ja schon andeutetest.

Quasar
2004-06-03, 11:46:59
Ja, keine Ahnung, wie die Leistungsentfaltung schlußendlich aussehen wird - da werden wir uns wohl oder übel noch überraschen lassen müssen.

Die Chancen stehen allerdings recht gut, daß die beiden Modelle zumindest performanter sein werden, als ihre Pendants in der FX-Serie, da die Pipelines im nV4x ja ein wenig flexibilisiert wurden.

Einen Vergleich zur R9600 (bzw. X300/600) wage ich derzeit noch nicht, dafür könnte theoretisch zuviel von den "Extras" rund um die Pixelpipe beschnitten worden sein.

Wofür ich allerdings dringend plädieren würde, wäre mal endlich ein Abschneiden der sinnlos überdimensionierten Vertexshader im Low-End.

aths
2004-06-03, 11:47:28
Original geschrieben von ow
Wieso nur die Konkurrenz? Wo sind denn ATis Nicht-Highend Karten mit 3Dc?? Wo waren S3s Highendkarten mit S3TC?

Quasar
2004-06-03, 11:49:26
Original geschrieben von aths
Wo waren S3s Highendkarten mit S3TC?

Wo waren S3s Highendkarten?

(Siehst du den Pferdefuß im Vergleich?)

aths
2004-06-03, 11:50:47
Original geschrieben von Quasar
Wo waren S3s Highendkarten?

(Siehst du den Pferdefuß im Vergleich?) Den nahm ich inkauf, um mit TC vergleichen zu können. Ein Feature muss, damit es sich durchsetzt, nicht unbedingt vom Erfinder in allen Märkten angeboten werden.

betasilie
2004-06-03, 11:52:58
Original geschrieben von Quasar
Wo waren S3s Highendkarten?

(Siehst du den Pferdefuß im Vergleich?)
Darum geht es wohl nicht. S3TC hat sich halt nicht durchgesetzt wegen den S3-Karten, sondern weil open source und später in DX spezifiziert. Und ATIs 3Dc hat da sicher besser Chancen sich zu etablieren, als seinerzeits S3TC, besonders weil es schon in DX-Next spezifiziert ist.

aths
2004-06-03, 11:56:46
Original geschrieben von betareverse
Und ATIs 3Dc hat da sicher besser Chancen sich zu etablieren, als seinerzeits S3TC, besonders weil es schon in DX-Next spezifiziert ist. Damit man wirklich von "sich etablieren" sprechen kann, sollte auch Nvidia das Feature implementieren. Das steckte hinter meinem Posting.

betasilie
2004-06-03, 12:05:54
Original geschrieben von aths
Damit man wirklich von "sich etablieren" sprechen kann, sollte auch Nvidia das Feature implementieren. Das steckte hinter meinem Posting.
Was sie auch tun werden, wenn die Entwickler 3Dc konsequent einsetzen sollten, aber spätestens wenn 3Dc ein Plichtfeature wird bei WGF.

ow
2004-06-03, 12:08:58
Original geschrieben von aths
Den nahm ich inkauf, um mit TC vergleichen zu können. Ein Feature muss, damit es sich durchsetzt, nicht unbedingt vom Erfinder in allen Märkten angeboten werden.


Habe ich niemals behauptet.

Ich schrieb: "Dies duerfte nun aber die Verbreitung dieses Features nicht gerade vorantreiben."

Den Unterschied erkannt?

ow
2004-06-03, 12:10:30
Original geschrieben von betareverse
Darum geht es wohl nicht. S3TC hat sich halt nicht durchgesetzt wegen den S3-Karten, sondern weil open source und später in DX spezifiziert. Und ATIs 3Dc hat da sicher besser Chancen sich zu etablieren, als seinerzeits S3TC, besonders weil es schon in DX-Next spezifiziert ist.


Open Source? Seit wann denn das?

DrumDub
2004-06-03, 12:30:23
Original geschrieben von ow
Open Source? Seit wann denn das?

gar nicht. fxt1 ist open scource. s3tc nicht.

ow
2004-06-03, 12:32:09
Original geschrieben von DrumDub
gar nicht. fxt1 ist open scource. s3tc nicht.

Ah gut... dann hat mich mein Gedaechtnis doch nicht getaeuscht.:)

betasilie
2004-06-03, 12:32:33
Original geschrieben von ow
Open Source? Seit wann denn das?
Sorry, da war ich wohl falsch informiert.

Quasar
2004-06-03, 12:50:06
Original geschrieben von aths
Den nahm ich inkauf, um mit TC vergleichen zu können. Ein Feature muss, damit es sich durchsetzt, nicht unbedingt vom Erfinder in allen Märkten angeboten werden.

Nein, aber ein Feature, welches vom Erfinder, obwohl er andere Möglichkeiten hätte (hier liegt der Unterschied zu S3, deren Savage3D, Savage4 und Savage2000 sich IIRC nicht sonderlich gutverkauften), nur im High-End angeboten wird, hat weniger Chancen, als wenn es sich durch die komplette Produktlinie ziehen wird.

BTW, soweit ich das gesehen habe, wird in WGF eine " DXTC-like, one- or two-channel normal-Map compression" angeboten.
Ob das mehr oder weniger als genau 3dc ist steht AFAIK noch nicht fest.

aths
2004-06-03, 13:02:16
Original geschrieben von ow
Habe ich niemals behauptet.

Ich schrieb: "Dies duerfte nun aber die Verbreitung dieses Features nicht gerade vorantreiben."

Den Unterschied erkannt? Du schriebst: "Wieso nur die Konkurrenz? Wo sind denn ATis Nicht-Highend Karten mit 3Dc??"

Den Unterschied erkannt?

LovesuckZ
2004-06-03, 13:03:36
Original geschrieben von betareverse
Die X300 wird mehr dazu beitragen, dass wir in den nächsten Jahren viele moderne DX9 Spiele sehen werden, als der NV durch SM3.0. Wer das nicht erkennt, ist selber Schuld.

ATi hat mit ihrer 9200 Serie dazu beigetragen, dass die Verbreitung von DX8 only Karten zugenommen hat. Die X300 hilft dies nicht mehr aufzuwiegen, da nur auf PCI-E beschraenkt und damit kaum bedeutend für den jetzigen Markt.

... Im Gegensatz zu den Fanboys, glaube/hoffe ich, dass NV das erkannt hat und zukünftig im lowcost Segment eine moderate Lösung anbieten wird.

Die x300 waere eine "moderate Lösung", wenn sie letztes Jahr gekommen waere.

aths
2004-06-03, 13:03:54
Original geschrieben von Quasar
Nein, aber ein Feature, welches vom Erfinder, obwohl er andere Möglichkeiten hätte (hier liegt der Unterschied zu S3, deren Savage3D, Savage4 und Savage2000 sich IIRC nicht sonderlich gutverkauften), nur im High-End angeboten wird, hat weniger Chancen, als wenn es sich durch die komplette Produktlinie ziehen wird.Ja, natürlich. ATI würde ihr Feature fördern, wenn es X300 und X600 unterstützen würden. Sich richtig etablieren kann es sich aber ohnehin nur wenn NV mit auf den Zug springt.

aths
2004-06-03, 13:05:01
Original geschrieben von LovesuckZ
Die x300 waere eine "moderate Lösung", wenn sie letztes Jahr gekommen waere. Was ist X300 jetzt deiner Meinung nach?

LovesuckZ
2004-06-03, 13:05:21
Original geschrieben von aths
Far Cry läuft passabel. 1024x768, medium details. Natürlich mit Antialiasing und 4x AF.


Durchgehend "medium details" bedeutet kein SM2.0 :)

ow
2004-06-03, 13:06:19
aths treibt mal wieder spielchen. :D

LovesuckZ
2004-06-03, 13:11:39
Original geschrieben von aths
Was ist X300 jetzt deiner Meinung nach?

"Moderate Lösung" bezieht sich wohl auf die PS2.0 Leistung. Und davon hat die X300 (= 9600) nicht genug.

aths
2004-06-03, 13:23:39
Original geschrieben von LovesuckZ
Durchgehend "medium details" bedeutet kein SM2.0 :) Was muss man einstellen für 2.0-Shader?

Original geschrieben von LovesuckZ
"Moderate Lösung" bezieht sich wohl auf die PS2.0 Leistung. Und davon hat die X300 (= 9600) nicht genug. Wie viel wäre für dich "moderat"? Und warum ist diese Defition gültig?

Original geschrieben von ow
aths treibt mal wieder spielchen. :D Nein.

reunion
2004-06-03, 13:24:30
Original geschrieben von LovesuckZ
Durchgehend "medium details" bedeutet kein SM2.0 :)

Wenn man AA und AF abschaltet kann man sicher auch auf die höchste Detailstufe gehen...

reunion
2004-06-03, 13:27:13
Original geschrieben von LovesuckZ
"Moderate Lösung" bezieht sich wohl auf die PS2.0 Leistung. Und davon hat die X300 (= 9600) nicht genug.

Im vergleich zu den Konkurrenzprodukten ist die PS2.0 Leistung mehr als außreichend. Und das man mit einer Low-End Karte für unter 100€ nicht alle Grafisch anspruchsvollen Spiele mit vollen details und AA/AF spielen kann sollte eigendlich klar sein...

LovesuckZ
2004-06-03, 13:29:10
Original geschrieben von aths
Was muss man einstellen für 2.0-Shader?

Ich glaube mich zu errinnern, dass die "Lightning" Qualitaet auf "very High" stehen muss.

Wie viel wäre für dich "moderat"? Und warum ist diese Defition gültig?


Es geht mir nicht um eine Definition des Wortes "moderat". Hier wird argumentiert, dass die X300 Karte besser waere als die FX 5200, weil diese "moderate Leistung" biete. Dabei wird anscheinend vergessen, dass ein Jahr unterschied zwischen den beiden Karten liege.

DrumDub
2004-06-03, 13:32:53
Original geschrieben von aths
Was muss man einstellen für 2.0-Shader?


"lighting" auf "very high" für ps 2.0. alles andere kann auf medium gestellt werden. für "shadows" empfehle ich "low".

edit: lovesuckz war schneller.

Quasar
2004-06-03, 13:36:45
Original geschrieben von reunion
Im vergleich zu den Konkurrenzprodukten ist die PS2.0 Leistung mehr als außreichend. [..]

Komischerweise wurde dieselbe Aussage in Bezug auf die FX5200 vor Jahresfrist mehr als heftig von einer bestimmten Personengruppe dementiert, obschon die meisten dieser Gruppe keine FX5200 ihr eigen nannten.

aths
2004-06-03, 13:38:26
Original geschrieben von LovesuckZ
Ich glaube mich zu errinnern, dass die "Lightning" Qualitaet auf "very High" stehen muss.Lighting bitte, Lightning wäre was anderes :)

Ok, wenn ich die 9600 noch jemals wieder drinhaben sollte, probiere ich das mal.

Andernfalls wäre es aber noch unverständlicher: Wieso ist die 9600 bei PS 1.1 schneller als die 5900, wo die 5900 sehr viel mehr DX8-Power hat?


Original geschrieben von LovesuckZ
Es geht mir nicht um eine Definition des Wortes "moderat". Bevor wir uns nicht einig sind, was "moderat" heißt, können wir schwerlich darüber diskutieren ob die 9600 moderate Leistung bringt oder nicht.

Original geschrieben von LovesuckZ
Hier wird argumentiert, dass die X300 Karte besser waere als die FX 5200, weil diese "moderate Leistung" biete. Dabei wird anscheinend vergessen, dass ein Jahr unterschied zwischen den beiden Karten liege. Dass das vergessen wurde, mag den Vergleich etwas unfair werden lassen, falsch wird er dadurch aber nicht.

seahawk
2004-06-03, 14:05:50
Muss man die X300 nicht an dem low-cost Ableger der NV4X Reihe messen und nicht an der FX5200. Die FX5200 ist ein Konkurrent der 9200, sowohl von der Leistung, als auch vom Erscheinungsdatum.

Wäre ja auch wirklich ärmlich, wenn eine Karte die über 1 Jahr später auf den Markt tritt nur die Leistung der alten Karte egalisieren würde.

TheGood
2004-06-03, 14:37:52
Original geschrieben von seahawk
Muss man die X300 nicht an dem low-cost Ableger der NV4X Reihe messen und nicht an der FX5200. Die FX5200 ist ein Konkurrent der 9200, sowohl von der Leistung, als auch vom Erscheinungsdatum.

Wäre ja auch wirklich ärmlich, wenn eine Karte die über 1 Jahr später auf den Markt tritt nur die Leistung der alten Karte egalisieren würde.

Zum jetzigen Zeitpunkt ja (da beides noch "papiertiger" sind), aber zum Zeitpunkt der erscheinens der x300 nein. Denn dann kann ich sie halt nur mit der fx 5200 vergleichen. Wenn dann Nvidia 3 monate später ihre neue LowCost graka vorstellt muss die x300 dann mit der neuen lowcost graka von nvidia verglichen werden.
Alles andere machd coh kein Sinn und ich kann das vergleichen gleich bleiben lassen.

Hauwech
2004-06-03, 14:56:30
Wieviel Mehrleistung koennte 3Dc auf kleinen Karten (X300, GF6200) denn bringen?
Wie teuer in Transistoren waere denn eine Implementierung zB in die 6200er? Wie einfach, das es mit den NV4x Refreshchips gemacht werden kann oder erst mit NV5x Chips?

Quasar
2004-06-03, 15:08:08
Original geschrieben von Hauwech
Wieviel Mehrleistung koennte 3Dc auf kleinen Karten (X300, GF6200) denn bringen?

"ATI‘s new and revolutionary 3Dc™ image enhancement technology brings characters to life and scenery to greater realism by enabling significant improvements to the image detail of character art with increased performance and lower memory usage. 3Dc™ is slated to become the industry standard to support more complex high-definition visual effects in real time."

Der Hammer schlechthin also. ;)
Mehr Details, Höhere Leistung UND niedrigerer Speicherverbrauch.

Hauwech
2004-06-03, 15:29:00
Toll, ne eierlegende Wollmilchsau... Moment kann ich auch :D

"Nvidia‘s new and revolutionary 64 Bit Floating Point Framebuffer™ image enhancement technology brings characters to life and scenery to greater realism by enabling significant improvements to the image detail of character art with increased performance and lower memory usage. 64 Bit Floating Point Framebuffer™ is slated to become the industry standard to support more complex high-definition visual effects in real time."

Jetzt mal im Ernst, wat bringt et?

betasilie
2004-06-03, 15:44:23
Nun ein Grund dafür, dass die X300 kein 3Dc beherrscht könnte auch die Shaderleistung sein. Den R420 wird die relativ geringe Mehrlast wohl nicht stören, aber für die X300 könnte sich 3Dc vielleicht deswegen nicht mehr lohnen. :gruebel:

DrumDub
2004-06-03, 15:52:16
Original geschrieben von betareverse
Nun ein Grund dafür, dass die X300 kein 3Dc beherrscht könnte auch die Shaderleistung sein. Den R420 wird die relativ geringe Mehrlast wohl nicht stören, aber für die X300 könnte sich 3Dc vielleicht deswegen nicht mehr lohnen. :gruebel:

denke ich nicht. die x300 ist eben nur nen rv360-ableger mit pci-express interface. wie soll da 3dc integriert werden, wenn nur das interface geändert wird?

betasilie
2004-06-03, 15:55:06
Original geschrieben von DrumDub
denke ich nicht. die x300 ist eben nur nen rv360-ableger mit pci-express interface. wie soll da 3dc integriert werden, wenn nur das interface geändert wird?
Das ist sicherlich der primäre Grund, stimmt.

Gast
2004-06-03, 16:39:44
Original geschrieben von LovesuckZ
ATi hat mit ihrer 9200 Serie dazu beigetragen, dass die Verbreitung von DX8 only Karten zugenommen hat. Die X300 hilft dies nicht mehr aufzuwiegen, da nur auf PCI-E beschraenkt und damit kaum bedeutend für den jetzigen Markt.



Die x300 waere eine "moderate Lösung", wenn sie letztes Jahr gekommen waere.

Das du immer noch nicht weißt wo der Bauer die Kühe melkt merkt mann immer deutlicher!

Nochmal für dich! Ab Anfang Q3 wird jeder PC im Entry-Level mit PCi-Express und X300 kommen, Fragen keine?? Dann ja alles gut isssss

Deine Kommentar zum letzten Jahr ist der Hit in Dosen, 0,11 Produktion! ;-) sag ich da nur !

:-) :-)

Gast
2004-06-03, 16:40:26
Original geschrieben von DrumDub
denke ich nicht. die x300 ist eben nur nen rv360-ableger mit pci-express interface. wie soll da 3dc integriert werden, wenn nur das interface geändert wird?

Der ganze Chip ist NEU überarbeitet worden! Das funkt!

Quasar
2004-06-03, 16:42:14
Original geschrieben von Gast
Das du immer noch nicht weißt wo der Bauer die Kühe melkt merkt mann immer deutlicher!

Nochmal für dich! Ab Anfang Q3 wird jeder PC im Entry-Level mit PCi-Express und X300 kommen, Fragen keine?? Dann ja alles gut isssss

Deine Kommentar zum letzten Jahr ist der Hit in Dosen, 0,11 Produktion! ;-) sag ich da nur !

:-) :-)

Wie passen Low-Cost, P4, DDR2 und PCI-e zusammen?

Original geschrieben von Gast
Der ganze Chip ist NEU überarbeitet worden! Das funkt!

Du bist anscheinend 100% INFORMIERT. Sogar ATi weiß noch nicht, daß die X300/X600 3dc unterstützen. X-D

DrumDub
2004-06-03, 17:06:41
Original geschrieben von Quasar
Wie passen Low-Cost, P4, DDR2 und PCI-e zusammen?


nun ja, bei oems passt das schon. siehe z.b. dell aktuell mit ner 5200: http://commerce.euro.dell.com/dellstore/config/frameset.asp?c=726&n=4534&b=42417&m=eur&cu=dedhs&l=de&s=dedhs&store=dedhs&sbc=dedhsdimen&v=d

wieso könnte da stattdessen nicht ne x300 drinstecken?

und das dell sicherlich als einer der wichtigsten intel-partner direkt auf pci-e umsteigt, halte ich nicht für abwegig.

Quasar
2004-06-03, 17:18:38
In deinem Dell-Link fehlen aber noch DDR2, eine PCI-e Karte und ein PCI-e Boards.
sry,
;(

betasilie
2004-06-03, 17:31:47
Original geschrieben von Quasar
In deinem Dell-Link fehlen aber noch DDR2, eine PCI-e Karte und ein PCI-e Boards.
sry,
;(
Warte 2-3 Monate, dann werden die OEMs sicherlich auf PCI-e umgestellt haben.

Gast
2004-06-03, 17:38:15
Edit by Thowe: Spam

Gast
2004-06-03, 17:39:01
Edit by Thowe: Spam

fizzo
2004-06-03, 17:46:31
Original geschrieben von Quasar
In deinem Dell-Link fehlen aber noch DDR2, eine PCI-e Karte und ein PCI-e Boards.
sry,
;(

Dell setzt auf PCI Express

28.05.2004 11:19 Uhr - Laut einem Bericht hat Dell bei MSI PCI-Express-Grafikkarten (x16) für Komplett-PCs bestellt, die bereits Ende Juni auf den Markt kommen sollen.....


siehe seite eins des threats... (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=145637&perpage=20&pagenumber=1)

DrumDub
2004-06-03, 17:49:40
Original geschrieben von Quasar
In deinem Dell-Link fehlen aber noch DDR2, eine PCI-e Karte und ein PCI-e Boards.
sry,
;(

s.o.

ich wette mit dir, dass du vor jahresfrist bei dell keine rechner mehr ohne pci-express bekommst.

Gast
2004-06-03, 17:51:32
Edit by Thowe: Flame

Gast
2004-06-03, 17:53:47
Edit by Thowe: Unwichtig

Quasar
2004-06-03, 17:54:39
YA!
Und alles wird BILLIG werden. :)
Mal sehen, wann und wie der LOWCOST-Sektor davon beeinflusst wird.


Gast,
Wie schaut's denn nun mit einem Beleg aus, daß die X300/X600 3dc unterstützen?

Gast
2004-06-03, 18:00:39
Original geschrieben von Quasar
YA!
Und alles wird BILLIG werden. :)
Mal sehen, wann und wie der LOWCOST-Sektor davon beeinflusst wird.


Gast,
Wie schaut's denn nun mit einem Beleg aus, daß die X300/X600 3dc unterstützen?

Das habe ich NIE behauptet!

DrumDub
2004-06-03, 18:01:59
Original geschrieben von Quasar
YA!
Und alles wird BILLIG werden. :)
Mal sehen, wann und wie der LOWCOST-Sektor davon beeinflusst wird.

nana... nicht das dir deine ironie noch im halse stecken bleibt. ;)


Gast,
Wie schaut's denn nun mit einem Beleg aus, daß die X300/X600 3dc unterstützen?

ist doch immer so mit den gästen, wenn se nix belegen können, sind se auf einmal weg. ;D

Gast
2004-06-03, 18:03:13
Original geschrieben von Gast
Das habe ich NIE behauptet!

Mal unter uns!

Ob X-Pipes, PS-Versionen oder was auch immer der jeweilige Chiplieferant unterstützt ist im OEM-Sektor völlig unwichtig.

Da geht es nur um den Brand, da haben beide einen sehr guten und den EK.

Der Rest ist NEBENSACHE!

Quasar
2004-06-03, 18:09:35
Original geschrieben von Gast
Das habe ich NIE behauptet!

Aber sicher hast du, Gast, nichtmal das Posting kannst du nachträglich editieren, um diese Behauptung zurückzunehmen... ;(
Original geschrieben von Gast
Original geschrieben von DrumDub
denke ich nicht. die x300 ist eben nur nen rv360-ableger mit pci-express interface. wie soll da 3dc integriert werden, wenn nur das interface geändert wird?
Der ganze Chip ist NEU überarbeitet worden! Das funkt!

Quasar
2004-06-03, 18:10:15
Original geschrieben von DrumDub
nana... nicht das dir deine ironie noch im halse stecken bleibt. ;)

Neenee, keine Sorge. PCI-e sollte doch eigentlich schon zur CeBit gelauncht worden sein, oder? ;)

Gast
2004-06-03, 18:11:40
Re: Computerbase:

Zitat: Zur kleinen Zusammenfassung: PCI Express mag die Zukunft gehören, das Jahr 2004 aber wohl noch nicht.

Zitat Ende:

Edit by Thowe: unfreundliches entfernt

Ich versteh diese Art der Information nicht so recht !

Ist doch allen, die sich im PC-Desktopbereich auskennen, vollkommen klar das ein Wachstum 2004 im Jahrensgeschäft bzw. ab Q3 nur mit einer NEUEN Technologie möglich ist.

Ich hoffe einige werden endlich WACH und besinnen sich einer seriösen Informationspolitik in 2004!

Quasar
2004-06-03, 18:12:58
Wo ist denn nun die 3dc-fähige X300/X600, Gast, wo wir gerade von einer seriösen Informationspolitik sprechen?

Gast
2004-06-03, 18:13:22
Original geschrieben von Quasar
Neenee, keine Sorge. PCI-e sollte doch eigentlich schon zur CeBit gelauncht worden sein, oder? ;)

Wurde es doch auch, zwar hinter verschlossenen Türen aber es wurde gezeigt!

Warum ist PCI-Express so spät dran kann euch am besten ein NETTER Mensch von Intel beantworten, aber Schwamm drüber, es küt wie es küt und küten wird es in Mengen ab Q3!

Gast
2004-06-03, 18:15:37
Original geschrieben von Quasar
Wo ist denn nun die 3dc-fähige X300/X600, Gast, wo wir gerade von einer seriösen Informationspolitik sprechen?

Ich habe das NIE behauptet nochmal, da muß ich missverstanden worden sein.

3DC macht wenn mal mal NACHDENKT auch nur auf HIGHENDKARTEn wirklich Sinn derzeit!

Es wird bestimmt einen abgespeckte Version im Treiber geben, aber letztendlich ist wie mit PS 3.0, es gibt bis 2005/2006 keine Anwendung die dieses Feature unterstützen wird so das wir einen Bildunterschied erkennen werden.

Sorry, wenn ich flasch verstanden worden bin hinsichtlich 3DC, aber das ist ja das gute an einem Forum, hier kann mann sich verbessern bzw. missberständnisse schnell ausräumen.

Quasar
2004-06-03, 18:19:42
Original geschrieben von Gast
Wurde es doch auch, zwar hinter verschlossenen Türen aber es wurde gezeigt!

Warum ist PCI-Express so spät dran kann euch am besten ein NETTER Mensch von Intel beantworten, aber Schwamm drüber, es küt wie es küt und küten wird es in Mengen ab Q3!

Zeigen != Launchen.
Wenn du so 100% INFORMIERT bist, könntest du uns doch mal die seriöse Begründung von INTEL kundtun, oder?

Quasar
2004-06-03, 18:21:00
Original geschrieben von Gast
Ich habe das NIE behauptet nochmal, da muß ich missverstanden worden sein.

3DC macht wenn mal mal NACHDENKT auch nur auf HIGHENDKARTEn wirklich Sinn derzeit!

Es wird bestimmt einen abgespeckte Version im Treiber geben, aber letztendlich ist wie mit PS 3.0, es gibt bis 2005/2006 keine Anwendung die dieses Feature unterstützen wird so das wir einen Bildunterschied erkennen werden.

Sorry, wenn ich flasch verstanden worden bin hinsichtlich 3DC, aber das ist ja das gute an einem Forum, hier kann mann sich verbessern bzw. missberständnisse schnell ausräumen.

Was ist an folgendem Posting mißverständlich, Gast?
Original geschrieben von Gast
Original geschrieben von DrumDub
denke ich nicht. die x300 ist eben nur nen rv360-ableger mit pci-express interface. wie soll da 3dc integriert werden, wenn nur das interface geändert wird?
Der ganze Chip ist NEU überarbeitet worden! Das funkt!

Ich glaube nicht, daß man dich da mißverstehen kann.

aths
2004-06-03, 18:21:48
Original geschrieben von Gast
Ich habe das NIE behauptet nochmal, da muß ich missverstanden worden sein.

3DC macht wenn mal mal NACHDENKT auch nur auf HIGHENDKARTEn wirklich Sinn derzeit!Hab mal drüber nachgedacht, aber bin nicht drauf gekommen. Kannst du mir da auf die Sprünge helfen?

Thowe
2004-06-03, 19:18:08
Original geschrieben von Gast
Das du immer noch nicht weißt wo der Bauer die Kühe melkt merkt mann immer deutlicher!

...

Geht es auch freundlicher und somit intelligenter formuliert? Danke!

Gast
2004-06-03, 20:31:29
Original geschrieben von Quasar
Was ist an folgendem Posting mißverständlich, Gast?

Der ganze Chip ist NEU überarbeitet worden! Das funkt!

Ich glaube nicht, daß man dich da mißverstehen kann. [/SIZE][/QUOTE]

Das war auf PCI Epress bezogen und nicht auf 3DC

Quasar
2004-06-03, 21:50:33
Original geschrieben von Gast
Ich glaube nicht, daß man dich da mißverstehen kann.

Das war auf PCI Epress bezogen und nicht auf 3DC [/SIZE][/QUOTE]

Ja?
Original geschrieben von Gast
Original geschrieben von DrumDub
Original geschrieben von betareverse
Nun ein Grund dafür, dass die X300 kein 3Dc beherrscht könnte auch die Shaderleistung sein. Den R420 wird die relativ geringe Mehrlast wohl nicht stören, aber für die X300 könnte sich 3Dc vielleicht deswegen nicht mehr lohnen. :gruebel:

denke ich nicht. die x300 ist eben nur nen rv360-ableger mit pci-express interface. wie soll da 3dc integriert werden, wenn nur das interface geändert wird?
Der ganze Chip ist NEU überarbeitet worden! Das funkt!

Was "funkt" denn da?
Wireless-PCI-e? X-D

Und wenn der CHip überarbeitet worden wäre, warum wird das dann nicht Marketingtechnisch ausgeschlachtet? Warum wurde kein PP der R420-Reihe eingebaut, der ja fertig in 0,13µ-lowK designed in den Schubladen liegt und dessen HierZ-Buffer funktioniert - was nochmal ~10% Performance für wenig Mehraufwand bedeutet hätte?

Fragen über Fragen, aber als 100% INFORMIERTER Gast hast du da sicherlich Antworten parat.

Gast
2004-06-04, 08:26:21
Original geschrieben von Quasar
Das war auf PCI Epress bezogen und nicht auf 3DC

Ja?


denke ich nicht. die x300 ist eben nur nen rv360-ableger mit pci-express interface. wie soll da 3dc integriert werden, wenn nur das interface geändert wird? [/SIZE][/QUOTE]
Der ganze Chip ist NEU überarbeitet worden! Das funkt! [/SIZE][/QUOTE]

Was "funkt" denn da?
Wireless-PCI-e? X-D

Und wenn der CHip überarbeitet worden wäre, warum wird das dann nicht Marketingtechnisch ausgeschlachtet? Warum wurde kein PP der R420-Reihe eingebaut, der ja fertig in 0,13µ-lowK designed in den Schubladen liegt und dessen HierZ-Buffer funktioniert - was nochmal ~10% Performance für wenig Mehraufwand bedeutet hätte?

Fragen über Fragen, aber als 100% INFORMIERTER Gast hast du da sicherlich Antworten parat. [/SIZE][/QUOTE]

Schade das Ihr kein Computex-Update hier habt, gestern wurde ja ATI's Roadmap im Detail vorgestellet, dannn wären alle OP's beantwortet.

Ende aus Nikolaus*g*