PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI 's take on GeForce FX


Tarkin
2002-11-21, 15:23:06
http://firingsquad.gamers.com/features/comdex2002/page2.asp

Edit: Link geht jetzt (Demirug)

"Finally, it will be interesting to see what ATI is up to come February. Word on the street is that ATI’s follow-up to RADEON 9700 PRO (codenamed R350) has taped out recently and will be marketed under the name RADEON 9900. We’ve heard conflicting reports on its manufacturing process, we naturally assumed it would be a 0.13-micron part, but we’ve also been informed by another source that the design is 0.15-micron."

... nVidia wird wohl nicht lange "King of the Hill" sein (wenn überhaupt)

"For instance, NVIDIA is proud to claim that GeForce FX boasts pixel and vertex shaders that go beyond DirectX 9.0’s specs, yet a 400-500MHz chip with 8 pixel pipelines running very long shaders would spend all of its time in geometry, bringing frame rate to a crawl. ATI feels that with RADEON 9700’s multi-pass capability, having native support for thousands of shaders is useless, as the RADEON 9700 can loopback to perform those operations. ATI ran a demonstration of a space fighter that was rendered using this technique.

As far as NVIDIA’s bandwidth claims of GeForce FX’s 48GB/sec memory bandwidth, ATI states that the color compression in their HYPERZ III technology performs the same thing today, and with all of the techniques they use in RADEON 9700, they could claim bandwidth of nearly 100GB/sec, but if they did so no one would believe them, hence they’ve stood with offering just shy of 20GB/sec of bandwidth"

... soviel zu den 48 GB/s Bandbreite einer Gf FX ;)

seahawk
2002-11-21, 15:28:39
Der Link geht nicht :(

x-dragon
2002-11-21, 15:36:24
Originally posted by seahawk
Der Link geht nicht :( Hier ist er komplett:
http://firingsquad.gamers.com/features/comdex2002/page3.asp

[edit]
bin mal gespannt was unsere Experten dazu sagen :)

[dzp]Viper
2002-11-21, 15:36:56
ich sag nur

*freut sich auf r350*

;D

seahawk
2002-11-21, 15:39:43
Wenn das mit dem R350 Tapeout stimmt, wie schnell sind die Karten dann erhältlich -> ca. 3 Monate ?

Demirug
2002-11-21, 15:41:59
Originally posted by seahawk
Wenn das mit dem R350 Tapeout stimmt, wie schnell sind die Karten dann erhältlich -> ca. 3 Monate ?

Schwer zu sagen da man ja nicht weis was für ein Tapeout gemeint ist.

Demirug
2002-11-21, 15:56:01
For instance, NVIDIA is proud to claim that GeForce FX boasts pixel and vertex shaders that go beyond DirectX 9.0’s specs, yet a 400-500MHz chip with 8 pixel pipelines running very long shaders would spend all of its time in geometry, bringing frame rate to a crawl. ATI feels that with RADEON 9700’s multi-pass capability, having native support for thousands of shaders is useless, as the RADEON 9700 can loopback to perform those operations. ATI ran a demonstration of a space fighter that was rendered using this technique.

Zu erst mal Glückwunsch an das ATI-Marketing sie machen fortschritte auf dem Gebiet der Kundenverarschung.

Zuerst mal sind 300 Shaderops = 300 Shaderops ob man diese nun auf einmal durchrechnet oder auf 3 mal. Wenn man allerdings einen solchen Shader Aufteil bekommt man zusätzlichen Overhead. 300 Ops sind 1 Pass auf NV30 und mindestens 3 Passe auf dem R300. Daraus ergibt sich 2 mal zusätliches berechnen der Vertexpositionen + 2 mal zusätzliches durchlaufen des Trisetups + 2 mal zusätzliches Lesen und Schreiben in den Backbuffer + unbestimmter overhead für Rechnungen die aufgrund des spiltens mehrfach durchgeführt werden müssen. Zusätzlich besteht die Gefahr das man bei Verwendung eines 32 bit Backbuffer dabei auch noch Qualität verliert. Wenn zwei Chips das gleiche Performancensprofil haben gewinnt bei sowas immer der weniger Passes braucht. Und aufgrund des höhren Coretaktes sollte der NV30 mehr Shaderops pro sekunden ausführen können als der R300.

nagus
2002-11-21, 15:57:58
Originally posted by seahawk
Wenn das mit dem R350 Tapeout stimmt, wie schnell sind die Karten dann erhältlich -> ca. 3 Monate ?


was, wie, wo, wer .... R350 TAPEOUT?!?!?!

quelle??

ernesto.che
2002-11-21, 16:32:00
Originally posted by nagus



was, wie, wo, wer .... R350 TAPEOUT?!?!?!

quelle??


has taped out recently and will be marketed under the name RADEON 9900

Gleich im ersten Text ;)

nagus
2002-11-21, 16:41:02
Originally posted by ernesto.che

Gleich im ersten Text ;)

OH GLORY!!!


wenn das wirklich stimmt, wird das teil vielleicht offiziell angekündigt, bevor es überhaupt erste NV30-karte bei uns zu kaufen gibt....

ernesto.che
2002-11-21, 16:50:59
Originally posted by nagus


OH GLORY!!!


wenn das wirklich stimmt, wird das teil vielleicht offiziell angekündigt, bevor es überhaupt erste NV30-karte bei uns zu kaufen gibt....


Wenn damit das finale Tapeout (nennt man das so? :D ), dann stehen die Chancen gar nicht mal so schlecht, das deine Hoffnung eintritt.

Katrin
2002-11-21, 17:22:52
froi :-)

Bin ja mal gespannt, wie die reinhaut .. hehe

HOT
2002-11-21, 17:25:07
Hmm... da gibt sich ATI aber alle mühe NV ins hintertreffen zu bringen :D
Wenn wirklich jetzt schon das Tapeout stattfand, ist der Chip zu CeBit präsentationsreif und die Massenverfügbarkeit bei April/Mai sollte klappen.
Bleibt nurnoch die Frage wie schnell der R350 gegenüber seinem Vorgänger und dem GeforceFX sein wird.

i_Land
2002-11-21, 17:38:28
As far as NVIDIA’s bandwidth claims of GeForce FX’s 48GB/sec memory bandwidth, ATI states that the color compression in their HYPERZ III technology performs the same thing today, and with all of the techniques they use in RADEON 9700, they could claim bandwidth of nearly100GB/sec,
;)

We’ve heard conflicting reports on its manufacturing process, we naturally assumed it would be a 0.13-micron part, but we’ve also been informed by another source that the design is 0.15-micron.

In any case, R350 will certainly boast higher clock speeds and performance, so GeForce FX could be in for quite a battle if it slips any further.


0.15 and higher Clock Speed ???
Könnte wohl nicht sehr viel sein.
Ich tipp eher auf 0.13

nagus
2002-11-21, 17:39:25
Originally posted by HOT
Hmm... da gibt sich ATI aber alle mühe NV ins hintertreffen zu bringen :D
Wenn wirklich jetzt schon das Tapeout stattfand, ist der Chip zu CeBit präsentationsreif und die Massenverfügbarkeit bei April/Mai sollte klappen.
Bleibt nurnoch die Frage wie schnell der R350 gegenüber seinem Vorgänger und dem GeforceFX sein wird.


bitte nicht jetzt schon mit R350 spekulationen anfangen. über den chip ist so gut wie NICHTS bekannt.


ich hab übrigends meine developer-beziehungen genutzt und eine dezente anfrage an ATI gestellt, wann mit der R350 zu rechnen ist und ob es sich nur um eine schnellere R300 handelt, oder der chip vielleicht mehr features bietet...

Mehrpack
2002-11-21, 17:49:13
hi,
da dies ja das speku-forum ist, rat ich einfach mal das der r350 nen refresh und einige feature dazu bekommen wird die so richtung NV30 gehn.

Mehrpack

i_Land
2002-11-21, 18:02:33
Originally posted by nagus



bitte nicht jetzt schon mit R350 spekulationen anfangen. über den chip ist so gut wie NICHTS bekannt.


ich hab übrigends meine developer-beziehungen genutzt und eine dezente anfrage an ATI gestellt, wann mit der R350 zu rechnen ist und ob es sich nur um eine schnellere R300 handelt, oder der chip vielleicht mehr features bietet...

Und ??? was haste herausgefunden.
Spekulieren geht doch immer gut :D

Iceman346
2002-11-21, 18:12:01
Originally posted by i_Land
0.15 and higher Clock Speed ???
Könnte wohl nicht sehr viel sein.
Ich tipp eher auf 0.13

Sofern sie ausgewählte Chips nehmen und diesmal keinen störenden Spacer einbauen sollte eine höhere Taktrate problemlos drin sein.

HOT
2002-11-21, 18:43:49
In 150nm wird sich der R350 sicherlich nur schwerlich realisieren lassen. Der wird wohl 2-3 Transis mehr auf die Waage bringen ;)
Desweiteren denke ich, dass ATI den Chip voll Vertex-/Pixelshader 3.0 konform machen will.

Mehrpack
2002-11-21, 18:49:58
hi,
wäre eigentlich der nächste logische schritt aber ob die zeit gereicht hat die shaderunits aufzustocken, wenn man davon ausgeht das er sein richtiges tapeout hatte und april/mai verfügbar wäre, ausser der chip kommt erst so im september/oktober.

Mehrpack

aths
2002-11-21, 18:52:00
Originally posted by HOT
Desweiteren denke ich, dass ATI den Chip voll Vertex-/Pixelshader 3.0 konform machen will. Das erwarte ich erst für R400.

Demirug
2002-11-21, 19:35:19
Originally posted by aths
Das erwarte ich erst für R400.

Sehe ich ähnlich. Direkt von 2.0 auf 3.0 ist bei einem 6 Monatszyklus kaum zu schaffen.

nagus
2002-11-21, 20:30:07
Originally posted by i_Land


Und ??? was haste herausgefunden.
Spekulieren geht doch immer gut

:D :O :D :O

Ficus
2002-11-21, 21:04:57
Was will uns unser ATI-Richthofen damit sagen?
~Ich weiss jetzt was, was ich nicht sagen darf?
oder
~Ich weiss nix, aber wenn ich so geheimnisvoll tu...

nagus
2002-11-21, 21:06:52
Originally posted by Ficus
Was will uns unser ATI-Richthofen damit sagen?
~Ich weiss jetzt was, was ich nicht sagen darf?
oder
~Ich weiss nix, aber wenn ich so geheimnisvoll tu...


:bier:ATI:bier:ATI:bier:

seahawk
2002-11-21, 21:15:11
Ich denke die R350 wird den NV30 von der Bildfläche blasen

(zumindest so würde ich nagus interpretieren)

nagus
2002-11-21, 21:17:12
mail von ATI:

--------------------------
Hi XXXX,

Sorry, we cannot provide you with any details of products that have not been announced yet.

Best regards,

XXXX XXXXX
ATI developer relations
--------------------------


das sowas kommt, war mir klar :)

... ABER! "we cannot provide you with any details of products that have not been announced yet." >>> das läßt vermuten, dass ATI tatsächlich an einer R350 arbeitet und das teil irgendwann ( :) ) announced wird.

Ficus
2002-11-21, 21:17:37
edit:
hat sich erledigt, nagus war schneller

nagus
2002-11-21, 21:18:19
Originally posted by seahawk
Ich denke die R350 wird den NV30 von der Bildfläche blasen

(zumindest so würde ich nagus interpretieren)


obwohl mir ATI nichts verraten hat, vermute ich das gleiche

Xmas
2002-11-21, 21:43:58
Originally posted by nagus
... ABER! "we cannot provide you with any details of products that have not been announced yet." >>> das läßt vermuten, dass ATI tatsächlich an einer R350 arbeitet und das teil irgendwann ( :) ) announced wird.
Hm? Hat jemand bezweifelt dass ATI an einem neuen Chip arbeitet?

Ficus
2002-11-21, 21:47:59
Originally posted by Xmas

Hm? Hat jemand bezweifelt dass ATI an einem neuen Chip arbeitet?
hehe...ich habs mir verkniffen ;)

jetztwerden
2002-11-21, 21:59:03
R350 in 0,15µ? Wenns nach DigiTimes geht, eher nicht

"Graphics chips to enter the 0.13-micron processing competition in 2003

http://www.digitimes.com/NewsShow/Article2.asp?datePublish=2002/11/20&pages=08&seq=42

ich hoffe da ist was dran

Pussycat
2002-11-21, 23:49:07
Es hat doch mal nen Gerücht gegeben, dass erst ein 0,15 und dann ein 0,13 R350 kommen sollte?

Demirug
2002-11-22, 00:13:59
Originally posted by Pussycat
Es hat doch mal nen Gerücht gegeben, dass erst ein 0,15 und dann ein 0,13 R350 kommen sollte?

Wenn ATI aber wirklich auf einen schnelleren Zyklus als bisher einschwenken will dürfte sich das kaum lohnen. Ausser man plant wieder von der "ein Basis-Chip für alle" Strategie abzurücken und die 0,13 kommt dann später als Refresh für den Lowcost markt.

Unregistered
2002-11-22, 00:53:25
Originally posted by Mehrpack
hi,
da dies ja das speku-forum ist, rat ich einfach mal das der r350 nen refresh und einige feature dazu bekommen wird die so richtung NV30 gehn.

Mehrpack

ROFLMAO, der Witz war gut, war doch einer oder ;)
Wieso sollte ATi jetzt drei Schritte zurück machen und bessere Technologie gegen schlechtere tauschen??? Die NV30 hat ja nichtmal DM, das einzige was die haben ist PR und ein viele Leute die den Misst schlcuken ;)

Kai
2002-11-22, 01:29:01
Originally posted by Unregistered


ROFLMAO, der Witz war gut, war doch einer oder ;)
Wieso sollte ATi jetzt drei Schritte zurück machen und bessere Technologie gegen schlechtere tauschen??? Die NV30 hat ja nichtmal DM, das einzige was die haben ist PR und ein viele Leute die den Misst schlcuken ;)

Yap! Genau wie die Typen bei ATI, gelle? Ich glaube, ihr habt eines immernoch nicht gecheckt.

Weder ATI noch nVidia sind scharf darauf euch mit ihren Produkten glücklick zu machen: DIE WOLLEN EUER BESTES: GELD! Da ist der eine genau wie der andere.

zeckensack
2002-11-22, 02:40:29
Originally posted by Tarkin
"For instance, NVIDIA is proud to claim that GeForce FX boasts pixel and vertex shaders that go beyond DirectX 9.0’s specs, yet a 400-500MHz chip with 8 pixel pipelines running very long shaders would spend all of its time in geometry, bringing frame rate to a crawl."Das ist doch Unsinn ...

Wie sollen lange Pixelshader denn dazu führen, daß der Chip in der Geometrieeinheit ... äh :|

Im Gegentum. Lange Pixelshader sparen Bandbreite (pro Takt!). Insgesamt sind längere Shader langsamer als kurze, ist klar. Aber je länger die Shader werden, desto weniger tut ein zu kleines Speicherinterface weh.

Irgendwie ist der Satz da oben total schnulli ?-)

Mehrpack
2002-11-22, 06:13:32
Originally posted by Unregistered


ROFLMAO, der Witz war gut, war doch einer oder ;)
Wieso sollte ATi jetzt drei Schritte zurück machen und bessere Technologie gegen schlechtere tauschen??? Die NV30 hat ja nichtmal DM, das einzige was die haben ist PR und ein viele Leute die den Misst schlcuken ;)

hi,
die ATI hat auch kein richtiges DM und von den feature her meinte ich 2.0+ bei den shadern.
die FP auf 32 bit.
ATI wird keine Karte machen die vom Featureset her ner NV40 gleich kommen würde.
denn es wäre nicht genug zeit geschweige denn was will man sich für den R400 aufheben.
das sind hersteller, und keine almosen featureverteiler.
die R350 soll dem NV30/NV35 paroli bieten.
mehr nicht.
die nächste "Revolution" im wasserglas kommt dann mit NV40/R400.

Mehrpack

Demirug
2002-11-22, 07:39:09
Originally posted by zeckensack
Das ist doch Unsinn ...

Wie sollen lange Pixelshader denn dazu führen, daß der Chip in der Geometrieeinheit ... äh :|

Im Gegentum. Lange Pixelshader sparen Bandbreite (pro Takt!). Insgesamt sind längere Shader langsamer als kurze, ist klar. Aber je länger die Shader werden, desto weniger tut ein zu kleines Speicherinterface weh.

Irgendwie ist der Satz da oben total schnulli ?-)

Darüber habe ich mich auch schon weiter oben amüsiert.

seahawk
2002-11-22, 07:56:02
Ich denke auch das wird ein R300 refresh. Mehr in Richtung NV30, mehr Takt, DDR2, einige neue features. Wahrscheinlich gerade soviel, dass die Leistungskrone wieder bei ATI liegt. (wenn ATI die überhaupt verloren hat)

nagus
2002-11-23, 12:53:01
Beyond3d Forum:

"R350 = Core enhached R300 w/ possibly PS & VS 3.0 [Source; diverse ATi employees said it would be 'DX 9.1'], 0.15µ, it should have 375+ MHz, DDR2 at 400+ MHz, should be the new Super High-End card (Or at least be even w/ the NV30) ..."


... ich dachte es gibt keine DX9.1 ?

ow
2002-11-23, 13:08:04
Deshalb dürfte diese Meldung auch nicht so sehr ernst zu nehmen sein.


Wenn ich Demirug damals richtig verstanden habe, bringt DX9.1 nur einige Entwicklerwerkzeuge mit zum Erleichtern der Shader-Programmierung, aber keine neuen Funktionen.

Deshalb soll es wohl kein DX9.1 runtime für Enduser geben (wohl aber ein DX9.1 SDK für Entwickler).


/edit: auch VS/PS3.0 sind Teil von DX9, also auch mit diesen Möglichkeiten wäre der R350 immer noch DX9.

Demirug
2002-11-23, 13:20:38
ow,

ja das ist der aktuelle stand der Dinge. Wobei der Name DX 9.1 für das SDK noch nicht sicher ist da man eine Verwirrung bei den Endkunden befürchtet.

An PS und VS 3.0 mag ich wie schon gesagt nicht so recht glauben da die unterschiede von 2.0 doch recht gross sind. MS hat zwar indirekt bestätigt das mindestens 3 firmen an Shader 3.0 Chips arbeiten aber wie weit diese arbeiten fortgeschritten sind kann ich nicht sagen. IMO handelt es sich dabei eher um R400 und NV40.

stickedy
2002-11-23, 15:40:36
Und der PowerVR Series5?

Demirug
2002-11-23, 15:45:09
@stickedy,

möglich es wurde ja auch von mindestens 3 gesprochen.

Thowe
2002-11-23, 16:33:23
Originally posted by stickedy
Und der PowerVR Series5?

Spekulation - Mindestens 3.0

Birdman
2002-11-23, 18:07:55
Originally posted by nagus
Beyond3d Forum:

"R350 = Core enhached R300 w/ possibly PS & VS 3.0 [Source; diverse ATi employees said it would be 'DX 9.1'], 0.15µ, it should have 375+ MHz, DDR2 at 400+ MHz, should be the new Super High-End card (Or at least be even w/ the NV30) ..."

Gehört die Aussage in den Klammern auch dazu ? Das würde ja bedeuten dass der NV30 doch deutlich schneller ist als der R300 und sogar von einem ATI mitarbeiter so bestätigt.....

Razor
2002-11-23, 20:10:20
Originally posted by Birdman

Gehört die Aussage in den Klammern auch dazu ? Das würde ja bedeuten dass der NV30 doch deutlich schneller ist als der R300 und sogar von einem ATI mitarbeiter so bestätigt.....
Dachte auch, dass ich mich da gerade verlesen haben...
Da wird doch tatsächlich gesagt, dass es der neue Super-Chip wird, zumindest aber mit dem NV gleichzieht ?
Hmmm...
:D

Razor

Thowe
2002-11-23, 21:06:30
Originally posted by Razor
Da wird doch tatsächlich gesagt, dass es der neue Super-Chip wird, zumindest aber mit dem NV gleichzieht ?


Da es keinerlei echten Messwerte von der NV30 gibt, ausser die von NV selbst zur Verfügung gestellten, ist die Aussage durchaus schlüssig. Ist die NV30 wirklich ein Renner, dann wird die R350 mithalten, ist die NV30 aber langsamer als bislang vermutet dann wird die R350 daran vorbeiziehen.

AlfredENeumann
2002-11-23, 21:42:57
Originally posted by Birdman

Gehört die Aussage in den Klammern auch dazu ? Das würde ja bedeuten dass der NV30 doch deutlich schneller ist als der R300 und sogar von einem ATI mitarbeiter so bestätigt.....

Wie schön, das bei ATI so ziemlich jeder mitarbeiter weis wie schnell die KArte ist. Nich mal Nvidias OEMs wissen das.

Quasar
2002-11-23, 22:06:34
Originally posted by Thowe
Da es keinerlei echten Messwerte von der NV30 gibt, ausser die von NV selbst zur Verfügung gestellten, ist die Aussage durchaus schlüssig. Ist die NV30 wirklich ein Renner, dann wird die R350 mithalten, ist die NV30 aber langsamer als bislang vermutet dann wird die R350 daran vorbeiziehen.

Ich denke, das erstaunlich an dieser Aussage ist die Tatsache, dass, im Gegensatz zu vielen hiesigen Forumsmitgliedern, gar nicht erst die Vermutung geäussert wird, der R300 könne schon ausreichen, um den nV30 in Schach zu halten.

Thowe
2002-11-23, 22:18:27
Originally posted by Quasar


Ich denke, das erstaunlich an dieser Aussage ist die Tatsache, dass, im Gegensatz zu vielen hiesigen Forumsmitgliedern, gar nicht erst die Vermutung geäussert wird, der R300 könne schon ausreichen, um den nV30 in Schach zu halten.

Also ich gehe fest davon aus das der NV30 (besonders die U-Version) schon im Durchschnitt schneller als die R9700 sein wird. Ich glaube auch nicht das die Taktfrequenz so ist, wie sie im Ursprung beabsichtigt war, sondern das diese Anhebung dank der guten Vorlage von ATi nötig wurde. Wobei die jetzigen Benchmarks so oder so nicht besonders Aussagekräftig sind und somit nicht mal für Spekulationen reichen. IMHO sollte der, der auf die NV30 wartet eh gleich auf den NV35 warten, ich glaube nicht das der viel später kommen wird.

Börk
2002-11-23, 23:26:30
Originally posted by Thowe


Also ich gehe fest davon aus das der NV30 (besonders die U-Version) schon im Durchschnitt schneller als die R9700 sein wird. Ich glaube auch nicht das die Taktfrequenz so ist, wie sie im Ursprung beabsichtigt war, sondern das diese Anhebung dank der guten Vorlage von ATi nötig wurde. Wobei die jetzigen Benchmarks so oder so nicht besonders Aussagekräftig sind und somit nicht mal für Spekulationen reichen. IMHO sollte der, der auf die NV30 wartet eh gleich auf den NV35 warten, ich glaube nicht das der viel später kommen wird.
Jetzt ist nur die frage wieviel mehr bringt der NV35???
Endlich ein verbessertes AA? 256bit speicherinterface? Einen neuen AF Algorithmus? Oder einfach nur höheren takt?

Labberlippe
2002-11-24, 02:24:43
Originally posted by Thowe


Also ich gehe fest davon aus das der NV30 (besonders die U-Version) schon im Durchschnitt schneller als die R9700 sein wird. Ich glaube auch nicht das die Taktfrequenz so ist, wie sie im Ursprung beabsichtigt war, sondern das diese Anhebung dank der guten Vorlage von ATi nötig wurde. Wobei die jetzigen Benchmarks so oder so nicht besonders Aussagekräftig sind und somit nicht mal für Spekulationen reichen. IMHO sollte der, der auf die NV30 wartet eh gleich auf den NV35 warten, ich glaube nicht das der viel später kommen wird.

Meinereiner geht auch davon aus, gerade dann wenn ich die Fillrate beim NV30 betrachte.
Wenn das wirklich stimmt, dann ist der NV30 der R9700 klar überlegen.


Gruss Labberlippe

Pussycat
2002-11-24, 15:30:22
Originally posted by burk23

Jetzt ist nur die frage wieviel mehr bringt der NV35???
Endlich ein verbessertes AA? 256bit speicherinterface? Einen neuen AF Algorithmus? Oder einfach nur höheren takt?

Stickstoffkühlung :)

Ich erwarte 256 bit und 'echte' tri TMU's.

zeckensack
2002-11-25, 03:43:45
"R350 = Core enhached R300 w/ possibly PS & VS 3.0
[Source; diverse ATi employees said it would be 'DX 9.1']
,
0.15µ,
it should have 375+ MHz, DDR2 at 400+ MHz, should be the new Super High-End card (Or at least be even w/ the NV30) ..."

Wieso ordnen einige hier die Quellenangabe dem restlichen Satz zu? Wenn das die beabsichtigte Semantik wäre, müßte der Satz dann nicht so lauten (?) :
"R350 = Core enhached R300 w/ possibly PS & VS 3.0, 0.15µ,
it should have 375+ MHz, DDR2 at 400+ MHz, should be the new Super High-End card (Or at least be even w/ the NV30) [Source; diverse ATi employees]"

seahawk
2002-11-25, 08:51:41
Originally posted by Thowe


Also ich gehe fest davon aus das der NV30 (besonders die U-Version) schon im Durchschnitt schneller als die R9700 sein wird. Ich glaube auch nicht das die Taktfrequenz so ist, wie sie im Ursprung beabsichtigt war, sondern das diese Anhebung dank der guten Vorlage von ATi nötig wurde. Wobei die jetzigen Benchmarks so oder so nicht besonders Aussagekräftig sind und somit nicht mal für Spekulationen reichen. IMHO sollte der, der auf die NV30 wartet eh gleich auf den NV35 warten, ich glaube nicht das der viel später kommen wird.

Grundsätzlich ja, aber eigentlich kann man immer warten....

Razor@Work
2002-11-25, 09:08:40
Originally posted by zeckensack
"R350 = Core enhached R300 w/ possibly PS & VS 3.0
[Source; diverse ATi employees said it would be 'DX 9.1']
,
0.15µ,
it should have 375+ MHz, DDR2 at 400+ MHz, should be the new Super High-End card (Or at least be even w/ the NV30) ..."

Wieso ordnen einige hier die Quellenangabe dem restlichen Satz zu? Wenn das die beabsichtigte Semantik wäre, müßte der Satz dann nicht so lauten (?) :
"R350 = Core enhached R300 w/ possibly PS & VS 3.0, 0.15µ,
it should have 375+ MHz, DDR2 at 400+ MHz, should be the new Super High-End card (Or at least be even w/ the NV30) [Source; diverse ATi employees]"
Sehr schön Zeckensack,

nur leider soll dieser Post von einem ATI-Mitarbeiter gekommen sein...
Dieser wollte wohl nur bestätigen, dass insbesondere die DX9.1 compliance (was auch immer das sein soll und ob's das jemals geben wird ;-) von "diverse ATi employees" bestätig wurde. Der Rest offenbar nicht...

Bis denne

Razor

Razor@Work
2002-11-25, 09:15:19
Originally posted by Quasar

Ich denke, das erstaunlich an dieser Aussage ist die Tatsache, dass, im Gegensatz zu vielen hiesigen Forumsmitgliedern, gar nicht erst die Vermutung geäussert wird, der R300 könne schon ausreichen, um den nV30 in Schach zu halten.
Exakt DAS ist der Punkt, auf den man sich konzentrieren sollte...

Hier wird so viel darüber gesprochen, ob nun der NV30 die R300 (pro) tatsächlich schlagen könnte etc.pp.
In diesem Kommentar aber, wird aber erst die Leistungsfähigkeit des R350 (was und wann das auch immer sein wird ;-) in Relation zum NV30 gesetzt...

Ergo:

R300 < R350
NV30 <= R350

daraus folgt:

R300 < NV30 <= R350

That's it !
(und nur ein Gerücht, zudem von 'nem ATI-Mitarbeiter ;-)

Razor

Demirug
2002-11-25, 09:56:40
Zum einen plane ATI, eine Reihe von neuen Produkten auf den Markt zu bringen, was mit einigen Kosten verbunden sei. Außerdem sei der Preis für den neuen Radeon 9.700 relativ hoch,. Es bestehe die Möglichkeit, dass dieser reduziert werden müsse, was sich negativ auf die Marge auswirken könnte.

MERRILL LYNCH INVESTMENT

Das ganze stamt von einem Treffen von ATI mit Investmentbankern am 20.11.2002.

Quasar
2002-11-25, 10:12:59
Komisch,
solange man das schnellste Produkt anbieten kann (inkl. der zugehörigen Budget-Versionen), warum sollte man da auf einmal so altruistisch sein und sich am 20.11.2002 entschliessen, den Preis senken??
......

Demirug
2002-11-25, 10:17:43
Ich denke mal das dies nun keine spontane Entscheidung am 20.11 war. Bei solchen Treffen geht es ja auch um Ausblicke. Was ATI wohl sagen wollte war eher das man den Preis der 9700er nicht bis zum Erscheinen des Nachfolgeprodukts (bzw. bis zum nächsten Treffen) auf dem derzeitigen Level halten können wird.

ow
2002-11-25, 10:17:43
Ganz einfach:
Die Dinger verkaufen sich wohl schlecht. Also muss der Preis runter.

seahawk
2002-11-25, 10:24:08
Originally posted by ow
Ganz einfach:
Die Dinger verkaufen sich wohl schlecht. Also muss der Preis runter.

Oder der Leistungsunterschied zum NV30 ist so groß, dass der preisliche Abstand vergrößert werden muss.

Mehr sorgen machen mir bei ATI immer noch die 9700. In der Herstellung dürfte die Ersparnis sehr gering sein. Trotzdem müssen die den Preis dafür erheblich unter der pro halten ....

nagus
2002-11-25, 10:27:24
Originally posted by ow
Ganz einfach:
Die Dinger verkaufen sich wohl schlecht. Also muss der Preis runter.


*pfff* so ein blödsinn. die haben schon vor 2 monaten die 1 mio grenze überschritten.


außerdem war vor einigen wochen sogar die rede davon, dass die preise wieder etwas anziehen, weil sich die 9700 sehr gut verkaufen!


btw, auf ati.com kostet die Radeon 9700 noch 400$

Exxtreme
2002-11-25, 10:39:47
Ich würde eher auf eine stinknormale Preissenkung tippen.
Originally posted by ow
Ganz einfach:
Die Dinger verkaufen sich wohl schlecht. Also muss der Preis runter.

Demirug
2002-11-25, 10:56:39
Originally posted by Exxtreme
Ich würde eher auf eine stinknormale Preissenkung tippen.


Sowas wie eine "stinknormale Preissenkung" gibt es nicht. Preise werden immer nur aufgrund irgendwelcher Einflüsse gesenkt. Primär ist dort immer die Markt und Konkurrenz Situation zu nennen. Selbst wenn die Produktion günstiger wird prüft man sehr genau ob eine Preissenkung die Gesamteinahmen überhaupt erhöhen wird.

zeckensack
2002-11-25, 10:58:03
Originally posted by Quasar
Komisch,
solange man das schnellste Produkt anbieten kann (inkl. der zugehörigen Budget-Versionen), warum sollte man da auf einmal so altruistisch sein und sich am 20.11.2002 entschliessen, den Preis senken??
...... Die Modelle unter der 9700Pro (von der nicht die Rede ist) könnten auch Instrumente sein um die gewinnträchtigen Produkte der Konkurrenz vom Markt zu treiben.

Ti4400/4600 dürften ab einer gewissen Preisgrenze nicht mehr rentabel sein. Selbst die 9500Pro wird mit diesen Karten ganz gut fertig.

seahawk
2002-11-25, 11:00:39
Originally posted by zeckensack
Die Modelle unter der 9700Pro (von der nicht die Rede ist) könnten auch Instrumente sein um die gewinnträchtigen Produkte der Konkurrenz vom Markt zu treiben.

Ti4400/4600 dürften ab einer gewissen Preisgrenze nicht mehr rentabel sein. Selbst die 9500Pro wird mit diesen Karten ganz gut fertig.

Aber kann ATI ne 9700 (ohne pro) billiger herstellen als NV ne 4600 ?? Ich meine der Unterschied zur pro ist ja kostenmäßig sehr gering.

Exxtreme
2002-11-25, 11:02:55
Hmm, AFAIK wird der Preis der R9700Pro nicht gesenkt, denn diese ist ausser Konkurrenz. Gesenkt wird der Preis der R9700 ohne Pro. Ich denke, daß ATi "von oben" an der Konkurrenz nagen will. NV wird nämlich jetzt gezwungen sein den Preis für die GF4-Serie weiter zu senken.
Originally posted by Demirug


Sowas wie eine "stinknormale Preissenkung" gibt es nicht. Preise werden immer nur aufgrund irgendwelcher Einflüsse gesenkt. Primär ist dort immer die Markt und Konkurrenz Situation zu nennen. Selbst wenn die Produktion günstiger wird prüft man sehr genau ob eine Preissenkung die Gesamteinahmen überhaupt erhöhen wird.

zeckensack
2002-11-25, 11:09:33
Originally posted by seahawk


Aber kann ATI ne 9700 (ohne pro) billiger herstellen als NV ne 4600 ?? Ich meine der Unterschied zur pro ist ja kostenmäßig sehr gering. Ganz sicher nicht.

Die 9500Pro kommt IMO vom Herstellungsaufwand nahe heran, und bietet dank DX9 und ein paar Quali-Kleinigkeiten genug Mehrwert ggü einer Ti4600 um einen preislichen Abstand erzwingen zu können.

Oder anders:
Würde die 9500Pro das gleiche kosten wie die Ti4600 wäre letztere unattraktiv und müßte billiger gemacht werden.

Der R300 ist größer als der NV25. Die Platinenbestückung könnte demnächst billiger sein (wenn die Hersteller denn mal auf extra PCBs für die kleinen Karten umstellen).

Und bevor sich jemand wundert, die Preise der 9500/9500Pro müssen einfach auch sinken, wenn die 9700 runtergeht. Oder anders gesagt könnte der Preis der 9700 auch sinken, weil man beschlossen hat daß die 9500Pro und 9500 billiger werden sollen.
Ist ein wenig Razor-Logik, verzeiht ...

Jedenfalls lese ich dort nicht heraus, daß dir 9700Pro billiger werden soll.

Unregistered
2002-11-25, 11:18:29
Originally posted by Razor@Work

[...]

Ergo:

R300 < R350
NV30 <= R350

daraus folgt:

R300 < NV30 <= R350

[...]

Razor

Deine Folgerung ist unzulässig. Die (vermutlich richtigen) Grundannahmen erlauben keine Schlußfolgerungen vom Verhältnis von NV30 und R300. (In Mathe nicht aufgepasst? :-P)

Gruß

Jörg

Demirug
2002-11-25, 11:18:41
Versteift euch mal bitte nicht so auf das Pro und nicht Pro. Den Bankern gegenüber spricht man nicht von solchen Details. Dort gehört alles von der 9500er bis zur 9700Pro einfach zur Radeon 9700 Familie.

ow
2002-11-25, 12:06:54
Originally posted by Demirug


Sowas wie eine "stinknormale Preissenkung" gibt es nicht. Preise werden immer nur aufgrund irgendwelcher Einflüsse gesenkt. Primär ist dort immer die Markt und Konkurrenz Situation zu nennen. Selbst wenn die Produktion günstiger wird prüft man sehr genau ob eine Preissenkung die Gesamteinahmen überhaupt erhöhen wird.

Full Ack.
Wollte das auch gerade schreiben. 'Normale Preissenkungen' gibt es nicht. Irgendwas steckt da immer dahinter.

ow
2002-11-25, 12:10:11
Originally posted by Exxtreme
Hmm, AFAIK wird der Preis der R9700Pro nicht gesenkt, denn diese ist ausser Konkurrenz. Gesenkt wird der Preis der R9700 ohne Pro. Ich denke, daß ATi "von oben" an der Konkurrenz nagen will. NV wird nämlich jetzt gezwungen sein den Preis für die GF4-Serie weiter zu senken.


Das wird IMO nicht hinhauen, weil die ATi Chips teuerer als die GF4 Chips herzustellen sind und daher wohl ATi zuerst die Gewinnzone verlaesst und seine Chips mit Verlust verkaufen muss.

AlfredENeumann
2002-11-25, 12:52:34
Originally posted by Razor@Work

Sehr schön Zeckensack,

nur leider soll dieser Post von einem ATI-Mitarbeiter gekommen sein...
Dieser wollte wohl nur bestätigen, dass insbesondere die DX9.1 compliance (was auch immer das sein soll und ob's das jemals geben wird ;-) von "diverse ATi employees" bestätig wurde. Der Rest offenbar nicht...

Bis denne

Razor


Auch für dich: Woher wissen die von ATI wie schnell genau der NV30 ist, wenn es sonst keine sau weis ?

AlfredENeumann
2002-11-25, 12:54:26
Originally posted by ow
Ganz einfach:
Die Dinger verkaufen sich wohl schlecht. Also muss der Preis runter.


Gelächter.

Die GF4TI 4600 Verkauft sich dermaßen schlecht das sie einen Erdrutschartigen Preisverfall hintersich hat.
=)

AlfredENeumann
2002-11-25, 12:56:51
Originally posted by ow


Das wird IMO nicht hinhauen, weil die ATi Chips teuerer als die GF4 Chips herzustellen sind und daher wohl ATi zuerst die Gewinnzone verlaesst und seine Chips mit Verlust verkaufen muss.


Quelle ?

ow
2002-11-25, 12:58:53
Originally posted by AlfredENeumann



Quelle ?


Intelligenz und Faehigkeit zu logischen Schlussfolgerungen.

ow
2002-11-25, 12:59:38
Originally posted by AlfredENeumann



Gelächter.

Die GF4TI 4600 Verkauft sich dermaßen schlecht das sie einen Erdrutschartigen Preisverfall hintersich hat.
=)


Warum bleibst du nicht beim Thema?
Das da heisst: warum senkt ATi die Preise?

chicki
2002-11-25, 13:12:07
Originally posted by Demirug


Sowas wie eine "stinknormale Preissenkung" gibt es nicht. Preise werden immer nur aufgrund irgendwelcher Einflüsse gesenkt. Primär ist dort immer die Markt und Konkurrenz Situation zu nennen. Selbst wenn die Produktion günstiger wird prüft man sehr genau ob eine Preissenkung die Gesamteinahmen überhaupt erhöhen wird.
ich denke mal er meinte ein preissenkung auf grund des zeitlichen faktors, die karten sind eben keine weltneuheit mehr.

Quasar
2002-11-25, 13:17:16
Originally posted by AlfredENeumann
Gelächter.
Die GF4TI 4600 Verkauft sich dermaßen schlecht das sie einen Erdrutschartigen Preisverfall hintersich hat.
=)
Dir sollte doch wohl klar sein, dass bei überlegener Konkurrenz, was die Performance-Krone angeht, der Luxus-Zuschlag für das High-End Modell wegfällt, oder?

Quasar
2002-11-25, 13:19:45
Originally posted by AlfredENeumann
Quelle ?

0,15 = 0,15
325 > 300
107 > 63

Reicht das?

ow
2002-11-25, 13:22:42
Originally posted by chicki

ich denke mal er meinte ein preissenkung auf grund des zeitlichen faktors, die karten sind eben keine weltneuheit mehr.



Und eben sowas gibt es nicht.
Solange ein bestimmter Preis von den Kunden fuer ein Produkt bezahlt wird, kaeme KEINE Firma auf die Idee, den Preis zu senken.

Bei schlechtem Absazt werden die Preise gesenkt, um den Verkauf zu foerdern, bei hohem Absatz werden sie Preise erhoeht um nicht in Lieferschwierigkeiten zu geraten.

Das ist ganz grob das 1x1 der Marktwirtschaft.:D

ow
2002-11-25, 13:24:23
Originally posted by Quasar


0,15 = 0,15
325 > 300
107 > 63

Reicht das?

Schade, diese Gedankengaenge haette ich AEN schon selbst zugetraut.

Quasar
2002-11-25, 13:27:29
Ich auch, aber das Fragen nach einer Quelle scheint sich ja wie eine fiese Grippe hier zu verbreiten.
Manchmal mag eine Quelle recht sinnvoll sein, wenn die Behauptung nicht einfach durch gesunden Menschenverstand nachvollzogen werden kann, manchmal ist's aber auch reichlich *piiieeeep* danach zu fragen.

Hauwech
2002-11-25, 13:30:17
Originally posted by Quasar


0,15 = 0,15
325 > 300
107 > 63

Reicht das?

Davon abgesehen ist es auch unbekannt was nVidia und ATI pro Wafer zahlen. Imho zahlt nVidia weniger pro Wafer wegen hoeheren Stueckzahlen. Die Vertraege kennen wir sowieso nicht.

Pussycat
2002-11-25, 13:39:47
Originally posted by ow

Und eben sowas gibt es nicht.
Solange ein bestimmter Preis von den Kunden fuer ein Produkt bezahlt wird, kaeme KEINE Firma auf die Idee, den Preis zu senken.


Würde nicht eher den Preis gewähl werden, bei dem Verkaufszahlen*marge = maximal?

seahawk
2002-11-25, 13:41:54
Originally posted by ow

Und eben sowas gibt es nicht.
Solange ein bestimmter Preis von den Kunden fuer ein Produkt bezahlt wird, kaeme KEINE Firma auf die Idee, den Preis zu senken.

Bei schlechtem Absazt werden die Preise gesenkt, um den Verkauf zu foerdern, bei hohem Absatz werden sie Preise erhoeht um nicht in Lieferschwierigkeiten zu geraten.

Das ist ganz grob das 1x1 der Marktwirtschaft.:D

Ein anderer Grund kann auch sein, dass man weiß dass ein besseres Produkt auf den Markt kommt und man daher den Preis senkt. Zu einem um den Konkurrenten der Wind aus den Segeln zu nehmen, zum anderen um die eigene Absatzlage zu stabilisieren.

Aber so lange der Kartenverkauf den Erwartungen entspricht wird keine Firma den Preis senken. Schon die Aktionäre erwarten ja, dass der maximale Gewinn erreicht wird. Also wird der Preis erst gesenkt wenn ein Absatzverlust da oder vorhersehbar ist.

ow
2002-11-25, 13:46:10
Originally posted by Pussycat


Würde nicht eher den Preis gewähl werden, bei dem Verkaufszahlen*marge = maximal?

Theoretisch ja, aber wie willst du den denn ermitteln?? Durch ... "Preisversuche"??

Das ist sooo einfach leider nicht.

Demirug
2002-11-25, 13:52:52
Originally posted by ow


Theoretisch ja, aber wie willst du den denn ermitteln?? Durch ... "Preisversuche"??

Das ist sooo einfach leider nicht.

Erschwerden für ATI (und auch die anderen Hersteller) kommt ja noch dazu das man das ganze ja nicht nur für ein Produkt bestimmen muss sondern für alle Produkte im gleichen Sektor. Also eine Gewinnmaximierung für alle Grafikkarten von Lowend bis Highend. Da dürfen die armen Jungs im Controlling schon schön ihr Excel quälen.

AlfredENeumann
2002-11-25, 20:00:20
Originally posted by ow



Warum bleibst du nicht beim Thema?
Das da heisst: warum senkt ATi die Preise?

Gegenfrage, warum senkt Nvidia die Preise für die GF4?
Beantworte dir diese Frage und du weis warum eine Preissenkung der Radeonkarten in betracht gezogen wird. Noch sind ja keine Preissenkungen angekündigt.

AlfredENeumann
2002-11-25, 20:01:37
Originally posted by Quasar

Dir sollte doch wohl klar sein, dass bei überlegener Konkurrenz, was die Performance-Krone angeht, der Luxus-Zuschlag für das High-End Modell wegfällt, oder?


Aha. Wenn die NV30 wirklich so schnell ist wie in den Benches das wird die R300 "natürlich" im PReis fallen. Also warum wird dann hier diskutiert ?

AlfredENeumann
2002-11-25, 20:02:43
Originally posted by Quasar


0,15 = 0,15
325 > 300
107 > 63

Reicht das?


?? Helf mir mal bitte auf die sprünge.

Demirug
2002-11-25, 20:05:05
Originally posted by AlfredENeumann


Gegenfrage, warum senkt Nvidia die Preise für die GF4?

Weil sie zum alten Preis nicht mehr zu verkaufen ist weil der Highend Faktor weg ist. Nur so eine Vermutung.

AlfredENeumann
2002-11-25, 20:06:21
Originally posted by Hauwech


Davon abgesehen ist es auch unbekannt was nVidia und ATI pro Wafer zahlen. Imho zahlt nVidia weniger pro Wafer wegen hoeheren Stueckzahlen. Die Vertraege kennen wir sowieso nicht.


Aber dennoch wissen wir nicht wer wieviel Ausbeute pro Wafer hat.
Wenn man davon ausgeht, das das Design der R300 so gewählt ist, das man nur Chips für den 9700Pro produzieren will und den Ausschuß entsprechend noch als 9700er, 9500Pro und 9500er verwenden kann ist die Ausbeute entsprechend hoch. Dementsprechend günstig die Chips, da diese ja dann kein Ausschuß sind sondern Verkaufsprodukte.

Thowe
2002-11-25, 20:16:26
Ich denke nicht das man eine solche Diskussion mit den einfachen Grundsätzen der Marktregulierung betrachten sollte.

Für mich stellt sich die aktuelle Preispolitik von ATi wie folgt da: ATi ist sich bewusst das nVidia bald wieder ein Zugpferd haben wird. Die echte Unbekannte ist, wie hoch ist die tatsächliche Praxisleistung der Karten. Dies wird ATi vermutlich besser erahnen können, als wir dies vermögen. Was ATi aber sicher weiss, denn ich glaube nicht das ATi weniger als ich weiss, ist das nVidia sehr hohe Entwicklungskosten hatte. Also versucht man den Konkurrenten jetzt und sofort das Wasser abzugraben, damit die nächsten Bilanzen eben "schlechter" aussehen.

Ich glaube nicht das ATi eine schlechtere Ausbeute bei der R300 hat wie NVIDIA bei der NV30.

Achill
2002-11-25, 22:05:22
Man sollte evtl. auch in betracht ziehen, dass eine Gewinnoptimierung nicht unbedingt das beste ist.

Wäre ich an ATI's stelle, würde ich versuche, Anteile in allen Bereichen zurück zu erobern. Den fakt ist, solange spiele maßgeblich nur auf eine grafikkarte (NV) optimiert werden, verliert man roh-performence allein schon wegen der optimierung der spiele.

Denkbar wäre also, dass ATI ein paar prozente wieder zurück holen will, solange sie noch schnellster sind, und das in allen segmenten - darum so viele abstufungen.

Des weiteren ist die Verbreitung einer Grafikkarte wichtig, denn ein unwissender, der hört 4 von seinen 5 freunden haben eine GFs, wird davon auch beeinflust.


Des weiteren finde ich semtliche diskutionen über den "markt" und die regulierung des marktes als witzlos, da keiner hier von uns solch weitreichende einblicke haben wird (preisabsprache, firmenspionage ect.) und die es sicher haben lachen nur - und glaubt nicht immer alles was sie euch in der schule beibringen ;)

Demirug
2002-11-25, 22:17:19
Originally posted by Achill
Wäre ich an ATI's stelle, würde ich versuche, Anteile in allen Bereichen zurück zu erobern. Den fakt ist, solange spiele maßgeblich nur auf eine grafikkarte (NV) optimiert werden, verliert man roh-performence allein schon wegen der optimierung der spiele.

Hört doch bitte endlich mal damit auf den Entwicklern zu unterstellen das gandenloss auf NVIDIA optimiert wird.

Bei DirectX geht das nicht und da NVIDIA, ATI und MS dort die gleichen Tips zum optimieren geben kann man also gar keinen Bevorzugen weil alle von den Optimierungen profitieren.

Bei OpenGL muss man sowieso für jeden Hersteller einzelen optimieren. Und bis auf wenige Negativ Beispiele (NWN) wird das auch ordentlich gemacht.

Quasar
2002-11-25, 22:34:43
Demirug,
wusstest du nicht, dass in 77% aller Spiele Abfragen drin sind, die bei Nichtvorhandensein einer nV-Karte das Spiel automatisch um 10-15% ausbremsen? Tststs....du als Entwickler... ;)

Exxtreme
2002-11-25, 22:36:42
Jaja, jetzt kommt's raus!!1111
Das habe ich schon immer geahnt, nur beweisen konnte ich es nie!!!111
;)
Originally posted by Quasar
Demirug,
wusstest du nicht, dass in 77% aller Spiele Abfragen drin sind, die bei Nichtvorhandensein einer nV-Karte das Spiel automatisch um 10-15% ausbremsen? Tststs....du als Entwickler... ;)

Demirug
2002-11-25, 22:38:26
Originally posted by Quasar
Demirug,
wusstest du nicht, dass in 77% aller Spiele Abfragen drin sind, die bei Nichtvorhandensein einer nV-Karte das Spiel automatisch um 10-15% ausbremsen? Tststs....du als Entwickler... ;)

Quasar sei doch ruhig das darf ich nicht veraten sonst bekomme ich meinen monatlichen Check von NVIDIA nicht mehr:D

Thowe
2002-11-25, 22:40:01
Kinders, ihr wisst aber das ich hier als NV-Mitarbeiter mitlese?

Exxtreme
2002-11-25, 22:42:19
BOAHH!!!1 Als ATi-Developer werde ich das melden müssen!!11 Zum Glück speichert das Forum die IP-Adressen. Übermorgen holen wir dich ab da wir dich zurückverfolgen können!!!
*spam*
Originally posted by Demirug


Quasar sei doch ruhig das darf ich nicht veraten sonst bekomme ich meinen monatlichen Check von NVIDIA nicht mehr:D

Demirug
2002-11-25, 22:45:42
@Exxtreme:

Von ATI lasse ich mich doch auch bezahlen damit ich NVIDIA Karten ausbremse. :D

*noch mehr spam*

mapel110
2002-11-26, 05:33:46
ah so ist das also. hier im spec-forum holen sich die mods ihre postings mit denen sie dann auf so astronomische rankings kommen. :nono:

Hauwech
2002-11-26, 07:35:12
Originally posted by AlfredENeumann



Aber dennoch wissen wir nicht wer wieviel Ausbeute pro Wafer hat.
Wenn man davon ausgeht, das das Design der R300 so gewählt ist, das man nur Chips für den 9700Pro produzieren will und den Ausschuß entsprechend noch als 9700er, 9500Pro und 9500er verwenden kann ist die Ausbeute entsprechend hoch. Dementsprechend günstig die Chips, da diese ja dann kein Ausschuß sind sondern Verkaufsprodukte.

Stimmt, wissen wir nicht, was wir aber wohl wissen, ist das der 0.15 Prozess recht gut ausgereift ist wie es die 9700Pro zeigt. 107 Millionen Transistoren mal so eben mit 0.15 zu fertigen ist bestimmt nicht ganz einfach und erfordert einen imho ziemlich ausgereiften Prozess.
Koennte mir allerdings schon vorstellen das ATI hoeheren Ausschuss hat als nVidia (107 zu 63 Millionen Transistoren). Ich behaupte einfach mal das die Wahrscheinlichkeit fehlerhafte/kaputte Chips bei 107 Millionen (wesentlich?) hoeher ist als bei 63 Millionen Transis.
Sofern beide mit gleicher Wafergroesse arbeiten wird nVidia wahrscheinlich eh hoehere Ausbeute haben weil kleinerer Chip.

Die Sache mit dem Ausschuss ist das gleiche fuer ATI und nVidia, beide werden die Chips die eben nicht dem Highend entsprechen fuer niedriger getaktete Modelle benutzen. ATI mit den von dir genannten Modellen, nVidia mit 4400/4200.
Hat eigentlich jemand festgestellt ob die 4800 eventuell ne neuere Chiprevision als die 'alten' hat? Oder haben se einfach nur 8xAGP drangebastelt?

aths
2002-11-26, 10:52:29
Originally posted by mapel110
ah so ist das also. hier im spec-forum holen sich die mods ihre postings mit denen sie dann auf so astronomische rankings kommen. :nono: Nö. Viel raffinierter: Wir Mods spammen unser eigen eingerichtetes, für normale User unsichtbares Mod-Forum zu, um auf unsere hohen Zahlen zu kommen. Im Moment losen wir gerade, wer einen Bot schreibt, der uns jede Stunde 10-15 Postings erstellt.

(kleiner Scherz.)

Kai
2002-11-26, 23:15:49
Originally posted by aths

(kleiner Scherz.)

Stimmt doch!

Unregistered
2002-11-27, 15:03:09
Wenn ich das richtig sehe, ist die NVidia GeforceFX mit nur 250 Mhz schnellen DDR-RAM gesegnet. Die Speicherbandbreite mit 16 Bytes * 250 MHz * 4 = 16 GB/s ist demnach nicht nur niedriger als bei Ati, nein...wahrscheinlich auch die AA Performance. Deshalb zeigt NVidia auch keine Benchmarks von AA mit Spielen in den üblichen Auflösungen.

Könnte es sein, das der NV30 NVidias erster echter Rohrkrepierer gegenüber AI-Tie-EI (ATI) sein wird?

ernesto.che
2002-11-27, 15:07:00
Originally posted by Thowe
Kinders, ihr wisst aber das ich hier als NV-Mitarbeiter mitlese?

Ernsthaft ein Nvidia Mitarbeiter?

Exxtreme
2002-11-27, 15:11:18
Klar ist er das, hast das nicht gewusst? Nagus und Tarkin hingegen arbyten für ATi.
;)
Originally posted by ernesto.che
Ernsthaft ein Nvidia Mitarbeiter?

Thowe
2002-11-27, 15:47:12
Originally posted by ernesto.che


Ernsthaft ein Nvidia Mitarbeiter?

Yep,

NVIDIA
Moostrasse 18 b
82319 Starnberg

:D

Unregistered
2002-11-27, 17:41:34
Originally posted by Thowe


Yep,

NVIDIA
Moostrasse 18 b
82319 Starnberg

:D

Yepp Genau und seitdem ich das weiss, lästere ich nicht mehr über nVIDIA und bin gggaaaaaaannnz objektiv.
PS: Ich hoffe das meine Geforce3 bald kommt. hehehe dann wird gelästert.

Gruss Labberlippe

ernesto.che
2002-11-27, 17:56:51
Originally posted by Thowe


Yep,

NVIDIA
Moostrasse 18 b
82319 Starnberg

:D


Na toll.
Nagus und Tarkin waren mir schon immer sympatischer ;)
Warum nicht Moosstraße? Oder geht es nicht um eine Straße mit Moos?

Thowe
2002-11-27, 18:01:26
Originally posted by ernesto.che



Na toll.
Nagus und Tarkin waren mir schon immer sympatischer ;)
Warum nicht Moosstraße? Oder geht es nicht um eine Straße mit Moos?

Ja, sind ja auch meine Kollegen ;) Ähem (http://mirror.ati.com/companyinfo/contact/coninfo.html#germany)

Keine Angst, arbeite bei keinem Grafikkartenhersteller.

ernesto.che
2002-11-27, 18:13:25
Originally posted by Thowe


Ja, sind ja auch meine Kollegen ;) Ähem (http://mirror.ati.com/companyinfo/contact/coninfo.html#germany)

Keine Angst, arbeite bei keinem Grafikkartenhersteller.

Du bist also auch nen ATi Mensch? Dann habe ich euch drei jetzt mal zum Knuddeln gern. Mir gefällt es, das ihr Nvidia gerade mal einen in den Arsch verpasst :)


/End Flame

Unregistered
2002-11-27, 19:35:52
Genau! Immer drauf da

seahawk
2002-11-28, 10:28:13
http://www.digit-life.com/articles2/gffx/index3.html

Am Ende des Textes steht was von NV30 Chips, die auf 550 Mhz liefen.

Vielleicht ist 500 Mhz doch gar nicht soviel für den NV30 ??

ow
2002-11-28, 11:01:05
Originally posted by seahawk
http://www.digit-life.com/articles2/gffx/index3.html

Am Ende des Textes steht was von NV30 Chips, die auf 550 Mhz liefen.

Vielleicht ist 500 Mhz doch gar nicht soviel für den NV30 ??


Das ist denkbar. NV wird sicher nicht zu Beginn sein ganzes Pulver verschiessen.

"Besides, it's possible they will release NV30 versions working at a higher core speed - 550 or even 600 MHz - in the NVIDIA's lab the first chips were running error free at such frequencies."

Crushinator
2002-11-28, 16:31:10
Originally posted by ow
"Besides, it's possible they will release NV30 versions working at a higher core speed - 550 or even 600 MHz - in the NVIDIA's lab the first chips were running error free at such frequencies."
Wenn's so weitergeht haben wir in 2 Jahren
auch bei den GPUs die GHz-Grenze überschritten.

Ich finde das ziemlich cool, schätze aber,
daß es dann auch keinen Bedarf mehr an
Steigerung mehr geben würde, weil alles
bereits in Echtzeit gerendert werden kann.

Dann könnten wir die Onyx INVR ja endlich
einmotten. ;-)

Gruß, Crushinator

mapel110
2002-11-28, 16:51:49
Originally posted by crushinator

Wenn's so weitergeht haben wir in 2 Jahren
auch bei den GPUs die GHz-Grenze überschritten.

Ich finde das ziemlich cool, schätze aber,
daß es dann auch keinen Bedarf mehr an
Steigerung mehr geben würde, weil alles
bereits in Echtzeit gerendert werden kann.

Dann könnten wir die Onyx INVR ja endlich
einmotten. ;-)

Gruß, Crushinator

zumindest werdens die spiele-progger recht schwer haben, mit der graka-entwicklung schritt zu halten, vor allem, was effekte angeht.

die roh-leistung wird man immer irgendwo reinstecken können. vielleicht neue filter-methoden oder AA-methoden.

nagus
2002-11-28, 17:20:05
Originally posted by mapel110


zumindest werdens die spiele-progger recht schwer haben, mit der graka-entwicklung schritt zu halten, vor allem, was effekte angeht.

die roh-leistung wird man immer irgendwo reinstecken können. vielleicht neue filter-methoden oder AA-methoden.


say hello to mr. 128xAF und mr. 16xFSAA ;)

turboschlumpf
2002-11-28, 18:14:58
ach was.
wenn irgendwann genügend rohpower vorhanden ist müssen einfach viel mehr polygone und viel bessere texturen verwendet werden.
dann braucht man kein aa und af mehr :D (editiert, smilie eingefügt).
naja, und die ganzen kompressionsverfahren und tricksereien welche die geschwindigkeit zwar erhöhen aber die bildqualität verschlechtern (wenn auch so gut wie nicht wahrnehmbar) kann man dann auch weglassen.
=)

Ficus
2002-11-28, 18:29:02
Originally posted by crushinator
Wenn's so weitergeht haben wir in 2 Jahren
auch bei den GPUs die GHz-Grenze überschritten.
Ich finde das ziemlich cool, schätze aber,
daß es dann auch keinen Bedarf mehr an
Steigerung mehr geben würde, weil alles
bereits in Echtzeit gerendert werden kann.
Im umkehrschluss würde das ja bedeuten dass die Grakaschmieden ihr eigenes Grab schaufeln :D


Originally posted by turboschlumpf
ach was.
wenn irgendwann genügend rohpower vorhanden ist müssen einfach viel mehr polygone und viel bessere texturen verwendet werden.
dann braucht man kein aa und af mehr.
Darauf wird es sicher hinaus laufen.

Ailuros
2002-11-29, 09:40:22
Mit Shadern die zwischen 100-1000 Instruktionen laufen werden, ist dann wohl deferred rendering (dual pass) selbst mit einem IMR die beste Loesung. Aber das geht wohl viel zu weit in die nicht so absehbare Zukunft.

say hello to mr. 128xAF und mr. 16xFSAA

Ein "S" zu viel ;)

128xAF? Das wuerde wohl 1024-tap entsprechen, falls Du Level 128x meinen solltest. Mal rein theoretisch wo glaubst Du hoert das menschliche Auge auf, Differenzen sehen zu koennen?

Pussycat
2002-11-29, 20:13:40
Originally posted by Ficus

Darauf wird es sicher hinaus laufen.

Polygone und Texturen können kein AA ersetzen. Wenn Aths das hier liest...

Ficus
2002-11-30, 00:02:28
Originally posted by Pussycat
Polygone und Texturen können kein AA ersetzen. Wenn Aths das hier liest...
Hmm...jetzt wo dus sagst :bonk:
btw: Aths kann zum Glück nicht lesen :D

edit:ups

turboschlumpf
2002-11-30, 22:59:22
16x af und 8x rgaa ist in ordnung.
aber letzteres bitte nur ss damit das bild auch ruhiger wird.

wenn aber wirklich so viel rohpower vorhanden ist dass es nichtmehr ins gewicht fällt sollte es per default aktiviert werden (am besten gleich in den chip eingebaut dass der treiber nixmehr zu sagen hat).

ob eine steigerung über 128bit fp farbtiefe sinvoll ist bezweifle ich.

dann kann man ja nur noch die auflösung (allerdings limitiert durch den monitor) sowie die verwendeten polygone erhöhen
und die beleuchtung sowie texturen verbessern.

zum schluss werden dann die ganzen internen kompressionsverfahren gekickt, denn ne kompression verringert die qualität doch immer, wenn auch nicht wahrnehmbar, oder??

Exxtreme
2002-11-30, 23:04:25
Originally posted by turboschlumpf
zum schluss werden dann die ganzen internen kompressionsverfahren gekickt, denn ne kompression verringert die qualität doch immer, wenn auch nicht wahrnehmbar, oder??
Nein. Es gibt lossless compression bei der keine Informationen verloren gehen. Winzip hat so einen Algorhytmus. Bei einem auf Bilddaten optimierten Algo kann man schneller und besser komprimieren. Es gibt auch verlusstbehaftete Kompressionsalgorhytmen wie z.B. S3TC, da gehen tatsächlich Informationen verloren. Die Vorteile sind aber, daß man meist bessere und garantierte Kompressionsrate hinkriegt.

nggalai
2002-11-30, 23:05:43
Hi A.,
Originally posted by Ailuros
Mit Shadern die zwischen 100-1000 Instruktionen laufen werden, ist dann wohl deferred rendering (dual pass) selbst mit einem IMR die beste Loesung. Aber das geht wohl viel zu weit in die nicht so absehbare Zukunft.Full ack, on both accounts. Leider. :( Ich mag deferred rendering noch immer, einfach eine sehr elegante Lösung für viele Probleme. Aber leider sieht's echt nicht danach aus, als ob die "Grossen" da was machen werden, in naher Zukunft.

Allerdings, ja, wird's zumindest für Spiele nicht sooo schlimm werden. Mit solchen Shader-Längen rechne ich in den nächsten 3 Jahren noch nicht.

ta,
-Sascha.rb

Ailuros
2002-12-01, 09:11:08
Sagte ich ja....;)

Uebrigens:

I don't think the reason to go to a deferred rendering architecture is to increase bandwidth efficiency. In the future, I think the primarily limit of IMR will be shader execution speed.

If you have a 100 to 1000 instruction shader, an architecture which can avoid executing long shaders for invisible pixels will be much faster.

Also, filling depth/stencil will also be a limit for unified lighting algorithms.

There is a sort of 2-pass deferred rendering technique you can do with IMRs. In the first pass, you draw the depth buffer and store in another render tartet, the parameters you need to input to a pixel shader. In the second pass, you read the parameters from the previous pass, use that to select which pixel shader to run and the parameters. The early-Z culling will take of not executing the long shaders for hidden pixels.

http://www.beyond3d.com/forum/viewtopic.php?t=1024&start=60

Uebrigens denken IHV's viel zu viel voraus heutzutage. Die hohe Programmierbarkeit auf R300/NV30 ist fuer den Verbraucher sowieso nutzlos fuer mehr als 1.5 Jahre. Jedoch wie wird's mit NV40/50-R400/500 aussehen?

Deferred rendering auf einem traditionellen Renderer ist nicht sooo weit weg, wie man sich denken koennte. Haette mir letztes Jahr jemand gesagt dass 3DLabs mit einer deferred rendering Technologie auf einem IMR (P9) fuer den professionellen Markt aufkreuzt, haette ich Ihn fuer verrueckt gehalten.

------------------------------------------

Uebrigens was anisotropic filtering betrifft, sind TexMax Algorithmen schon eigentlich langweilig . Ich wuerde liebend gerne mal einen Fe-line (fast elliptical lines) Algorithmus als Abwechslung sehen.

Salvee
2002-12-04, 02:44:18
Hier (http://www.rage3d.com/board/showthread.php?s=&threadid=33651124) im Rage3D Forum ist ein süsser Thread, der sich auf ein Conference Call mit Dave Orton (irgendeine dicke Hose bei ATi) bezieht. Der Downloadlink wird wohl in Kürze folgen.
Im wesentlichen bestätigt Orton das Erscheinen des R350 im 'frühen Frühjahr' ;) , und im Juli soll dann schon der R400 vorgestellt werden.
Man strebt bei ATi einen 6 Monatszyklus an. Also, streaming interview abwarten und Ohren spitzen ...

Edit: =)=):biggrin::biggrin:

mapel110
2002-12-04, 03:12:00
dann haben wir ja zu doom3 vielleicht doch genug power im rechner =).

Ailuros
2002-12-04, 06:00:49
Kleine Korrigierung zu Orton's Aussagen:

ATI wird refresh parts je nach was die Konkurrenz zu bieten hat und wann veroeffentlichen.

R400 wird nach Juli vorgestellt. Was den launch ungefaehr ein Jahr nach dem R300 platziert, was auch Sinn macht.

Wofuer der Codename R350 steht ist wohl offensichtlich, da ATI einen 256bit bus schon hat und DDR II verfuegbar ist.

edit: Orton zeigt an dass er ATI an der Spitze halten will. Superbe Marketing-Taktik IMO. :)

seahawk
2002-12-04, 07:34:05
frühes Früjahr : Februar 2003 ???


Das wäre so geil !!!!!!!

mapel110
2002-12-04, 14:30:05
Originally posted by seahawk
frühes Früjahr : Februar 2003 ???


Das wäre so geil !!!!!!!

märz :)

egdusp
2002-12-04, 16:48:20
Originally posted by seahawk
frühes Früjahr : Februar 2003 ???


Das wäre so geil !!!!!!!

Wenn David Kirk, (der Chef Marketing Guy bei NV :D ) sowas sagt, dann ist riesegroße Skepsis angesagt, aber sobald ein ATI Typ was vom Stapel läßt, sind alle hellauf begeistert *tststs*

Naja, jedenfalls hat ATI nichts vom .13 Prozeß gesprochen, also kann man vom .15 ausgehen.
Taktraten dürften dann, bei wahrscheinlich weitesgehend gleichem Core, auch nur bis 350-380 gehen, was nach bisheriger Erfahrung ein gut erreichbarer Wert darstellt.
NV hätte also immer noch einen gewaltigen Füllratenvorteil.
DDR2 bringt bei einem 256bit Interface wohl kaum etwas, da der R300 jetzt schon genug Bandbreite hat.

Ich halte den R300 für ein sehr gutes Produkt, aber auch für weitesgehend ausgereizt. Ein Refresh ohne neuen Prozeß wird IMHO kaum noch einen größeren Leistungssprung machen können. Sie könnten natürlich die Pipelines auf 10xRGMAA ausbauen und dann mit 500MHZ DDR2 betreiben, aber wer würde den Unterschied sehen?

Ich lasse mich gerne vom Gegenteil überzeugen

Auf jeden Fall ein hochspannendes Jahr erwartet uns.

mfg
egdusp

P.s.: Wann kommen die Ati Quartalszahlen raus?

seahawk
2002-12-04, 19:57:22
Mit nem Kühler wie bei der FX. wird ATI bestimmt auch über 400 Mhz schaffen.

ernesto.che
2002-12-04, 21:25:54
Originally posted by egdusp

P.s.: Wann kommen die Ati Quartalszahlen raus?


Nach Quartalsende?

Aquaschaf
2002-12-30, 13:31:34
mit erhöhter spannung und monsterkühlung kamen ja welche immerhin schon auf 450MHZ bei der 9700...

nagus
2002-12-30, 23:34:23
Originally posted by Aquaschaf
mit erhöhter spannung und monsterkühlung kamen ja welche immerhin schon auf 450MHZ bei der 9700...

"gute" exemplare erreichen diese taktraten schon alleine durch entfernen des spacers, OHNE voltmod und mit standard-ATI-Lüfter.

Quasar
2002-12-30, 23:44:21
So ein "gutes" Exemplar einer R9500 hatte ich auch. Einzig die Vertexleistung ist linear mitgestiegen, weder Gesamtleistung noch Füllrate konnten den Taktzuwachs wiederspiegeln.

Ich hab' so den Eindruck, dass ATi da so einen kleinen P4 drin verbaut hat, der bei zu hohen Temps ein paar Idle-Cycles einfliessen läßt.

Spake
2003-01-04, 19:33:22
es wurde ja mal gesagt dass Ati im BIOS der 9500Serie eine übertaktungssperre eingebaut wurde
vielleicht wurde diese ja entfernt und wirklich gegen das P4-muster ausgetauscht

ich meine wenn du deine karte übertaktest und merkst das du sie nicht übertakten kannst wirst du als erfahrener übertakter ja versuchen das BIOS auszutauschen
-aber wenn das übertakten klappt und die werte kaum steigen sagst du es liegt am Treiber oder dass die komponenten die GPU ausbremsen aber du denkst selten an einen fehler an der GraKa