PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SPEKULATION: NV30 der erste DX9.1 Chip?


Demirug
2002-07-18, 22:37:21
Nachdem sich unsere nVIDIOTS vom ATI-FSAA Schock hoffentlich erholt haben brauchen sie IMHO wieder etwas Aufmunterung.:D

Bei THG war in einer Randbemerkung etwas interessantes zu erfahren:


When, a bit more than a year ago, NVIDIA released GeForce3, which was the first 3D chip to include vertex as well as pixel shaders, the world of 3D developers welcomed the vertex shader, but criticized the half-hearted specs of the pixel shader. DirectX 9 is supposed to finally improve this situation, even though the new pixel shader 2.0 spec doesn't seem to be as much of a leap forward as one would have expected. The most important addition to the pixel shader spec is certainly the inclusion of 64-bit and 128-bit floating point color precision. Besides that, new instructions have been added and the maximum number of pixel shader instructions has been increased to (a still measly looking) 160, but there is still now flow control. NVIDIA's upcoming 'NV30' will go several steps further than that, but more about this in three or four months' time, when NVIDIA's new chip's review units will finally hit the reviewers' desks.


Da aber der R300 PS2.0 bereist vollständig unterstützt und in DX9 nichts besseres als PS 2.0 verhanden ist bedeutet das wohl das der NV30 der erste DX9.1 Chip wird.

Das wirft natürlich fragen auf:

Wird der technologische schrit genauso gross sein wie von DX8 zu DX8.1?

Wird DX9.1 das gleiche traurige Schicksal erleiden wie DX8.1?

Ihr nVIDIOTS da drausen Verzeifelt nicht den noch ist Hoffnung:D

Exxtreme
2002-07-18, 22:46:55
Die Frage stellt sich eher: hat nVidia noch soviel Einfluss auf MS, daß diese ein DX9.1 veröffentlichen? Die beiden Companies sind sich nicht gerade grün wegen der X-Box-Geschichte usw. Auch hat sich MS damals von NV wg. DX8 "über den Tisch ziehen lassen" was MS später aufgefallen ist und sie nicht gerade erfreut waren.

Gruß
Alex

alex_x
2002-07-18, 22:55:34
hi

es ist schon vor programmier das nvidia mit dem nv30 die messlate wieder ein ganzes stück höher legen wird,der r300 kann mit dem nv30 auf keinen fall mithalten.mer habe ich nicht zu sagen;)und nur mal so am rande,ich bin kein ati hasser,aber es ist nun mal so,nvidia kann das nun einmal besser wie mann es in vielen benchmark ergebnissen feststellen kann.

gruß:alex

Demirug
2002-07-18, 22:56:56
Originally posted by Exxtreme
Die Frage stellt sich eher: hat nVidia noch soviel Einfluss auf MS, daß diese ein DX9.1 veröffentlichen?


Ich weis zwar nicht durch wenn DX 9.1 veranlast wurde aber ich weis das es ein DX9.1 anfang nächsten Jahres geben wird.


Auch hat sich MS damals von NV wg. DX8 "über den Tisch ziehen lassen" was MS später aufgefallen ist und sie nicht gerade erfreut waren.


In wie fern über den Tisch gezogen? Wenn du jetzt auf das DX der XBox anspielts da gibt es soweit mir bekannt doch noch ein paar erhebliche Unterschiede.

nagus
2002-07-18, 22:56:59
Originally posted by Demirug
Nachdem sich unsere nVIDIOTS vom ATI-FSAA Schock hoffentlich erholt haben brauchen sie IMHO wieder etwas Aufmunterung.:D

Bei THG war in einer Randbemerkung etwas interessantes zu erfahren:



Da aber der R300 PS2.0 bereist vollständig unterstützt und in DX9 nichts besseres als PS 2.0 verhanden ist bedeutet das wohl das der NV30 der erste DX9.1 Chip wird.

Das wirft natürlich fragen auf:

Wird der technologische schrit genauso gross sein wie von DX8 zu DX8.1?

Wird DX9.1 das gleiche traurige Schicksal erleiden wie DX8.1?

Ihr nVIDIOTS da drausen Verzeifelt nicht den noch ist Hoffnung:D


vielleicht , vielleicht auch nicht. jedenfalls kann Sich Nvidia bald selber "zu grabe tragen" ;) *MUAAHAHAH* ... zumindest wenn sie es nicht schaffen die R300 zu übertreffen.



btw hat ATI noch mehr als genug luft nach oben für die R300 ... wie hören sich 400Mhz Core 800Mhz speicher .... an ? GEIL!

Demirug
2002-07-18, 23:07:45
@nagus:

Dieser Thread ist für die armen verzeifelten nVIDIOTS die heute erleben musste wie ihre angebetet Gefore4 TI 4600 ins Schach gesetzt wurde und es wohl bis zum Verkaufsstart der Radeon 9700 keinen Möglichkeit mehr gibt dem Matt auszuweichen. Er sollte ihnen Mut und Hoffnung geben auch Morgen noch den Tag freudig zu begrüssen und nicht in tiefe Depression zu versinken. Und dann kommst du und schreibts "zu grabe tragen" emfindestens du wirklich so wening mitleid mit den armen nVIDIOTS. Auch nVIDIOTS sind menschen und gerade in einer so schweren Stunden verdiehenen sie unser aller Mitleid.

*sorry bin irgendwie in der Stimmung für sowas*

Exxtreme
2002-07-18, 23:13:43
Originally posted by Demirug
In wie fern über den Tisch gezogen? Wenn du jetzt auf das DX der XBox anspielts da gibt es soweit mir bekannt doch noch ein paar erhebliche Unterschiede.
Nee, nicht wegen der XBOX. Es ging um die Features von Direct3D. Angeblich hat NV MS unter Druck gesetzt damit die GF3-Features als Voraussetzung in DX8 enthalten sind. AFAIK sollte nach der ursprünglichen Spezifikation die R100 DX8-fähig sein nur MS hat DX8 hinausgezögert und die Specs geändert. Vielleicht kann Ceiser was dazu erzählen. Ich glaube ich habe diese Info von www.within3d.de welche aber z.Zt. down ist.

Gruß
Alex

ow
2002-07-18, 23:22:33
NV MS unter Druck gesetzt? :rofl:

Womit denn?
Mit der Ankündigung, ihre Karten inkompatibel zu Win zu machen? :lol:


Nee im Ernst, das halte ich für Blödsinn.

Keine Karte hat je vollständig irgendeine DX oder genauer D3D-Spec. erfüllt.

Wo sollte da der Sinn drin liegen, dass NV MS unter Druck setzt (sofern sie denn überhaupt können)?

Unregistered
2002-07-18, 23:31:01
Originally posted by alex_x
hi

es ist schon vor programmier das nvidia mit dem nv30 die messlate wieder ein ganzes stück höher legen wird,der r300 kann mit dem nv30 auf keinen fall mithalten.mer habe ich nicht zu sagen;)und nur mal so am rande,ich bin kein ati hasser,aber es ist nun mal so,nvidia kann das nun einmal besser wie mann es in vielen benchmark ergebnissen feststellen kann.

gruß:alex
So isses!
Wann werden es diese FanATIker endlich kapieren...

Demirug
2002-07-18, 23:31:37
Originally posted by Exxtreme

Nee, nicht wegen der XBOX. Es ging um die Features von Direct3D. Angeblich hat NV MS unter Druck gesetzt damit die GF3-Features als Voraussetzung in DX8 enthalten sind. AFAIK sollte nach der ursprünglichen Spezifikation die R100 DX8-fähig sein nur MS hat DX8 hinausgezögert und die Specs geändert. Vielleicht kann Ceiser was dazu erzählen. Ich glaube ich habe diese Info von www.within3d.de welche aber z.Zt. down ist.

Gruß
Alex

NVIDIA hat MS sicher bearbeitet die GF3-Features in die DX Spezifikation aufzunehmen. Aber ATi hat das gleiche mit dem R200 gemacht.

Gehen wir nun mal davon aus das die Features der R100 für DX8 massgeben gewesen wären. Dann hätte die GF3 8.1 oder sogar gleich 9 bekommen. Und die R200 dann ebenfalls eine entsprechende Nummer. IMHO darf man das mit den DX Nummern sowieso nicht so eng sehen. Selbst bei DX9 wird es wahrscheinlich keiner schaffen alle Features der API zu unterstützen. Und da es von MS keine Einteilung der Features in die Gruppen notwendig, wäre schön und überflüssig gibt ist die ganze Versionnummern Geschichte in Verbindung mit einer GraKa sowieso Blödsinn. Die Hersteller sollten auf die Verpackung schreiben welche VS und PS Version unterstützt werden, welchen Arten von AA möglich sind und welche Texturfilter unterstützt werden.

nach der reinen MS Definition darf sich jede Karte welche im Treiber die entsprechenden Funktionen unterstützt als DX? kompatibel schimpfen. Und Funktionen sind dabei ungleich Features.

Richthofen
2002-07-19, 01:16:59
"
jedenfalls kann Sich Nvidia bald selber "zu grabe tragen" *MUAAHAHAH* ... zumindest wenn sie es nicht schaffen die R300 zu übertreffen.
"

Hm dagegen spricht doch einiges, was du aber leider auf Grund des dir fehlenden Geistes nicht verstehen wirst.
Da fehlt dir irgendwie das Big Picture hab ich so den Eindruck.

Damit ATI auf den Gewinn kommt den Nvidia Quartal für Quartal erwirtschaftet, müssten die erstmal ihre ASPs um einiges nach oben ziehen aber wie mir scheint haben die das beim R300 wohl nicht vor.
Wahrscheinlich wissen sie, das der R300 ab dem Zeitpunkt wo er im Laden ist nur ganz kurz oben an der Spitze ist und wollen die Kartenverkäufer nicht verärgern, das sie auf zu teuer eingekauften Chips sitzen bleiben.

"
btw hat ATI noch mehr als genug luft nach oben für die R300 ... wie hören sich 400Mhz Core 800Mhz speicher .... an ? GEIL!
"

Naja ein 0.13er R300 kommt 2002 definitiv nicht mehr und wenn der NV30 256 Bit Interface hat wird Nvidia sehr skalierbar diesmal sein, denn SLI wird zu 90% Sicherheit diesmal drinn sein.
Dann packt Nvidia eben 2 Chips drauf und verkauft das Teil für 1000 Euro. Dank entsprechend finanziellem Background können die sich solche Spässe ja auch erlauben und das Marketing sorgt dafür das Leute das entsprechende Geld ausgeben.
Nun bin ich mal noch gespannt in wie weit Nvidia mit seinem CG kommt.
Sie müssen eigentlich nur viele Developer dafür begeistern und dann käme ATI schon in Bedrängnis. Mit 45 % Marktanteil sollte das zu machen sein.

Salvee
2002-07-19, 01:26:02
Originally posted by Richthofen
Naja ein 0.13er R300 kommt 2002 definitiv nicht mehr und wenn der NV30 256 Bit Interface hat wird Nvidia sehr skalierbar diesmal sein, denn SLI wird zu 90% Sicherheit diesmal drinn sein.
Dann packt Nvidia eben 2 Chips drauf und verkauft das Teil für 1000 Euro.

Ähem, schau mal hier (http://www.viahardware.com/atilaunch_3.shtm). Wenn schon SLI, dann aber richtig. 256 VPUs ;)

Dunkeltier
2002-07-19, 01:46:34
Originally posted by Richthofen
"
jedenfalls kann Sich Nvidia bald selber "zu grabe tragen" *MUAAHAHAH* ... zumindest wenn sie es nicht schaffen die R300 zu übertreffen.
"

Hm dagegen spricht doch einiges, was du aber leider auf Grund des dir fehlenden Geistes nicht verstehen wirst.
Da fehlt dir irgendwie das Big Picture hab ich so den Eindruck.

Damit ATI auf den Gewinn kommt den Nvidia Quartal für Quartal erwirtschaftet, müssten die erstmal ihre ASPs um einiges nach oben ziehen aber wie mir scheint haben die das beim R300 wohl nicht vor.
Wahrscheinlich wissen sie, das der R300 ab dem Zeitpunkt wo er im Laden ist nur ganz kurz oben an der Spitze ist und wollen die Kartenverkäufer nicht verärgern, das sie auf zu teuer eingekauften Chips sitzen bleiben.

"
btw hat ATI noch mehr als genug luft nach oben für die R300 ... wie hören sich 400Mhz Core 800Mhz speicher .... an ? GEIL!
"

Naja ein 0.13er R300 kommt 2002 definitiv nicht mehr und wenn der NV30 256 Bit Interface hat wird Nvidia sehr skalierbar diesmal sein, denn SLI wird zu 90% Sicherheit diesmal drinn sein.
Dann packt Nvidia eben 2 Chips drauf und verkauft das Teil für 1000 Euro. Dank entsprechend finanziellem Background können die sich solche Spässe ja auch erlauben und das Marketing sorgt dafür das Leute das entsprechende Geld ausgeben.
Nun bin ich mal noch gespannt in wie weit Nvidia mit seinem CG kommt.
Sie müssen eigentlich nur viele Developer dafür begeistern und dann käme ATI schon in Bedrängnis. Mit 45 % Marktanteil sollte das zu machen sein.


Verdammt, trotz Ignore erscheinen Richthofens Posts!

Um mich kurz zu fassen: Kein Imperium besteht auf Dauer, weder das römische Reich noch NVIDIA. Will sagen, sieh es ein das auch andere Firmen gegen deine Mercedes-Grafikkarte mittlerweile was in petto haben. Ich gebe NVIDIA maximal noch 3-4 Jahre...

LovesuckZ
2002-07-19, 01:58:38
Originally posted by Dunkeltier
Um mich kurz zu fassen: Kein Imperium besteht auf Dauer, weder das römische Reich noch NVIDIA. Will sagen, sieh es ein das auch andere Firmen gegen deine Mercedes-Grafikkarte mittlerweile was in petto haben. Ich gebe NVIDIA maximal noch 3-4 Jahre...

Und ATi kann schon woher eingehen;D .

daflow
2002-07-19, 02:01:34
HI!

Interessante Speku Demirug, kann leider fachlich nix dazu Beitragen, aber es wuerde mich freuen wenn das vielleicht andere tuhen???! ;)

Betreff Spaming/Flaming qoute ich mich hier selber von nem anderen Beitrag nochma rein;)

>>... naja wie auch immer eigentlich koennen wir uns doch als Verbraucher ALLE ueber JEDEN Launch eines neuen chips EGAL von welcher Firma freuen, fuer uns bedeutet das immer bessere grafik zu immer geringeren Preisen(..es sei denn man kauft das aktuellste High-end-Produkt bei erscheinen)
<<

Fuer die die 'ihre' Firmen vergöttern: Freut euch doch einfach fuer eure Firmen und achtet einfach nicht auf die 'unglaeubigen' sie sind es doch gar nicht wert und werden schon sehen was sie davon haben;)

Betreff Rechtschreibung unso;) : Sry...langer Tag


MuedE Gruesse,

PeTa


P.S. Bitte schreibt ueber nacht nicht so viel komme mit dem lesen nicht mehr hinterher;))

MadManniMan
2002-07-19, 03:19:25
Originally posted by alex_x
hi

es ist schon vor programmier das nvidia mit dem nv30 die messlate wieder ein ganzes stück höher legen wird,der r300 kann mit dem nv30 auf keinen fall mithalten.mer habe ich nicht zu sagen;)und nur mal so am rande,ich bin kein ati hasser,aber es ist nun mal so,nvidia kann das nun einmal besser wie mann es in vielen benchmark ergebnissen feststellen kann.

gruß:alex

meinst du eines derlei art? :D hach, macht das spaß!

ich habs doch gesagt! hab ichs nicht gesagt? das hab ich doch, oder? *siehe sig*

nagus
2002-07-19, 08:00:19
Originally posted by Demirug
@nagus:

Dieser Thread ist für die armen verzeifelten nVIDIOTS die heute erleben musste wie ihre angebetet Gefore4 TI 4600 ins Schach gesetzt wurde und es wohl bis zum Verkaufsstart der Radeon 9700 keinen Möglichkeit mehr gibt dem Matt auszuweichen. Er sollte ihnen Mut und Hoffnung geben auch Morgen noch den Tag freudig zu begrüssen und nicht in tiefe Depression zu versinken. Und dann kommst du und schreibts "zu grabe tragen" emfindestens du wirklich so wening mitleid mit den armen nVIDIOTS. Auch nVIDIOTS sind menschen und gerade in einer so schweren Stunden verdiehenen sie unser aller Mitleid.

*sorry bin irgendwie in der Stimmung für sowas*


tut mir leid, aber es stimmt leider ;)

nochmal zur erinnerung: UT 2003 .... fps R300 = fps 2.5 x GF4 4600

und nochdazu bei einem spiel, dass praktisch "für Nvidia" entwisckelt wurde und auf GF3 und GF4 optimiert ist .... hoppla upsilala!

nagus
2002-07-19, 08:02:08
was ist los "andre" .. hast du dazu nox zu sagen?


OOHHH, UHHHH ist schon scheisse in diesen zeiten ein Nvidiot zu sein, oder? :bäh: :bäh: :bäh:

entschuldigung

Demirug
2002-07-19, 09:21:53
Originally posted by nagus
tut mir leid, aber es stimmt leider ;)


Auch auf die Gefahr hin das ich mich jetzt wie Richthofen anhöre. NVIDIA hat sich inzwischen relative breit aufgestellt. Sie sind also nicht mehr nur von den PC-Grafikkartengeschäft abhängig wie damals 3dfx.


nochmal zur erinnerung: UT 2003 .... fps R300 = fps 2.5 x GF4 4600

und nochdazu bei einem spiel, dass praktisch "für Nvidia" entwisckelt wurde und auf GF3 und GF4 optimiert ist .... hoppla upsilala!

Ja und??? Bei 8 Pipes und einem technisch weiterentwickeltem AA hätte ich auch nichts anderes erwartet. Eine wirkliche Überrasung war der R300 für mich eigentlich nicht. Da AA Verfahren ist durchaus interesant aber auch nichts wirklich neues.

NVIDIA wird deshalb für den NV30 durchaus ähnliche Dinge im Peto haben.

Was die NVIDIA ausrichtung von UT angeht (was bei DX-Games bei DX8 Karten sowieso nicht mehr so einfach ist) dürfte die mit dem verwendeten Build bei weitem nicht mehr so stark sein wie beim UPT. Da kann allerdings nur Daniel Vogel uns genaue Infos geben.

ATi hat mit der R300 der GF4 4600 defintive Schach geboten und wird sie wohl auch Matt setzten. Das war aber eigentlich die Aufgabe der R200. Das eigentliche Spiel heist R300 gegen NV30. ATi hat die Parti mit einem guten aber nicht überraschenden Zug eröffnet. Nun müssen wir den Gegenzug von NVIDIA abwarten. Das Spiel erfordert aber keine übereilte Handlung von NVIDIA da die Radeon 9700 ja noch nicht zu kaufen ist und deshalb keine Marktanteile wegnehmen kann. Mit einen übereilter Zug (Paperlaunch der NV30) würde man sich nur selbst schaden darum wird NVIDIA weiter nur im verborgenen arbeiten und zu gegebener Zeit antworten.

Das heist jetzt nicht zwangsläufig das der NV30 den R300 schlagen können wird aber da der R300 keine wirklich überraschende technik beinhaltet hat sich die Ausgangssitation für NVIDIA durch den R300 nicht verschlechtert.

Also: Firmen erst immer erst dann zu Grabe tragen wenn ihr tot auch festgestellt wurde.

nggalai
2002-07-19, 09:31:59
Hi nagus,

bitte bleib beim Thema. Es geht hier um ein mögliches DX9.1, nicht um UT2003, 400MHZ R300 oder Andres Meinungen.

ta,
-Sascha.rb

Richthofen
2002-07-19, 10:11:35
@Demirurg

Jo das verstehen die meissten Fanboys aber eben nicht :)
Die sehen jetzt den Paperlaunch und denken schon das is ne Firma fertig.

Bei fast 200 Mio $ Gewinn jedes Quartal von dem faktisch so gut wie nix aus dem High End Bereich kommt ist das doch wirklich kein Problem.
Am Ende sind es wahrscheinlich 2 bis 3 Monate Unterschied zwischen dem Erscheinen der Karten in Geschäften.
Jetzt ist der R300 mal angekündigt un nun bleibt die Euphorie noch ne Woche.
Dann dauerts aber bis die Karten kommen und schon spielen unsere lieben Zeitschriften und Webseiten wie Anandtech etc.. mit rein.
Es werden jede Woche neue Infos zum NV30 verbreitet von den entsprechenden Leuten und so wird von dem ohnehin kleinen High End Markt Teil eine nicht ganz kleine Menge einfach warten und da werden auch einige ATI Fans drunter sein einfach weil sie wissen das es nich lange dauert bis es den R300 deutlich billiger gibt.

Dazu kommt das MS DX9 nicht released hat. Das sind alles kleine Dinge die Käufer abhält. In sofern ist das ganze nicht wirklich tragisch. Der NV30 wird dieses Jahr kommen der R350 nicht mehr und nachdem was man so hinter vorgehaltener Hand hört wird der NV30 einiges rocken. Mehr Features, schneller und ergonomischer wegen 0.13 wird er "wahrscheinlich" sein.
Es gibt auch Leute im High End Segment die die externe Stromversorgung nicht so dolle finden und da werden auch ATI Fans drunter sein, die sich dann sagen warten wir mal auf den R300 in 0.13 naja und der kommt dieses Jahr definitiv nicht mehr.

Das Spiel beginnt wenn der R300 im Laden ist und bis dahin wird noch eine Weile vergehen und dann ist die Frage wie gut sind die Treiber diesmal. Wenn sie wieder so sind wie mit der R200, verliert ATI 2 bis 3 Monate und wahrscheinlich auch einige Kunden die dann reichlich genervt sind 400 Euro ausgegeben zu haben.

Die OEMs werden sowieso kaum was ändern. Die sind eher träge und die dürften auch reichlich gut von NV informiert sein zumindest die wichtigsten. Die OEMs verkaufen in großen Teilen eh nur Mainstream und bevor da sich was ändert dauerts noch lang. Denn bis jetzt hat ATI im Mainstream nix konkurenzfähiges.
Den RV250 naja das ist wohl eher Low Cost aber bei 150$ wohl daneben gegriffen. Um richtig was zu ändern - vorausgesetzt die Zeit wäre da, welches aber nicht sein wird - müsste ATI einen R300 Mainstream Chip so schnell es geht anbieten aber ich glaub das haben sie so schnell nicht vor. Es wird einen geben aber den werden die auch rauszögern und zwar alleine deshalb weil sonst viele keinen R300 HIgh End kaufen und vor allem deshalb weil der R300 in der Fertigung reichlich teurer ist.

Ich male mal folgendes Szenario ab Oktober aus.
NV30 ist deutlich besser und verkauft sich auch viel teurer. Ist halt Nvidia dafür löhnen viele eben mehr als für ATI. Ist das selbe wie mit Intel - AMD.
NV30 wird aber billiger in der Fertigung sein. Das beste was Nvidia eigentlich machen kann ist sofort nen NV30 Mainstream zu bringen in 0.13 und evtl einige GF4 Produkte auf 0.13 umstellen. TSMC hat nicht so viele Kapazitäten und da NV bevorzugter Kunde ist wird ATI warten müssen. Ergo ihr 0.13 Part irgendwann Ende des 1. Quartals 2003.
Bis dahin wird sie der R300 aber einiges kosten. Ich werds mir dann in den Bilanzen genau anguggen ob man es sieht.

Muss nicht so sein ist aber durchaus möglich wenn man sich das Big Picture anschaut abseits irgendwelche Hardware Specs und Reviews.

egdusp
2002-07-19, 10:24:25
Originally posted by nagus



vielleicht , vielleicht auch nicht. jedenfalls kann Sich Nvidia bald selber "zu grabe tragen" ;) *MUAAHAHAH* ... zumindest wenn sie es nicht schaffen die R300 zu übertreffen.



Ati war 5 Jahre lang ndie Nummer 2 (teilwweise auch 3 was 3d-Leistung angeht), warum sollte nVidia also kaputt gehen, wenn sie 2 Monate lang die Nummer 2 sind?
Man hat ja damals gesehen, wie lange Ati seine OEMs halten konnte. In der gleichen Position ist nVidia jetzt.
Im Firmenkundengeschäft kenn ich mich nicht aus, aber in praktisch jedem Elektronikkettenprospekt sind nur Computer mit GF4 MX drin.
Warum? Besser einprägsamer und bekannterer Name (ich habe Monate gebraucht um Radeon nicht mit Raedon zu vertauschen, oder ist das doch richtig *eg*), sowie billigere Kosten. GF4 MX hat 31 mio Transistoren, Radeon 8500 hat 60, Radeon 9000 wird so um die 40-50 haben => GF4 MX billiger. Bei den Groß(Firmen)kunden dürfte der Preis neben der Treiberqualität entscheidend sein => 2x Vorteil nVidia.

Warte also lieber noch etwas mit der Grabsteinbestellung.

Exxtreme
2002-07-19, 10:40:37
Fast Full Ack @ Richthofen.
Ich würde z.B. nicht mehr Geld ausgeben wollen nur weil irgendwo nVidia steht oder Intel. Und ob der NV30 dem R300 weit überlegen sein wird bezweifle ich. Wenn der NV30 kein 256-Bit Speicherinterface hat, denn fürchte ich, wird er spätestens beim FSAA keine Chance haben gegen die R300.

@ egdusp

Man kann ATi und NV IMHO nicht direkt vergleichen. Ein Grund, warum ATi früher bei den OEMs beliebt war, ist weil deren Karten zum Funktionieren keinen IRQ brauchten -> weniger mögliche Resourcenkonflikte -> weniger Stress für den OEM. ATi hat verdammt viele Standbeine. Die stellen Netzwerkchips, Settop-Boxen usw. her und drängeln sich jetzt auch in den Chipsatz-Markt hinein. ATi konnte es sich leisten längere Zeit bei den Grafikkarten die #2 zu sein. Ob sich's NV leisten kann bezweifle ich.

Gruß
Alex

Salvee
2002-07-19, 10:48:58
Pleite gehen wird nV in naher Zukunft sicher nicht, allerdings deutet einiges darauf hin, dass die Umsätze/Gewinne stagnieren werden:

- GF4 werden spätestens zum Verkaufsstart des R300 (aller Voraussicht nach Ende August) spottbillig werden, immerhin sind die Teile dann nur noch gut halb so schnell wie ATi's Topmodell
- mit Chipsätzen, so gut sie auch sein mögen, verdient nV keinen Cent (bei bislang nur 4% Marktanteil und strenger SocketA-Ausrichtung)
- X-Box Verkäufe sind eher enttäuschend
- MX-Karten (die Cash-Cows) sind im Gegensatz zur ATi-Mainstreamlösung veraltet, wenn auch billiger
- Endkunden sind bereit, mehr für nV zu löhnen, wenn sie damit den Nimbus der 'schnellsten Graka' erwerben, was ja offensichtlich nun erstmal hinfällig sein dürfte
- zu guter letzt: schaut man sich an, was nV aus dem 0,15 Prozess rausholt (63Mio. Transistoren bei 300MHz) im Gegensatz zu ATi (107Mio. Transistoren bei rund 325MHz) sollte nV lieber auf den 0,09 Prozess warten, um mit dem R300 zu konkurrieren :D

ow
2002-07-19, 10:52:30
Originally posted by Exxtreme
ATi konnte es sich leisten längere Zeit bei den Grafikkarten die #2 zu sein. Ob sich's NV leisten kann bezweifle ich.

Gruß
Alex

Ich bezweifele das nicht.
Wenn man sich mal die Geschäftszahlen von ATi und NV anschaut, dann kann NV IMO die NV30 Generation komplett überspringen ohne daran zugrunde zu gehen.

Demirug
2002-07-19, 10:58:35
Originally posted by Exxtreme
Ich würde z.B. nicht mehr Geld ausgeben wollen nur weil irgendwo nVidia steht oder Intel. Und ob der NV30 dem R300 weit überlegen sein wird bezweifle ich. Wenn der NV30 kein 256-Bit Speicherinterface hat, denn fürchte ich, wird er spätestens beim FSAA keine Chance haben gegen die R300.


Exxtreme ich würde dich auch nicht als Fanboy mit unlimitierten Geldmitteln einstufen. Es gibt diese Personen aber.

Das 256 Bit Interface wird im benötigt um den Bandbreitenhunger beim FSAA zu sätigen. Was ist aber wenn es NVIDIA geschaft hat ein neues AA Verfahren zu entwickeln das sich mit viel weniger Bandbreite zufrieden gibt? Unter umständen eine Variante des FAA das auch mit Stencil und Z-Kanten klarkommt. Wenn dann noch das HSR durch Occullsion Culling wirklich so gut ist wie David Kirk behauptet und man das engültige AA Blending wieder im Displaycontroller macht dürfte der Overhead durch FSAA sehr gering werden.

Exxtreme
2002-07-19, 11:05:43
Originally posted by Demirug

Exxtreme ich würde dich auch nicht als Fanboy mit unlimitierten Geldmitteln einstufen. Es gibt diese Personen aber.

Ach, Geld hätte ich eigentlich genug um mir auch eine sehr teure GraKa zu leisen. ;)
Aber je günstiger so eine GraKa desto besser.
Originally posted by Demirug
Das 256 Bit Interface wird im benötigt um den Bandbreitenhunger beim FSAA zu sätigen. Was ist aber wenn es NVIDIA geschaft hat ein neues AA Verfahren zu entwickeln das sich mit viel weniger Bandbreite zufrieden gibt? Unter umständen eine Variante des FAA das auch mit Stencil und Z-Kanten klarkommt. Wenn dann noch das HSR durch Occullsion Culling wirklich so gut ist wie David Kirk behauptet und man das engültige AA Blending wieder im Displaycontroller macht dürfte der Overhead durch FSAA sehr gering werden.
Dann bekommen die aber wiederum Probleme mit dem AF. Dieser zieht auch viel Bandbreite.

Gruß
Alex

Demirug
2002-07-19, 11:06:30
doppelpost

Demirug
2002-07-19, 11:13:03
*arggggg*

trippelpost

LovesuckZ
2002-07-19, 11:41:21
Originally posted by Salvee
- X-Box Verkäufe sind eher enttäuschend


Das ist nicht Nvidias's Problem, sondern das von MS. Denn nvida wird nicht nach verkaufter Konsole bezahlt. Sie lassen sich jeden Chip kosten. Das einzigste was sie beruehren koennte, waere, wenn MS die Produktion der Xbox verrinern wuerde. Das geschieht jedoch nicht, da sich die Xbox bei einen Preis von 299€ anscheinend blenden verkauft. Nvidia freuts. Hoehere Produktions, mehr Nvidia Chips werden benoetigt, mehr Geld.

Birdman
2002-07-19, 12:33:30
Originally posted by Exxtreme
Fast Full Ack @ Richthofen.
Ich würde z.B. nicht mehr Geld ausgeben wollen nur weil irgendwo nVidia steht oder Intel. Und ob der NV30 dem R300 weit überlegen sein wird bezweifle ich. Wenn der NV30 kein 256-Bit Speicherinterface hat, denn fürchte ich, wird er spätestens beim FSAA keine Chance haben gegen die R300.

@ egdusp

Man kann ATi und NV IMHO nicht direkt vergleichen. Ein Grund, warum ATi früher bei den OEMs beliebt war, ist weil deren Karten zum Funktionieren keinen IRQ brauchten -> weniger mögliche Resourcenkonflikte -> weniger Stress für den OEM. ATi hat verdammt viele Standbeine. Die stellen Netzwerkchips, Settop-Boxen usw. her und drängeln sich jetzt auch in den Chipsatz-Markt hinein. ATi konnte es sich leisten längere Zeit bei den Grafikkarten die #2 zu sein. Ob sich's NV leisten kann bezweifle ich.

Gruß
Alex
....Wobei aber das ganze mit dem Chipsatz überhaupt nicht konkurenzfähig aussieht ;)

Birdman
2002-07-19, 12:39:03
Originally posted by Exxtreme
Fast Full Ack @ Richthofen.
Ich würde z.B. nicht mehr Geld ausgeben wollen nur weil irgendwo nVidia steht oder Intel. Und ob der NV30 dem R300 weit überlegen sein wird bezweifle ich. Wenn der NV30 kein 256-Bit Speicherinterface hat, denn fürchte ich, wird er spätestens beim FSAA keine Chance haben gegen die R300.

@ egdusp

Man kann ATi und NV IMHO nicht direkt vergleichen. Ein Grund, warum ATi früher bei den OEMs beliebt war, ist weil deren Karten zum Funktionieren keinen IRQ brauchten -> weniger mögliche Resourcenkonflikte -> weniger Stress für den OEM. ATi hat verdammt viele Standbeine. Die stellen Netzwerkchips, Settop-Boxen usw. her und drängeln sich jetzt auch in den Chipsatz-Markt hinein. ATi konnte es sich leisten längere Zeit bei den Grafikkarten die #2 zu sein. Ob sich's NV leisten kann bezweifle ich.

Gruß
Alex
....Wobei aber das ganze mit dem Chipsatz überhaupt nicht konkurenzfähig aussieht ;)

Labberlippe
2002-07-19, 12:40:14
Ja und??? Bei 8 Pipes und einem technisch weiterentwickeltem AA hätte ich auch nichts anderes erwartet. Eine wirkliche Überrasung war der R300 für mich eigentlich nicht. Da AA Verfahren ist durchaus interesant aber auch nichts wirklich neues.

Ja aber schön zu sehen das ATi beide Varianten jetzt anbietet und wenn ich Richtig gelesen habe gilt das gleiche auch beim Aniso Verfahren.


NVIDIA wird deshalb für den NV30 durchaus ähnliche Dinge im Peto haben.

No, Na, Nit vielleicht. :-)
Jeder der glaubt das nVIDIA nichts ähnliches im Peto hat, müsste unter geistiger Verwirrung leiden.


ATi hat mit der R300 der GF4 4600 defintive Schach geboten und wird sie wohl auch Matt setzten. Das war aber eigentlich die Aufgabe der R200. Das eigentliche Spiel heist R300 gegen NV30. ATi hat die Parti mit einem guten aber nicht überraschenden Zug eröffnet. Nun müssen wir den Gegenzug von NVIDIA abwarten. Das Spiel erfordert aber keine übereilte Handlung von NVIDIA da die Radeon 9700 ja noch nicht zu kaufen ist und deshalb keine Marktanteile wegnehmen kann. Mit einen übereilter Zug (Paperlaunch der NV30) würde man sich nur selbst schaden darum wird NVIDIA weiter nur im verborgenen arbeiten und zu gegebener Zeit antworten.

Hä die R200 war für die ursprüngliche GeForce3 gedacht.
Nicht TI Serie, schon gar nicht für die GeForce4 Serie.
Die R200 hat sich sogar sehr gut geschlagen und dank besserer Treiber um einiges hinter sich stehen gelassen.


Das heist jetzt nicht zwangsläufig das der NV30 den R300 schlagen können wird aber da der R300 keine wirklich überraschende technik beinhaltet hat sich die Ausgangssitation für NVIDIA durch den R300 nicht verschlechtert.
nVIDIA ist gezwungen den R300 zu schlagen. (was ich auch nicht bezweifele] da immer mehr Hersteller ins ATi Lager wechseln.
Endweder muss nVIDIA etwas neues an Technik bringen kommen oder die Performance wieder sehr hochschrauben.


Also: Firmen erst immer erst dann zu Grabe tragen wenn ihr tot auch festgestellt wurde. [/SIZE]

Yepp sehe ich auch so.

Da aber beide Parteien über Geld verfügen ist noch keiner Tod.

Gruss Labberlippe

Richthofen
2002-07-19, 12:44:33
"
mit Chipsätzen, so gut sie auch sein mögen, verdient nV keinen Cent (bei bislang nur 4% Marktanteil und strenger SocketA-Ausrichtung)
"

uhhhhhhh wenn du dich da mal nicht vertust.
4 % Anteil sind schon einiges und die werden steigen.
Nvidia hat das eigentlich ganz clever gemacht.
Sie haben sich genau den Markt ausgesucht wo technische Innovation von Konkurenten eher Fehlanzeige ist und wo es ihnen überhaupt nicht schwer fallen sollte innerhalb kürzester Zeit technisch zu glänzen. Ich bin wirklich auf die ersten nForce 2 Benchmarks gespannt.
Will sagen - es gibt bei SockelA viele Anbieter aber allesamt sind nicht annähernd vom Performance und Feature Ehrgeiz besessen wie Nvidia.
Alle samt wenn wir mal AMD selber rausnehmen sind nix anders als die üblichen Low Cost Schmuddelproduzente.
Egal ob VIA, SIS oder ALI.
Nvidia dagegen hat schon immer auf das Beste gesetzt und genau deshalb werden die ihren Marktanteil beim nForce2 Rapide ausbauen.

Was hat der nForce bzw nForce2 Nvidia denn gekostet???
Richtig gar nix. Und warum? Weil Microsoft faktisch mit der 1 Milliarde Dollar Entwicklungsbudget für die x-Box das Ganze Teil mitfinanziert hat. Was ist denn der nForce???
Im Prinzip nix anderes als ein Zusammenschluss von GeForce Grafik und x-Box Komponenten wie der MCP Southbridge usw...
Die x-Box ist vom Aufbau her ein PC im Grunde genommmen.
Und den Sockel A Markt sollte man mal nicht verachten. Das sind immerhin ca 22% am Gesamtmarkt und das bei höheren Margen als im P3/4 Markt.

Im Prinzip könnte Nvidia sofort einen P4 Chipsatz anbieten. Die Technik dafür haben sie schon längst. Das wär ne Sache von paar Wochen aber Nvidia geht den Schritt nicht weil es sich nicht lohnt durch Intel's Lizenzpolitik, die letztlich 5$ pro Chip haben wollen was halt zu viel ist.

Beim nForce lief noch nicht alles rund was die Modularisierung bzw Preisgestaltung anging aber man lernt immer aus Fehlern und das muss man ja wohl mal neidlos anerkennen: Kein Chipsatzhersteller hat beim ersten Versuch so eine Granate hingelegt - keiner.
Ich sehe sehr sehr harte Zeiten auf VIA, ALI und SIS im Sockel A bereich zukommen. Der nForce2 ist dermaßen modular, das der OEM sich das Teil sowohl in der NB als auch in der SB zusammenschustern kann wie er will. Mit Grafik oder ohne, MCP oder MCP-T usw..
Die Kosten werden mittlerweile in der Fertigung richtig moderat sein. Da geht einiges und wenn ich jetzt mal Nvdias Know How dazurechne was Speichercontroller angeht etc... dann vermute ich mal das der nForce2 alle anderen deutlich schlagen wird. Beim Hammer geht natürlich dieser Vorteil beim Chipsatz ohne Grafik erstmnal flöten aber da kann man auch auf andere Dinge noch setzen gerade was die USB, Sound, LAN, Firewire, Serial ATA etc Ecke angeht.
Und den Sockel A Markt sollte man trotz Hammer mal nicht unterschätzen. Die Sockel A CPUs wirds noch ne ganze Weile geben.

StefanV
2002-07-19, 12:48:32
Originally posted by Exxtreme
@ egdusp

Man kann ATi und NV IMHO nicht direkt vergleichen. Ein Grund, warum ATi früher bei den OEMs beliebt war, ist weil deren Karten zum Funktionieren keinen IRQ brauchten -> weniger mögliche Resourcenkonflikte -> weniger Stress für den OEM. ATi hat verdammt viele Standbeine. Die stellen Netzwerkchips, Settop-Boxen usw. her und drängeln sich jetzt auch in den Chipsatz-Markt hinein. ATi konnte es sich leisten längere Zeit bei den Grafikkarten die #2 zu sein. Ob sich's NV leisten kann bezweifle ich.

Gruß
Alex

nicht zu vergessen die 'Multimedia' Features von ATI (Motion Compensation seit Rage 2c, IDCT seit Rage 128 PRO und HW Deinterlacing seit Radeon)...

Für NV sehe ich es nicht so rosig, wenn sie mal Nummer 2 sind...

StefanV
2002-07-19, 12:54:26
Originally posted by ow

Ich bezweifele das nicht.
Wenn man sich mal die Geschäftszahlen von ATi und NV anschaut, dann kann NV IMO die NV30 Generation komplett überspringen ohne daran zugrunde zu gehen.

DAS dürfte ein Irrtum sein.

Denn wenn NV nicht mehr Nummer 1 ist (also schnellsten Chip hat), dann werden viele 'Ottonormaluser' kein NV mehr kaufen.

Auch gibt es außer Game Performance keinen Grund NV zu kaufen, für alles andere sind andere Karten besser.

ATI hat überlebt, weil sie Dinge geboten haben, die andere nicht haben...

smallB
2002-07-19, 12:55:02
totaler quatsch, nvidia brauch nur was, um seine nvidioten zu halten und um sich am ende besser dastehen zu lassen,
einfach nur peinlich, was nvidia abzieht
stehen wohl noch unter schock, das ihr zugpferd so locker
eingeholt wurde und das für diesen preis

morfeus
2002-07-19, 12:58:24
Eigentlich bin ich ein nVidia 4600 Besitzer.

Aber ich habe eine Risenfreude :lol: dass nVvidia
so richtig eins auf die Schnautze bekommen hat.

Egal mit was für eine DX Version NV 30 erscheint,
sie muss sich mächtig im Arsch kneiffen.:asshole: um
wieder an der Spitze zu kommen.

Fertig mit den kleinen Mhz Schritchen, mit dem man
nur wieder neue Produkte verkaufen will.

StefanV
2002-07-19, 12:59:37
Originally posted by ow

Ich bezweifele das nicht.
Wenn man sich mal die Geschäftszahlen von ATi und NV anschaut, dann kann NV IMO die NV30 Generation komplett überspringen ohne daran zugrunde zu gehen.

DAS dürfte ein Irrtum sein.

Denn wenn NV nicht mehr Nummer 1 ist (also schnellsten Chip hat), dann werden viele 'Ottonormaluser' kein NV mehr kaufen.

Auch gibt es außer Game Performance keinen Grund NV zu kaufen, für alles andere sind andere Karten besser.

ATI hat überlebt, weil sie Dinge geboten haben, die andere nicht haben...

Richthofen
2002-07-19, 13:02:30
"
mit Chipsätzen, so gut sie auch sein mögen, verdient nV keinen Cent (bei bislang nur 4% Marktanteil und strenger SocketA-Ausrichtung)
"

uhhhhhhh wenn du dich da mal nicht vertust.
4 % Anteil sind schon einiges und die werden steigen.
Nvidia hat das eigentlich ganz clever gemacht.
Sie haben sich genau den Markt ausgesucht wo technische Innovation von Konkurenten eher Fehlanzeige ist und wo es ihnen überhaupt nicht schwer fallen sollte innerhalb kürzester Zeit technisch zu glänzen. Ich bin wirklich auf die ersten nForce 2 Benchmarks gespannt.
Will sagen - es gibt bei SockelA viele Anbieter aber allesamt sind nicht annähernd vom Performance und Feature Ehrgeiz besessen wie Nvidia.
Alle samt wenn wir mal AMD selber rausnehmen sind nix anders als die üblichen Low Cost Schmuddelproduzente.
Egal ob VIA, SIS oder ALI.
Nvidia dagegen hat schon immer auf das Beste gesetzt und genau deshalb werden die ihren Marktanteil beim nForce2 Rapide ausbauen.

Was hat der nForce bzw nForce2 Nvidia denn gekostet???
Richtig gar nix. Und warum? Weil Microsoft faktisch mit der 1 Milliarde Dollar Entwicklungsbudget für die x-Box das Ganze Teil mitfinanziert hat. Was ist denn der nForce???
Im Prinzip nix anderes als ein Zusammenschluss von GeForce Grafik und x-Box Komponenten wie der MCP Southbridge usw...
Die x-Box ist vom Aufbau her ein PC im Grunde genommmen.
Und den Sockel A Markt sollte man mal nicht verachten. Das sind immerhin ca 22% am Gesamtmarkt und das bei höheren Margen als im P3/4 Markt.

Im Prinzip könnte Nvidia sofort einen P4 Chipsatz anbieten. Die Technik dafür haben sie schon längst. Das wär ne Sache von paar Wochen aber Nvidia geht den Schritt nicht weil es sich nicht lohnt durch Intel's Lizenzpolitik, die letztlich 5$ pro Chip haben wollen was halt zu viel ist.

Beim nForce lief noch nicht alles rund was die Modularisierung bzw Preisgestaltung anging aber man lernt immer aus Fehlern und das muss man ja wohl mal neidlos anerkennen: Kein Chipsatzhersteller hat beim ersten Versuch so eine Granate hingelegt - keiner.
Ich sehe sehr sehr harte Zeiten auf VIA, ALI und SIS im Sockel A bereich zukommen. Der nForce2 ist dermaßen modular, das der OEM sich das Teil sowohl in der NB als auch in der SB zusammenschustern kann wie er will. Mit Grafik oder ohne, MCP oder MCP-T usw..
Die Kosten werden mittlerweile in der Fertigung richtig moderat sein. Da geht einiges und wenn ich jetzt mal Nvdias Know How dazurechne was Speichercontroller angeht etc... dann vermute ich mal das der nForce2 alle anderen deutlich schlagen wird. Beim Hammer geht natürlich dieser Vorteil beim Chipsatz ohne Grafik erstmnal flöten aber da kann man auch auf andere Dinge noch setzen gerade was die USB, Sound, LAN, Firewire, Serial ATA etc Ecke angeht.
Und den Sockel A Markt sollte man trotz Hammer mal nicht unterschätzen. Die Sockel A CPUs wirds noch ne ganze Weile geben.

morfeus
2002-07-19, 13:03:20
Eigentlich bin ich ein nVidia 4600 Besitzer.

Aber ich habe eine Risenfreude dass nVvidia
so richtig eins auf die Schnautze bekommen hat.

Egal mit was für eine DX Version NV 30 erscheint,
sie muss sich mächtig im Arsch kneiffen. um
wieder an der Spitze zu kommen.

Fertig mit den kleinen Mhz Schritchen, mit dem man
nur wieder neue Produkte verkaufen will.

ow
2002-07-19, 13:20:16
Originally posted by Stefan Payne


DAS dürfte ein Irrtum sein.

Denn wenn NV nicht mehr Nummer 1 ist (also schnellsten Chip hat), dann werden viele 'Ottonormaluser' kein NV mehr kaufen.



Da sehe ich dich im Irrtum. Den guten Ruf von NV muss sich ATi erst mal verdienen. Dazu gehört mehr als ein schneller Chip.


Auch gibt es außer Game Performance keinen Grund NV zu kaufen, für alles andere sind andere Karten besser.

ATI hat überlebt, weil sie Dinge geboten haben, die andere nicht haben...


Das ist nur deine Meinung und entbehrt jeder Grundlage.
NV Karten können alles, was die Karten von Ati auch können AFAIk. In der Praxis (im Markt) also ohne Bedeutung.

aths
2002-07-19, 13:33:44
Originally posted by Demirug
Dieser Thread ist für die armen verzeifelten nVIDIOTS die heute erleben musste wie ihre angebetet Gefore4 TI 4600 ins Schach gesetzt wurde und es wohl bis zum Verkaufsstart der Radeon 9700 keinen Möglichkeit mehr gibt dem Matt auszuweichen.Hi Demirug,

natürlich erstaunt es mich, dass ATIs neues Stück gleich /so viel/ schneller ist als mein "Baby". Aber warum sollte ich deswegen verzweifelt sein? ("Arm" hat einen die Karte natürlich längst gemacht :D) Ob meine Karte nun durch R300 oder NV30 übertrumpft wird, kann mir doch letztlich egal sein...

Richthofen
2002-07-19, 16:32:03
alda was isn mit dem Forum los.
Ich glaub da muss mal ein Mod nachbessern.


"
Denn wenn NV nicht mehr Nummer 1 ist (also schnellsten Chip hat), dann werden viele 'Ottonormaluser' kein NV mehr kaufen.
"

Also bis das soweit ist da müsste ATI schon mindestens 9 bis 12 Monate vorne sein.
Ich fürchte die haben nicht mal 3 Monate Zeit.
Und wenn ich NV wäre würde ich sofort einen Mainstream NV31 bringen, in 0.13 der nur in den Taktraten beschränkt ist, die ganze GF4MX Palette aus dem Programm nehmen bis auf vielleicht die 420er für absolut Low Cost und dann würd ich von den GF4TI Karten 1 streichen und die anderen 2 in 0.13 fertigen lassen zu tiefstpreisen.
Das würde ATI so einiges kosten weil der Chip teuer ist und wenn Nvidia sich nicht zu dämlich anstellt dann sorgen sie dafür das ATI in den nächsten 6 Monaten keine 0.13 Kapazitäten bei TSMC bekommt und dann sorgen sie auch dafür das mehr Entwickler auf den CG Zug springen.
Im Prinzip könnten sie es sich leisten auf Grund ihres finanziellen Polsters von heute auf morgen ATI in die roten Zahlen zu schicken. Die haben 0 Polster. Das letzte Quartal war ja gerade so an der Grenze.

Der R300 ist sau geil aber ich glaub an den gesamten Rahmenbedingungen wird das nicht allzuviel ändern und der NV30 wird besser werden.

Exxtreme
2002-07-19, 16:55:10
Originally posted by Richthofen
Das würde ATI so einiges kosten weil der Chip teuer ist und wenn Nvidia sich nicht zu dämlich anstellt dann sorgen sie dafür das ATI in den nächsten 6 Monaten keine 0.13 Kapazitäten bei TSMC bekommt und dann sorgen sie auch dafür das mehr Entwickler auf den CG Zug springen.

Ob nVidia tatsächlich dafür sorgen kann, daß TSMC keine 0,13µ-Chips für ATi produzieren kann, wage ich zu bezweifeln. ATi hat sicherlich Verträge mit TSMC abgeschlossen, daß auf jeden Fall Kapazitäten bekommen. Wenn nicht, dann dürfte es saftige Schadensersatzforderungen geben. Ausserdem schläft die Konkurrenz von TSMC auch nicht. Diese bastelt wahrscheinlich selbst an 0,13µ-Produktionsstätten.

Originally posted by Richthofen
Im Prinzip könnten sie es sich leisten auf Grund ihres finanziellen Polsters von heute auf morgen ATI in die roten Zahlen zu schicken. Die haben 0 Polster. Das letzte Quartal war ja gerade so an der Grenze.

Nicht unbedingt. ATi hat etwas andere Kundschaft als NV. Und OEMs kann NV auch nicht so ohne Weiteres umstimmen. Und da ATi mit der R300 z.Zt. ein absolutes Killergeschoss in der Hinterhand hat werden sich die OEMs zumindest jetzt hüten von ATi Abstand zu nehmen. NV muss jetzt auch ein Killergeschoss bringen, welches der R300 weit überlegen ist. Ob sie's schaffen, keine Ahnung.

Gruß
Alex

MadManniMan
2002-07-19, 16:57:41
Originally posted by ow
NV Karten können alles, was die Karten von Ati auch können AFAIk. In der Praxis (im Markt) also ohne Bedeutung.

hm, ich bin sehr gespannt, wie die unterschiede in der af und aa implementation aussehen. da sehe ich bei ati im moment den großen vorteil, schon schnelle varianten anbieten zu können(afa ich das erkennen kann). nv muß das versprechen erst einmal einhalten

tb
2002-07-19, 17:07:02
Originally posted by Demirug
Nachdem sich unsere nVIDIOTS vom ATI-FSAA Schock hoffentlich erholt haben brauchen sie IMHO wieder etwas Aufmunterung.:D

Bei THG war in einer Randbemerkung etwas interessantes zu erfahren:



Da aber der R300 PS2.0 bereist vollständig unterstützt und in DX9 nichts besseres als PS 2.0 verhanden ist bedeutet das wohl das der NV30 der erste DX9.1 Chip wird.

Das wirft natürlich fragen auf:

Wird der technologische schrit genauso gross sein wie von DX8 zu DX8.1?

Wird DX9.1 das gleiche traurige Schicksal erleiden wie DX8.1?

Ihr nVIDIOTS da drausen Verzeifelt nicht den noch ist Hoffnung:D

Nach meinen Informationen soll Dx9.1 frühestens im April/Mai 2003 kommen, wenn man sich allerdings die Verspätungen bei DX9 ansieht, dann kann es durchaus noch etwas länger dauern. ATi könnte natürlich ihrem R300 Sommernachfolger welcher in 0,13µ kommt noch ein paar zusätzliche Transistoren spendieren. Was genau in DX9.1 kommt, kann ich momentan noch nicht sagen, vielleicht kommt "nur" ne Flußkontrolle, vielleicht noch ein paar andere Features.

Gruß
Thomas

Demirug
2002-07-19, 17:14:23
@Thomas:

Das deckt sich mit meinen Infos. Wahrscheinlich haben wir beiden den gleichen Informanten.

StefanV
2002-07-19, 17:22:48
Originally posted by ow
Da sehe ich dich im Irrtum. Den guten Ruf von NV muss sich ATi erst mal verdienen. Dazu gehört mehr als ein schneller Chip.


Der 'Ottonormaluser' sieht nur den Balken, der bei ATI größer ist, der rest ist egal.

Nur NV hatte auch mal einen schlechten Ruf...

Wir werden sehen, wie schnell NV nummer 2 ist *eg*

Originally posted by ow
Das ist nur deine Meinung und entbehrt jeder Grundlage.
NV Karten können alles, was die Karten von Ati auch können AFAIk. In der Praxis (im Markt) also ohne Bedeutung.

Das ist wiederum deine Meinung und entbehrt wieder jeder Grundlage...

Also eine GF4 TI hat immer noch kein IDCT und Adaptives Deinterlacing...
Dazu noch der TV Out, den NV bisher immer nur Stiefmütterlich unterstützt hat.

Und mit der R300 legt ATI nochmal ein gutes Stück an Multimedia Features drauf.

In der Praxis ist es je nach Anwendungsgebiet gewichtig.

NV lag bisher bei '2D Features' immer mindestens eine Generation zurück!

[edit]

Ach ja:

Kein Lüfter ist im OEM Markt auch ein gern gesehenes 'Feature'...
Das kann NV nur bei der GF4 MX 'wirklich' bieten, ATI hat hingegen mit der RV250 DX8 Hardware, die keine aktive Kühlung benötigt.

Unregistered
2002-07-19, 17:43:21
@ATHs:
Seh ich genauso immerhin hatte ich diese bis November dann 6-8 Monate im Hauptrechner und brauchte mich nicht mit ATI Treibern rumplagen.
Zum Anderen wandert die im September in den zweiten Rechner wo die alte Geforce2 Ultra rausfliegen wird.
Zeit für den NV30 :D
Never ATI 4ever Nvidia

aths
2002-07-19, 18:11:36
Originally posted by Exxtreme
NV muss jetzt auch ein Killergeschoss bringen, welches der R300 weit überlegen ist. Ob sie's schaffen, keine Ahnung.Das ob halte ich für nicht fraglich, nur das wann.

HiddenGhost
2002-07-19, 18:17:07
Ich glaube nicht ,dass NV auf einmal wieder groß bei der Standartisierung mitwirken können, zumal sie ja auch schon bei DX9.0 ziemlich außen vor wahren...

Was aber sicher ist, ATI und NV schrauben ihre Leistung immer weiter nach oben.. ATI ist jetzt in der Rolle AMDs vor 3Jahren. Der Athlon veranlasste Intel dazu nahczulegen und die Preise zu senken... das resultat haeben wir heute, eine beinahe verfünfachung der Leistung, die für weniger Geld als damals zu haben ist...

NV wird nachlegen, ohne Frage, schließlich geht es um das Prestige und nV hat nur im Grakachipgeschäft starken einfluss und somit die Finanziellen Quellen, ich beweifle aber dennoch, dass sie die Technologieführerschaft anstreben, sonst hätten sie bereits in die GF4Tis, wenn auch nur um ien Zeichen zu setzen, den PS 1.4 integriert und ihre Multimediafunktionen aufgebohrt, was aber nicht der Fall war.

Aber ich verstehe diese Flames nicht, in denen ihr eure GF4Ti 4k6 verteidigt. Die Karte ist nicht Lahm, aber wenn man in wenigen Wochen für das gleiche Geld eine Karte bekommt, die bei nahezu gleichen FPS bessere Bildqualität liefert sei es durch FSAA und(oder triliniarees ANiso, dann würde ich schon denken, dass ich zuviel bezahlt hab..

Zugegeben, es bleict die rage ob ATIs triliniare Anisofilterung auch so gut ist wie NVs tril. AF, aber ich denke auch, dass das FSAA ,dass quasi "for Free" aktiviert werden kann, das Colorbanding weiter reduziert... jedenfalls die Mipmapstufen weiter verblurt !

Mich würde auch mal interessieren, ob allein der Ramdac für die Bildschärfe ausschlaggebend ist , und wenn nicht , an welchen Stellen 3rd Parties die Bildqualität verhunzen, sowohl NVs als auch ATis

tb
2002-07-19, 18:37:34
Bis vor drei Tagen wäre diese Karte sicher ein Traum gewesen:

http://www.computermagazin.net/cgi-bin/go.pl?article=493

Aber nun würd ich dafür keine 399 Euro mehr hinlegen, 200 Euro okay, mehr aber nicht - Halbe Leistung(mit und ohne FSAA gemittelt ;) ), halber Preis, hoffentlich sieht das NVIDIA auch so und dreht ordentlich an der Preisschraube.

Für ein Review hätte ich die R300 schon gerne, aber kaufen würd ich mir das Teil noch nicht. Ne 8500, 4200 - 4600 reichen bisher fast immer..., es gibt ja noch kein 3D-Mark 2002 ;)

Thomas

Quasar
2002-07-19, 20:13:10
Ob Dx9.1 dasselbe Schicksal erleiden wird, wie es momentan noch Dx8.1 zuteil wird, hängt imo nicht davon ab, ob der nV30 nun Dx9.1 unterstützt oder nicht, sondern von folgendem: Wie lange Dx10 danach auf sich warten läßt, ob die Verbesserungen exklusiv auf Dx9.1 HW laufen, oder diese sich nur entlastend/IQ-steigernd auswirken, und nicht zuletzt von der vorhandenen Hardware-Basis, da hieraus die möglichen Verkäufe hochgerechnet werden. Außerdem spielt der Aufwand zur Implementierung sicher auch eine Rolle.

Darüber, daß der GF4 vom R300 bei momentaner Taktung vernichtet wird, braucht eigentlich nicht weiter diskutiert werden, obwohl es mich doch ein bißchen wundert, daß das alles hauptsächlich noch an der Speicherbandbreite hängt bzw. an der Pixelfüllrate. Ich wäre bei einem 8x1-Design (wegen gleicher Texel-Fillrate) von weniger Vorsprung ausgegangen, als es nun doch der Fall ist. Offenbar wird doch noch mehr mit Single-Textures wie bei Transparenzen (wo bei GF4 oft eine TMU lahmliegt) gearbeitet, als ich annahm.

Doch darüber, daß nV sich am GF4 momentan noch eine goldene Nase verdient, braucht ebensowenig diskutiert zu werden. Wenn ATi bei gleichem Fertigungsprozess (und sehr optimistisch angenommener) gleicher Ausbeute einen Chip mit 70% mehr Transistoren auf einem PCB mit 100% mehr Bahnen zu den Speicherchips zu einem ähnlichen Preis anbietet, wie nV die GF4 seit vier Monaten, kann man sich vorstellen, wieviel Spielraum nV noch haben wird, den GF4 im Preis zu senken, evtl. den nV17 im Retailmarkt abzuschaffen und preislich mit einer Ti4200 in die Nähe einer leistungsmäßig deutlich unterlegenen R9000 zu rücken.

Was Chipsätze angeht, so hat Richthofen es schon richtig aufgefaßt, imo. Ein P4-Chipsatz wäre kein Problem, aber leider verlangt Intel massig Lizenzgebühren, so daß VIA schon gezwungen ist (da sie allein sich im Recht sehen, aufgrund von Abkommen ohne Lizenzgebühren einen Chipsatz zu vertreiben, SiS hat diese Rechte) ihre Boards selber zu bewerben/vertreiben.

Demirug
2002-07-19, 20:23:57
Originally posted by tb
Bis vor drei Tagen wäre diese Karte sicher ein Traum gewesen:

http://www.computermagazin.net/cgi-bin/go.pl?article=493


Der Link geht bei mir nicht:...( Um was geht es den da???

Demirug
2002-07-19, 20:32:58
Originally posted by Quasar
Ob Dx9.1 dasselbe Schicksal erleiden wird, wie es momentan noch Dx8.1 zuteil wird, hängt imo nicht davon ab, ob der nV30 nun Dx9.1 unterstützt oder nicht, sondern von folgendem: Wie lange Dx10 danach auf sich warten läßt, ob die Verbesserungen exklusiv auf Dx9.1 HW laufen, oder diese sich nur entlastend/IQ-steigernd auswirken, und nicht zuletzt von der vorhandenen Hardware-Basis, da hieraus die möglichen Verkäufe hochgerechnet werden. Außerdem spielt der Aufwand zur Implementierung sicher auch eine Rolle.


Die .1 läst IMO darauf schliessen das es sich um neue Hardware features handelt. DX 10 wird wohl noch etwas auf sich warten lassen sehe ich frühsten für den R400 bzw NV40.


Darüber, daß der GF4 vom R300 bei momentaner Taktung vernichtet wird, braucht eigentlich nicht weiter diskutiert werden, obwohl es mich doch ein bißchen wundert, daß das alles hauptsächlich noch an der Speicherbandbreite hängt bzw. an der Pixelfüllrate. Ich wäre bei einem 8x1-Design (wegen gleicher Texel-Fillrate) von weniger Vorsprung ausgegangen, als es nun doch der Fall ist. Offenbar wird doch noch mehr mit Single-Textures wie bei Transparenzen (wo bei GF4 oft eine TMU lahmliegt) gearbeitet, als ich annahm.


Der wirkliche Leistungsvorsprung entsteht ja beim AA (Speicherinterface und Farbtilekompresion). Ohne AA liegt der Vorsprung wohl so um die 30%. Ist für mich durchaus mit der 8*1 und der etwas höheren Taktung erklärbar.


Doch darüber, daß nV sich am GF4 momentan noch eine goldene Nase verdient, braucht ebensowenig diskutiert zu werden. Wenn ATi bei gleichem Fertigungsprozess (und sehr optimistisch angenommener) gleicher Ausbeute einen Chip mit 70% mehr Transistoren auf einem PCB mit 100% mehr Bahnen zu den Speicherchips zu einem ähnlichen Preis anbietet, wie nV die GF4 seit vier Monaten, kann man sich vorstellen, wieviel Spielraum nV noch haben wird, den GF4 im Preis zu senken, evtl. den nV17 im Retailmarkt abzuschaffen und preislich mit einer Ti4200 in die Nähe einer leistungsmäßig deutlich unterlegenen R9000 zu rücken.


Wie sagte man im Mittelalter: "Du sprichts wahr"

zeckensack
2002-07-19, 20:47:27
Originally posted by Quasar
Ich wäre bei einem 8x1-Design (wegen gleicher Texel-Fillrate) von weniger Vorsprung ausgegangen, als es nun doch der Fall ist. Offenbar wird doch noch mehr mit Single-Textures wie bei Transparenzen (wo bei GF4 oft eine TMU lahmliegt) gearbeitet, als ich annahm.So wie ich das verstehe, kann der R300 massives Pipecombining/Loopback oder ähnliches. Standard-Multitexturing wird wohl mindestens sechs 'virtuelle' Textureinheiten anbieten (man nimmt niemals weniger, als bei der Vorgängergeneration), ich erwarte mindestens acht.

PS2.0 erwarten mindestens 16 Texturen/Pass.

Dh selbst ohne Singletexturing sollte der Chip sehr schnell sein, da er für alles heute vorstellbare nur einen Pass (respektive Framebuffer-Schreibzugriff) braucht.

Mave
2002-07-19, 23:34:28
Originally posted by HiddenGhost

Mich würde auch mal interessieren, ob allein der Ramdac für die Bildschärfe ausschlaggebend ist , und wenn nicht , an welchen Stellen 3rd Parties die Bildqualität verhunzen, sowohl NVs als auch ATis

Ausschlagebend sind die Filter und dort
1. wieviele Stufen (z.B. 3 oder 5)
2. die qualität der komponenten und die sollen bei 3rd Parties teilweise nicht die spezifizierten sein

Quasar
2002-07-19, 23:55:11
Das ist mir schon klar, Z-Bag, aber nichtsdestotrotz wird sich mit einer TMU auch die Texelfillrate (wenn auch nahezu ungebremst durch evtl. Speicherzugriffe) bei Multitexturing nicht gegenüber einem 4x2 Design erhöhen. Nur eben das, was man von der theoretischen Leistung nutzen kann, ist natürlich höher, durch eine Menge von Faktoren.

Unregistered
2002-07-19, 23:58:19
Originally posted by morfeus
Eigentlich bin ich ein nVidia 4600 Besitzer.

Aber ich habe eine Risenfreude :lol: dass nVvidia
so richtig eins auf die Schnautze bekommen hat.

Egal mit was für eine DX Version NV 30 erscheint,
sie muss sich mächtig im Arsch kneiffen.:asshole: um
wieder an der Spitze zu kommen.

Fertig mit den kleinen Mhz Schritchen, mit dem man
nur wieder neue Produkte verkaufen will.


Was bist du denn fürn Träumer?

Glaubst doch wohl nicht wirklich das Nvidia sich die Suppe versalzen lassen wird.

Wenn R300 zu kaufen gibst, wird Nvidia den NV30 ankündigen und dann wird dir die Kinnlade runterfallen.

Vonwegegen Nvidia auf die Schnauze kriegen, totlach hahaha.

R300 wird gnadenlos untergehen, wer kauft sich schon ne Graka die schlechter ist als NV30 und dazu noch nen extra Stecker für Steckdose braucht, ist jawohl ein schlechter Scherz oder was?

Demirug
2002-07-20, 00:06:12
Originally posted by Quasar
Das ist mir schon klar, Z-Bag, aber nichtsdestotrotz wird sich mit einer TMU auch die Texelfillrate (wenn auch nahezu ungebremst durch evtl. Speicherzugriffe) bei Multitexturing nicht gegenüber einem 4x2 Design erhöhen. Nur eben das, was man von der theoretischen Leistung nutzen kann, ist natürlich höher, durch eine Menge von Faktoren.

8*2 war wohl einfach vom Platzbedarf nicht drin. Vorallem da PS 2.0 wieder TMUs im NVidia Style fordert. Was mich ja noch interesieren würde ist wie viele Shader-ALUs pro Pipe verfügbar sind?

Quasar
2002-07-20, 00:23:57
@unreg:
:rofl:
Ja, sicher. Ein Floppy-Connector als K.O.-Argument. Wie lächerlich. So ein Ding ist mir tausendmal lieber, als daß ich Probleme mit dem AGP-Slot kriege.

@Demirug:
Nee, das glaube ich auch. Platz- und vor allem Strom- und Wärmemäßig dürfte man sich mit >300MHz schon an der äußersten Grenze bewegen.

Shader-ALUs sollten doch eigentlich je einmal pro Pipe vorhanden sein, oder? Sonst hätte man ja nur eine quasi-externe TMU mit eigener Pixelunit.

Demirug
2002-07-20, 00:34:16
Originally posted by Quasar

@Demirug:
Shader-ALUs sollten doch eigentlich je einmal pro Pipe vorhanden sein, oder? Sonst hätte man ja nur eine quasi-externe TMU mit eigener Pixelunit.

Eine pro Pipe ist natürlich minimum. Da aber mehr als 16 Color ops (glaube 64 hab aber die Spec gerade nicht zur hand) pro pass ausführbar sind würde mehr als eine ALU schon sinn machen. Ist halt nur die Frage ob dafür noch platz war.

HiddenGhost
2002-07-20, 00:36:03
Originally posted by Unregistered



Was bist du denn fürn Träumer?

Glaubst doch wohl nicht wirklich das Nvidia sich die Suppe versalzen lassen wird.

Wenn R300 zu kaufen gibst, wird Nvidia den NV30 ankündigen und dann wird dir die Kinnlade runterfallen.

Vonwegegen Nvidia auf die Schnauze kriegen, totlach hahaha.

R300 wird gnadenlos untergehen, wer kauft sich schon ne Graka die schlechter ist als NV30 und dazu noch nen extra Stecker für Steckdose braucht, ist jawohl ein schlechter Scherz oder was?

Denk bevor du schreibst... ATI hat mit der 9700 das gesetzt was in einem halben Jahr Preismäßig midRange sein könnte, und daran muss sich NVs Ignoranz erstmal orientieren...

Genauso wenig wie ich ein 256bit Interf. für die R300 erwartet hab, glaub ich nicht,dass NV30 sosehr schneller sein wird als ATI. Man bedenke auch, dass ATI in O,15µm bei doppelter DIE Größe NVs 300MHz übertroffen hat... wieviel mit FCPGA (oder das andere ?) dann auch noch in 0,13µm drinn sind kann man erahnen, ich denke ATI hat noch sehr viel potential !

Ach was ist dir lieber, dass dein Netzteil auf der 3,3V Schiene (AGPPort) zu wenig liefern könnte fr eine Graka und somit dein Sys andauernd abkaggen könnte, oder das du zur not deine Graka über die 5V Schiene (Floppy/HDD) mitersorgen könntest ??? (übrigens 230V Wecheslestrom halt ich doch für ein Todesurteil für eine Graka...)
Diese Gefahr besteht bei fast allen aktuellen Grakas...

Unregistered
2002-07-20, 00:49:51
Ja OK, wenn Graka extra über Netzteil Strom braucht ist das noch in Ordnung, hab so verstanden das R300 extra an Steckdose angeschlossen wird, sorry.

Iceman346
2002-07-20, 02:05:55
Nee, das war mit der V5 6000 geplant ;)

Die Radeon hat lediglich so einen Stecker wie ein Gehäuselüfter z.B. auf dem PCB.

StefanV
2002-07-20, 11:27:49
Dann wollen wir mal das Posting zerlegen :)
Originally posted by Unregistered

Glaubst doch wohl nicht wirklich das Nvidia sich die Suppe versalzen lassen wird.


Nein, ich glaube, daß NV sich selbst im Weg steht.
Ich sag nur 'geringe' Probleme beim 0,13µ Prozess von TMSC...
Ach ja:
der VIA C3 zählt nicht, der is nich ganz so komplex wie der NV30...

Originally posted by Unregistered

Wenn R300 zu kaufen gibst, wird Nvidia den NV30 ankündigen und dann wird dir die Kinnlade runterfallen.

1. das ist Spekulation...
Wir wissen noch nicht viel über den NV30, was idR bedeutet, daß er nicht weit fortgerschritten ist...
Es hängt alles mehr oder minder von TMSC ab...
Nur vergiss nicht den R300 in 0,13µ, den ATI ankündigen könnte :)

2. ob die Kinnlade runterklappt sei mal dahingestellt...

Originally posted by Unregistered
Vonwegegen Nvidia auf die Schnauze kriegen, totlach hahaha.


Tja, das wird NV wohl...
Aber weniger dank ATI sondern vielmehr dank TMSC...
Früher oder Später wird NV nicht mehr nummer 1 sein...

Originally posted by Unregistered
R300 wird gnadenlos untergehen, wer kauft sich schon ne Graka die schlechter ist als NV30 und dazu noch nen extra Stecker für Steckdose braucht, ist jawohl ein schlechter Scherz oder was?

?-)

1. jeder, der mit dem PC auch was anderes macht als Gamen.
Denn der R300 kann ja auch (AFAIK) jedes Video Hardware beschleunigen (und das auch noch ohne Overlay)...

2. ob der NV30 so viel schneller sein wird als die R300 ist noch unbekannt...

3. also bei der Voodoo5 hats anscheinend niemanden gestört.
Auch bei der AIW 8500DV hats wohl kaum jemanden gestört, bei der Canopus GF3 wohl auch nicht...

Nur is das 'etwas' besser, da die Radeon 9700 wohl auch in alten (Gigabyte) Boards läuft, die eine miese AGP Spannungsversorgung haben.
Auch geht ATI so die Probleme mit manchen (Soyo, Epox) Boards aus dem Weg...

Also einen Stecker hätte ich gerne auf JEDER GraKa, am besten noch mit 'nem Jumper daneben (Board/External)...

Reg
2002-07-20, 11:33:26
Sowas am Morgen jedesmal dasselbe :)

Gäähhn
mal auf das extra Kraftwerk für atis neue zu kommen
Wenn sie Ne separate Stromversorgung braucht zeugt das für mich davon das ati es nicht innerhalb der Spezifikation geschafft hat.

Und so ein "vorserien Produkt" will ich diesmal nicht wieder!

Nichts desdotrotz ist die 9700 gut aber teilweise ineffizient
richthoffen hat es schon angesprochen

es ist etwas verfrüht die karte zu releasen kein direct x nicht im richtigen vertigungsprozes und atis wissen das der Knebel Vertrag zwischen ms und nv abgelaufen ist im Moment hat ati (in diesem Moment wohl) nichts wirklich brauchbares um gegenzuhalten seit wann gibt es das denn das Produkte die gegeneinander antreten sollten extra zu anderen Zeiten erscheinen also nicht zu gleichen zeit released werden
somit hat ati sich für gewisse zeit wieder in den Vordergrund stellen können aber mit welchem wohlwissenden Hintergedanken
Und glaubt mir einfach das ati schon weis warum sie ihm Moment noch etwas zurückstecken müssen.
Ihm Gegenzug wird bei nv ja an 3 Gens gearbeitet das kann ati nicht innerhalb von 2 Jahren aufholen soetwas dauert sehe matrox viel Bandbreite aber die Erfahrung mit der Speichertechnologie ist ihnen wohl auch nicht so ganz geläufig!

nggalai
2002-07-20, 14:59:21
Hi there,

ist zwar OT, aber zur Richtigstellung:

die Radeon9700 KANN mit einem zusätzlichen Stromanschluss daherkommen. Muss sie aber nicht, das Ding wird nur u.U. gebraucht (hohe Taktraten, AIW).

Ausserdem reden wir hier nicht von einem zusätzlichen Netzteil oder so, sondern von einem ganz normalen Floppy-Stromstecker. Ein Adapter für einen HD-Stecker liegt auch bei. Ich schliesse mich hier Stefan an: lieber einen zusätzlichen Stromeingang als Instabilitäten auf mieseren Board/Netzteilkombinationen.

Aber das ist genug OT. Hier geht's noch immer um DX9.1 und NV30. Wenn Ihr über die Radeon sprechen wollt, macht das im Radeon-Thread.

ta,
-Sascha.rb

tb
2002-07-20, 18:37:03
Ich find die R300 Leistungs- und Ausstattungsmerkmale wunderbar. ATi hat in allen Bereichen Punkte gesammelt und auf die Stimmen der Gamer gehört. Negativ ist höhstens der Preis, von ca. $350-399, as im Vergleich zur GF4 Ti 4600 sau billig ist, aber eben für ne Grafikkarte doch recht viel(ist aber geschmacks- und gehaltsabhängig ;) )

Bis NVIDIA offizielle Details zum NV30 verkündet, bleibt dem R300 die Spitzenposition im Gamermarkt vorbehalten. Bisherige Reviews(UT2003 Tests etc.) können lediglich an der Oberfläche kratzen, da leider noch keine DX9 Software zur Verfügung steht, welche das volle Leistungs- und Darstellungspotential der DX9 Generation ausschöpft.

Gruß
Thomas

Frank
2002-07-20, 20:13:34
Originally posted by Reg
...jedesmal dasselbe

ja

:zzz:

Thowe
2002-07-20, 21:16:15
Irgendwie schon. Obwohl das ein oder andere schon mal interessant zu lesen ist, ist die Masse der Postings leider inhaltlich "leer".

MadManniMan
2002-07-21, 01:59:00
so wie... deins? ;D

Razor
2002-07-21, 03:46:15
Originally posted by Exxtreme
Man kann ATi und NV IMHO nicht direkt vergleichen. Ein Grund, warum ATi früher bei den OEMs beliebt war, ist weil deren Karten zum Funktionieren keinen IRQ brauchten -> weniger mögliche Resourcenkonflikte -> weniger Stress für den OEM.
Sorry, aber dem muss ich eisenhart (;)) wiedersprechen !
ATI hat schlicht die absolut billigsten (und ja ich meine 'billig' und 'preisgünstig' waren sie natürlich auch). Selbst heute noch fluchen wir, wenn es darum geht einen Rechner mit einem neuen OS auszustatten und dann feststellen, dass 'ne ATI drin' steckt. Nicht dass es grundsätzlich schief geht, aber oft - oder immer öfter ?
:D

Neee...
ATI's hat man schon für unter 30DM bekommen (ja DM !), während alles andere fast doppelt so teuer war (Matrox gab's ab ca. 70 Märkern. Trotzdem sind wir damals dazu über gegangen, nur noch Matrox einzusetzen, weil diese tatsächlich unproblematisch waren. nVidia ist selbst heute noch kein Thema...

Bis denne

Razor

Razor
2002-07-21, 04:07:27
Originally posted by HiddenGhost
Ich glaube nicht ,dass NV auf einmal wieder groß bei der Standartisierung mitwirken können, zumal sie ja auch schon bei DX9.0 ziemlich außen vor wahren...
Nach dem XBox2-Deal mit M$ werden sie vermutlich schon 'ein wenig' Einfluss nehmen können...
Originally posted by HiddenGhost
Was aber sicher ist, ATI und NV schrauben ihre Leistung immer weiter nach oben.. ATI ist jetzt in der Rolle AMDs vor 3Jahren. Der Athlon veranlasste Intel dazu nahczulegen und die Preise zu senken... das resultat haeben wir heute, eine beinahe verfünfachung der Leistung, die für weniger Geld als damals zu haben ist...
Falsch !
Geanu umgekehrt dürfte die Situation sein...
nVidia ist mit AMD zu vergleichen und ATI mit Intel.
nVidia hat ATI 'angespornt' nun endlich mal wieder ein 'vernünftiges' Produkt auf den Markt zu bringen und wird sich heruas stellen müssen, ob nVidia kontern kann (ich persönlich gehe fest davon aus ;-)

Sorry, aber wieder wird hier so getan, als ob nVidia schon immer der große böse war, aber es wird wohl ganz vergessen, dass ATI einst diese Position inne hatte und an nVidia verlor. nVidia selbst ist erst seit ca. 4 Jahren 'richtig' im Geschäft. Davor gab es eigentlich nur Matrox (eher 'klein' ;-) und eben ATI.

ATI ist also mit Intel zu vergleichen, die nun eine Prozzi heruas bringen, der erst einmal die eigenen Produkte und auch die der Konkurrenz dekalssiert...

In diesem Sinne

Razor

MadManniMan
2002-07-21, 04:15:23
sehr richtig, daß man dafür den zeitraum berücksichtigen muß... ich möchte diesen allerdings erst bei v3-zeiten beginnen lassen, denn erst dort begann die stete entwicklung und ati war schon umgefallen, insofern ist für mich nv äquivalent zu intel

Razor
2002-07-21, 04:30:01
Originally posted by nggalai
...
Aber das ist genug OT. Hier geht's noch immer um DX9.1 und NV30. Wenn Ihr über die Radeon sprechen wollt, macht das im Radeon-Thread.
Eben...

Warum der NV30 ein DX9.1-Chip werden könnte ?

a) weil nVidia ja diesmal, als es um die Spezifikation für DX9 ging ziemlich aussen vor gelassen wurde. Den Zwist mit M$ aber beendet hat (XBox2-Deal) und somit wieder 'mitreden' darf. Und da der NV30 vermutlich sogar über das Dargebotene des R300 hinaus geht, braucht's eben ein DX9.1

b) Haarmann hat recht und nVidia ist aufgrund des Relesaes des R300 so dermassen einegschüchtert, dass sie es nicht mehr wagen, den unrsprünglichen NV30 zu bringen und legen nun gleich den NV35 auf den Tisch, der ja erst für Q2/2003 geplant war. Und da der ja schon bereits DX9.1 kompatibel ausgelegt war...

Sucht Euch was aus !

Ich persönlich würde Variante a) bevorzugen, aber auch das tut hier nichts zur Sache, denn noch weiss niemand so genau, was es mit dem NV30 so auf sich hat. Kann sein, dass das Ding absolut floppt (was einige - allen voran SP - ja wohl geradezu wüschen), oder aber den R300 ungespitzt in den Boden rammt und damit die gerade über ATI erschienene Sonne gleich wieder untergeht, um dann vielleicht endgültig den Hahn abzudrehen. Oder aber passiert gar nichts und nVidia bringt einen NV30, der dem R300 ebenbürtig ist und eben nVidia's Stempel trägt. Dann werden sich die beiden das nächste mal ein 'Stell-Dich-Ein' geben.

Leute, die glauben, daß hier gleich ganze Firmen untergehen, nur weil eine andere Firma irgendetwas vorstellen, tun mir einfach nur leid. Das hat's nur bei 3dfx gegeben und die waren auch noch selber schuld...

Also Leute, Spekulation ist ja ganz nett, aber führt doch nun wirklich zu gar nichts !

Und weil hier immer wieder Fakten mit Halbwahrheiten und Phantastereien gemischt werden:

ICH WILL DAS SPEKU-FORUM WIEDER ZURÜCK !!!

In diesem Sinne

Razor

Demirug
2002-07-21, 09:54:44
@Razor:

zu A: Glaube ich aus mehrern Gründen nicht:

1. Mircosoft ist zu Profesionel um sich wegen kaufmänischen Problemen technisch zu beschränken.

2. Mircosoft ist zu chaotisch um solche Abteilungsübergreifenden Aktionen überhaupt durchzuziehen.

zu B:

Die Planung für DX 9.1 gibt es schon länger.

Meine Variante C:

NVIDIA hat bei Spezifikationstreffen Stunk gemacht un d wurde deshalb erst mal ignoriert. Da es aber nicht gut für DX gewessen wäre wenn die besonderen Features des NV30 nur mit OpenGL funktioniert bekammen diese Features eben eine neue Version spendiert.

und D:

NVIDIA hat wärend der Plannung festgestellt das sie diesesmal viel weniger Transitoren als sonst brauchen. Da man dann noch eine ganze Menge übrig hatte (Die maximale Größe des DIE wird am Anfang der Plannung festgelegt und sollte möglichst genau getroffen werden) hat man fleisig noch mehr funktionalität eingeplant. Als man dann gemerkt hat das man doch eherblich über den DX9 Bereich hinausgeschossen ist hat man mit MS geredet ob man nicht eine DX 9.1 Version haben könnte. Und da MS ja ATi auch eine 8.1 spendiert hat konnte sie kaum nein sagen.

Razor
2002-07-21, 10:50:10
Tja Demirug,

war es bisher nicht auch immer so, dass ein grosser Chiphersteller Pate für eine DX-Version (0'er) stand, steht ?

Bei DX8 war es nVidia, die die programmierbaren Teile (VS/PS) in DX einbrachte (bei DX7 und vorher k.a.). ATI kam dann fast ein halbes Jahr später mit Ihrer Karte und deswegen gabs dann DX8.1 (bis PS1.4 & n-Patches).

Bei DX9 war es nun genau umgekehrt... hier war ATI federführend und hat massgeblich den 0'er 'inspiriert'. Nun kommt nVidia mit dem NV30 und es braucht halt 'ne DX9.1...

-

Aber wenn ich das richtig sehe, liegen unsere Annahmen/Spekulationen gar nicht so weit auseinander. Denn mein Vorschlag a) schließt Deine Vorschläge c) und d) ja mit ein, nur das die Ausgangsvoraussetzungen jeweil unterschiedlich sind. Übrigens entspricht Dein Vorschlag b) eigentlich exakt meinem Vorschlag a):

Razor
a) Zwist mit M$ wg. XBox -> first ignore, then include
b) miese Leistung, deswegen gleich NV35 -> first chip out, second in

Demirug
c) Stunk bei Spezifikation -> first ignore, then include
d) mehr Funktionalität als gedacht (0.13µ) -> more to include

Aber was all die Vorschläge gemein haben:

Das, was da mit dem NV30 kommt, ist mehr, als sich ATI und M$ (evtl. auch nVidia) bei DX9 gedacht haben, aus welchem Grund auch immer.

Nichts dest trotz ist das alles noch immer reine Spekulation, die leider duch so gut wie nichts untermauert wird. Oder warum glaubst Du, daß nVidia mit Ihrem DX9-Erstlingswerk gleich einen DX9.1-Chip bringt, obwohl sich dieses doch wunderbar als Refresh verkaufen lassen würde ?

Wirtschaftlich gesehen würde ich das nicht für sonderlich sinnvoll erachten, den Endanwender freut's natürlich, zumal der liebe NV30 dank R300 nicht allzu teuer werden dürfte (was eigentlich gegen Deine Theorie spechen würde).

Egal, wir werden sehen was da kommt.
Bin noch immer der Meinung, dass nVidia nun nicht mehr lange auf sich warten lässt und uns spätestens kurz vor dem Regal-Release des R300 mit 'echten' Info's beglückt !
:D

Bis denne

Razor

Demirug
2002-07-21, 11:04:27
@Razor:

Warum ich glaube das NVIDIA direkt zu DX 9.1 geht?

Ganz einfach NVIDIA ist doch dafür bekannt das sie gerne eine Vorreiterrolle übernehmen. Das sie nicht den ersten DX9 Chip haben muss es eben etwas anderes neues sein.

Auch Wirtschaftlich Gründen macht das durchaus Sinn. NVIDIA schaft es durchaus sowohl den Endanwender wie auch die Programmiere zu überzeugen das man die Features der euen Karte braucht. ATi hat ja das gleiche mit der Radeon8500 versucht ist aber gescheitert.

Razor
2002-07-21, 11:14:55
Das hat allerdings einiges für sich...

Nur würde ich mir lieber bessere technologische Ansätze wünschen, die gebotene Funktionalität zu realisieren. AA mit nur 10% der Bandbreite, Auslagerung der T&L-Einheit bei 0.13µ Fertigung, 8fachCBMC bei 256BitDDR-Speicherbus etcpp...

Und vor allen Dingen:

ICH WILL ÜBERRASCHT WERDEN !

Was so zur Zeit passiert, ist alles Vorhersehbar und nicht wirklich 'erstaunlich'...
Kannst Du mich da verstehen, Demirug ?
Ich will mal wieder staunen, wie damals bei der gf3.

Und so 'ne neue DX-Version reisst mich nicht gerade vom Hocher !
(was bei Euch Entwicklern vielleicht was anderes ist ;-)

Bis denne

Razor

Demirug
2002-07-21, 11:25:51
Razor,

DX9 hat wirklich nicht so viel neues. DX 10 wird aus programmiere sicht vielleicht wieder interesanter. Als Endbenutzer wirst du aber wahrscheinlich so schnell nicht wirklich etwas neues sehen. Es geht eigentlich nur noch darum die bekannten Effekte schnell genung zu bekommen. Der Vorteil für den Spieler ist allerdings das je besser die Karten werden desto weniger muss man sich darum kümmern das auch Lowpoly Objekte gut aussehen und kann sich wieder mehr auf das Gameplay konzentrien.

aths
2002-07-28, 23:29:03
Ich habe die (unsichere) Hoffnung, mit meiner DX8-Karte bis zu DX10 überleben zu können... Gibt es denn bereits Anzweichen, wann DX10 ungefähr kommen würde?

Demirug
2002-07-28, 23:39:29
Originally posted by aths
Ich habe die (unsichere) Hoffnung, mit meiner DX8-Karte bis zu DX10 überleben zu können... Gibt es denn bereits Anzweichen, wann DX10 ungefähr kommen würde?

Nein

Crushinator
2002-07-29, 01:19:45
Originally posted by Richthofen
...und wenn Nvidia sich nicht zu dämlich anstellt dann sorgen sie dafür das ATI in den nächsten 6 Monaten keine 0.13 Kapazitäten bei TSMC bekommt und dann sorgen sie auch dafür das mehr Entwickler auf den CG Zug springen.
Im Prinzip könnten sie es sich leisten auf Grund ihres finanziellen Polsters von heute auf morgen ATI in die roten Zahlen zu schicken. Die haben 0 Polster. Das letzte Quartal war ja gerade so an der Grenze.

Der R300 ist sau geil aber ich glaub an den gesamten Rahmenbedingungen wird das nicht allzuviel ändern und der NV30 wird besser werden.

Sorry, aber ich muss Dich als eindeutigen FUD-Verbreiter einstufen.

Jeder, der etwas länger die Branche kennt, weiß wie groß und
mächtig ATI ist und seit wann sie (vor allem wie) profitabel
arbeitet. Das Polster, was ATI zum überleben braucht hat sie,
das kann ich Dir versichern. Sie könnten 5 Jahre rote Zahlen
schriben und würden trotzdem überleben, da sie in der Vergangenheit
(seit 1984) sehr oft dicke Gewinne verbuchen konnten.

Wusstest Du eigentlich, daß ATI als z.Z. größter Kunde der IBM
Geometriebeschleuniger (FireGL II bis FireGL IV bzw. V) des öfteren
die Chips hat bei denen fertigen lassen? Mit anderen Worten: Es ist
ATI jederzeit möglich bei IBM herstellen zu lassen.

Ich möchte jetzt nicht behaupten, daß der NV30 schlechter werden
wird als der R300. Viel eher, daß wenn ATI in der Lage ist,
schneller als nVidia so einen heftigen Chip (R300) marktreif
zu machen, wird sie auch in der Lage sein, eine mögliche Attacke
(wie Du ihn beschreibst) seitens nVidia mit noch heftigeren
Chips zu beantworten.

Nur ist es im Geschäftsleben so, daß man nicht versucht mit der
Brechstange den anderen bankrott zu fahren, da dieser Versuch
unheimlich kostspielig ist und auch mal nach hinten losgehen
kann. Außerdem braucht nVidia ja auch jemanden, an dem sie sich
messen kann oder? ;-)

Lange Rede kurzer Sinn: Hör(t) doch bitte endlich auf diese
Glaubenskriege mit halbwahrheiten und FUD zu führen, freut
Euch daß es wieder mal spannend wird im Grafikkarten-Segment.

Gruß, Crushinator

P.S.: Selbst wenn der NV30 viel schneller wäre. Er kommt erst
(wenn überhaupt) im Feb/März 2003 in die Läden. Das sind für
mich 5-6 Monate nach der R300. Bis dahin würde ich an ATIs
Stelle ein paar Verbesserungen im Petto haben....es sprach der
Orakel und ging. ;-)

Crushinator
2002-07-29, 01:44:18
Originally posted by Razor

Sorry, aber dem muss ich eisenhart (;)) wiedersprechen !
ATI hat schlicht die absolut billigsten (und ja ich meine 'billig' und 'preisgünstig' waren sie natürlich auch). Selbst heute noch fluchen wir, wenn es darum geht einen Rechner mit einem neuen OS auszustatten und dann feststellen, dass 'ne ATI drin' steckt. Nicht dass es grundsätzlich schief geht, aber oft - oder immer öfter ?
:D
...



;-) Ich hoffe, daß Du es nicht persönlich nimmst, aber ich muß
trotzdem hier die Behauptung aufstellen, daß Du/Ihr Deinen
bzw. Euren Beruf eindeutig verfehlt hast/habt.

ATI-Karten sind genau so problemlos in Betrieb zu nehmen
wie Andere, man muß nur sein Handwerk verstehen. Es ist
zumindest meine Erfahrung in den letzten 8 Jahren.

Lieber sich einmal im Monat informieren und eine neue
Treiber-Sammlung für die ATIs zusammenstellen als eine
Karte mit aktiver Kühlung oder Mega-Wärmeentwicklung
bzw. für das 3fache an Geld in einen Büro-PC einbauen.

;-)

Gruß

Salvee
2002-07-29, 01:58:58
Ich les' hier ständig, dass nV in der XBox2 zu finden sein wird.
Gibts dafür Quellen ???

bambo
2002-07-29, 02:01:12
Originally posted by aths
Ich habe die (unsichere) Hoffnung, mit meiner DX8-Karte bis zu DX10 überleben zu können...

Da könnte was dran sein. Vermutlich wird außerdem auch noch die XBox ihren Teil dazu beitragen, dass DX8 noch lange aktuell sein wird.

Crushinator
2002-07-29, 02:17:56
Originally posted by Razor
....
ICH WILL ÜBERRASCHT WERDEN !

Was so zur Zeit passiert, ist alles Vorhersehbar und nicht wirklich 'erstaunlich'...
Kannst Du mich da verstehen, Demirug ?
Ich will mal wieder staunen, wie damals bei der gf3.

Und so 'ne neue DX-Version reisst mich nicht gerade vom Hocher !
(was bei Euch Entwicklern vielleicht was anderes ist ;-)



Wenn ich das richtig verstanden habe, was nVidia auf der
SIGG* präsentiert hat gehe ich der Annahme, daß es kein
DX9.1 geben wird.

Selbst wenn es das geben soll. Wer soll sich bitte dafür
interessieren? Das ist zwar meine subjective Meinung, aber
der Einzige, den ich punkto 3d-Entwicklung für ernst nehme ist
John Carmack und er setzt für DOOM III DX8.x Kompatibilität
voraus. Das bedeutet für mich, daß es eigentlich völlig
unerheblich ist, ob DX9 oder 9.1 denn das aufwendigste Game
des nächsten Jahres braucht es NICHT.

Es gab mal Zeiten, da kamen die GraKa-Hersteller den
Entwicklern nicht hinterher, heute ist es genau andersrum. ;-)

Desweiteren gehe ich davon aus, daß nVidias Antwort auf die
R300 diese übertreffen wird, aber zu erwarten, daß es ein
Riesenvorsprung sein würde ist IMHO unrealistisch und würde
mich sehr positiv überraschen. Zumal ich auch noch davon
ausgehe, daß der NV30 (wie er z.Z. geplant ist) erst nächstes
Jahr in den Handel gelangen wird.

Gruß

Crushinator
2002-07-29, 02:20:45
Originally posted by Salvee
Ich les' hier ständig, dass nV in der XBox2 zu finden sein wird.
Gibts dafür Quellen ???

Es wäre logisch, wenn der Nachfolger abwärtskompatibel wäre
und das wäre er ohne den NV-Chip nicht, zumindest nicht so
gut wie erhofft.

Gruß

Salvee
2002-07-29, 02:29:45
Originally posted by crushinator


Es wäre logisch, wenn der Nachfolger abwärtskompatibel wäre
und das wäre er ohne den NV-Chip nicht, zumindest nicht so
gut wie erhofft.

Gruß

Die Theorie mit der Abwärtskompatibilität hat was für sich, zugegeben.
Allerdings ist in der langen Historie der Konsolen die PS2 die erste abwärtskompatible Konsole, also kein MUSS für die XBox.
Nichtsdestotrotz würden mich die Quellen interessieren ;) ...

Unregistered
2002-10-27, 14:06:07
@ demirug
Das war aber eigentlich die Aufgabe der R200. Das eigentliche Spiel heist R300 gegen NV30.
---------------------------------------------------------------------
leider stimmt das so nicht ganz! der r300 sollte ein gf 4 killer werden!

das fählt weg! da die r300 ein gutes stück früher auf den markt ist, wie die nv30!
ati wirt sich dem nv30 mit dem r350 anehmen.


zum anderen richtet sich die nv30 auch nicht mehr an den gameing markt sondern her auf C-G-I,
was ich persönlich nicht glaube, aber laut quelle erst linux treiber erscheinen und erst vielspäter die für xp/2k.
nvidia sagte selbst der nv iss only higend,

stickedy
2002-10-27, 18:37:06
Dafür gibts keine Quelle, sondern ist reine Spekulation! Ich glaube nicht, das sich auch nur ein einziger NVidia-Chip in der XBOX2 finden wird. Grund: Microsoft muß massiv Kosten sparen. Bei der XBOX1 hatten Sie nicht viel zur Auswahl, da mußten Sie NVidia nehmen, allein schon damit eine technische Überlegenheit zum PC besteht (zum Launch-Termin). Bei der XBOX2 gibts dieses Problem nicht.
Ich tippe ganz stark auf CPU + Sound von VIA & Chipsatz + Grafik von ATI, CPU + Chipsatz + Sound + Grafik von VIA oder CPU + Chipsatz +Sound von VIA & Grafik von PowerVR...

BTW: IMHO wird der erste DirectX 9.1 Chip die Series5 von PowerVR

Demirug
2002-10-27, 18:56:40
Da ihr das Teil schon wieder aus der Versenkung geholt habt.

"Ich tippe ganz stark auf CPU + Sound von VIA & Chipsatz + Grafik von ATI, CPU + Chipsatz + Sound + Grafik von VIA oder CPU + Chipsatz +Sound von VIA & Grafik von PowerVR..."

VIA: CPU zu schwach, Grafik zu schwach

ATI: Grafik möglich aber ich denke mal das ATI wieder für Nintendo entwickeln wird.

PowerVR: der grosse unbekante in dem Spiel.

Mein Tip:

CPU: AMD spezialchip auf K8 (Hammer) Basis
Grafik: NVIDIA über einen Hypertransport port direkt mit der CPU verbunden
Sound und sonstiges: ? aber ebenfalls über Hypertransport mit der CPU verbunden.

"BTW: IMHO wird der erste DirectX 9.1 Chip die Series5 von PowerVR"

Es wird keine DX9.1 Chips geben weil es keine DX9.1 Runtime geben wird. Möglicherweise wird die Serie5 die 3.0 Shader von DX9 unterstützen.

stickedy
2002-10-27, 19:11:28
Wir werden sehen, ob es DirectX 9.1 gibt und welcher Grafikchip die passenden Spezifikationen haben wird...

Die CPU-Geschwindigkeit ist relativ unwichtig, grafikmäßig wissen wir nicht, was VIA in pedo hat! Das es der SavageXP nicht werden wird, sollte klar sein...

Richthofen
2002-10-28, 00:07:07
Also bevor Microsoft in der Konsole auf VIA setzt, wollen die erstmal sehen das VIA was kann.

BIS JETZT HAT VIA NICHT EINMAL GEZEIGT DAS SIE WAS KÖNNEN AUSSER VERBUGGTER HARDWARE BRINGEN.

MS ist nicht blöde. So ein Risiko gehen die garantiert nicht ein.
Ich schliesse mich Demi an und behaupte CPU von AMD und GPU wieder von Nvidia.

"
Grund: Microsoft muß massiv Kosten sparen
"

Müssen sie nicht. Das Blatt hat sich gewendet, denn es gibt mittlerweile so viele Spiele, das MS sich die Sponsorei leissten kann. Das können sie so oder so.
Wenn die X-Box2 kompatibel zur XBOX1 ist, ist die Situation sowieso eine andere.
Auch wird man Erfahrungen gemacht haben, wo man einspaaren kann.
Der Vertrag mit Nvidia wird ein anderer sein aber ich bin recht optimistisch das MS bei Nvidia bleibt. Es stünde sonst nur ATI zur Wahl, auf alle anderen wird MS nicht vertrauen. Ist denen zu riskant.

StefanV
2002-10-28, 00:21:23
Originally posted by stickedy
Dafür gibts keine Quelle, sondern ist reine Spekulation! Ich glaube nicht, das sich auch nur ein einziger NVidia-Chip in der XBOX2 finden wird. Grund: Microsoft muß massiv Kosten sparen. Bei der XBOX1 hatten Sie nicht viel zur Auswahl, da mußten Sie NVidia nehmen, allein schon damit eine technische Überlegenheit zum PC besteht (zum Launch-Termin). Bei der XBOX2 gibts dieses Problem nicht.
Ich tippe ganz stark auf CPU + Sound von VIA & Chipsatz + Grafik von ATI, CPU + Chipsatz + Sound + Grafik von VIA oder CPU + Chipsatz +Sound von VIA & Grafik von PowerVR...

BTW: IMHO wird der erste DirectX 9.1 Chip die Series5 von PowerVR

Naja, Chipsatz von VIA mag sein, aber nur, wenn sie einen ATI Core lizensieren, besser noch einen Deffered Renderer wie ihn Power VR backt.
Allerdings ist der Sound problematisch...
Da würde wohl der ALC650 Codec reichen...

Allerdings könnte man, wenn man 'ne Hammer CPU nehmen würde, fast alles per HT an die CPU 'anklatschen'...

Ich glaub eher nicht, daß es nochmal ein Intel/NV Deal wird, M$ wirds sicher so machen, wie bei der XBox1, der, der das beste angebot macht, der bekommt den Zuschlag...

StefanV
2002-10-28, 00:26:45
Originally posted by Richthofen
Also bevor Microsoft in der Konsole auf VIA setzt, wollen die erstmal sehen das VIA was kann.

BIS JETZT HAT VIA NICHT EINMAL GEZEIGT DAS SIE WAS KÖNNEN AUSSER VERBUGGTER HARDWARE BRINGEN.

Richthofen, nenne mir bitte mal ein wirkliches Problem von aktuellen VIA V-Link Chipsets??
Verbuggte Hardware bringen alle Auf den Markt, auch dein geliebtes NV hat ziehmlich verbuggte Hardware.
Aber DAS lässt sich nicht vermeiden, da für das Designen der Chips eine Software genutzt wird, die auch ihre Bugs hat!!
VIA dürfte solangsam gezeigt haben, daß sie was drauf haben!!
Und daß sie aus den probleme mit der 686B gelernt haben, steht außer zweifel...

Was ich sagen will:

Also von daher ist dein geschrieene Satz völliger schwachfug, da es keine 'unverbuggte' Chips/Software gibt!!!!!

Xmas
2002-10-28, 00:32:31
Wenn die Xbox2 zur Xbox1 kompatibel sein soll, dann wird sicher ein Teil von NVidia kommen, mindestens NB + Sound. Eine VIA CPU kommt praktisch nicht in Frage, da sie hier gegenüber AMD und Intel nichts zu bieten haben. Die VIA-Chips mögen sich ja gut kühlen lassen, aber die Leistung reicht für eine Xbox2 nicht aus.

stickedy
2002-10-28, 01:55:25
Warum? Die XBOX1 hat einen modifizierten Pentium III mit 733 MHz. Eine VIA Nehemia mit sagen wir mal 1,4 GHz würde klar schneller als der P3 sein. Außerdem ist die Hitzeentwicklung zu beachten! Bei aktuellen Pentium 4 und Athlon CPUs müßte ein Wahnsinniger Aufwand bei der Kühlung betrieben werden! Das ist ein klarer Vorteil für eine Centaur-CPU. Was natürlich noch denkbar wäre ein Intel Tualatin...
Außerdem ist die Geschwindigkeit der CPU relativ nebensächlich, das zeigt ja die aktuelle XBOX...

Die Kompatibilität wird ja durch die Verwendung von DirectX gewährleistet: Alle für die XBOX2 in Frage kommenden Grafikcores werden die Funktionen des NV2X besitzen.

Demirug
2002-10-28, 07:13:37
Originally posted by stickedy
Warum? Die XBOX1 hat einen modifizierten Pentium III mit 733 MHz. Eine VIA Nehemia mit sagen wir mal 1,4 GHz würde klar schneller als der P3 sein. Außerdem ist die Hitzeentwicklung zu beachten! Bei aktuellen Pentium 4 und Athlon CPUs müßte ein Wahnsinniger Aufwand bei der Kühlung betrieben werden! Das ist ein klarer Vorteil für eine Centaur-CPU. Was natürlich noch denkbar wäre ein Intel Tualatin...
Außerdem ist die Geschwindigkeit der CPU relativ nebensächlich, das zeigt ja die aktuelle XBOX...

Mehr CPU Power ermöglicht mehr freiheit beim Programmieren. Es geht ja auch nicht darum die XBox zu schlagen sondern die nextgen Produkte der Mitbewerber. Zudem würde sich eine 64 bit CPU marketingtechnisch gut machen.

Die Kompatibilität wird ja durch die Verwendung von DirectX gewährleistet: Alle für die XBOX2 in Frage kommenden Grafikcores werden die Funktionen des NV2X besitzen.

Das geht so nicht. Das "DirectX" der XBox hat nur die API mit der PC Version gemeinsam und selbst da gibt es unterschiede. Die ganze Runtime ist speziel auf die Hardware zugeschnitten. Die Runtime befindet sich aber nun nicht im BIOS sonder mit auf der Spiele CD. Das heist damit die XBox2 XBox1 spiele laufen lassen kann muss ein grosses mass an Hardwarekompatibilität gewährleistet sein. Das könnte unter umständen für jemand anderes als NVIDIA schwer werden.

zeckensack
2002-10-28, 07:28:16
Originally posted by stickedy
Warum? Die XBOX1 hat einen modifizierten Pentium III mit 733 MHz. Eine VIA Nehemia mit sagen wir mal 1,4 GHz würde klar schneller als der P3 sein. Außerdem ist die Hitzeentwicklung zu beachten! Bei aktuellen Pentium 4 und Athlon CPUs müßte ein Wahnsinniger Aufwand bei der Kühlung betrieben werden! Das ist ein klarer Vorteil für eine Centaur-CPU. Was natürlich noch denkbar wäre ein Intel Tualatin...
Außerdem ist die Geschwindigkeit der CPU relativ nebensächlich, das zeigt ja die aktuelle XBOX...

Die Kompatibilität wird ja durch die Verwendung von DirectX gewährleistet: Alle für die XBOX2 in Frage kommenden Grafikcores werden die Funktionen des NV2X besitzen. VIA will den Nehemia 1,4 aber sicher nicht massenhaft loswerden.

Sowas macht man mit Chips, die man anderweitig nicht mehr loswird ("Boss, unser Yield ist scheiße, wir müssen wieder eine Konsole bauen!").
Die einzigen Kandidaten für sowas sind nunmal Hersteller mit riesigen Produktions(über-)kapazitäten, und da macht Intel wirklich niemand was vor *eg*

Schon garnicht VIA ...
Wenn AMD irgendwann mal ein paar hunderttausend K8 auf Halde liegen hat, die taktmäßig leider nicht schnell genug laufen, um auf dem Retailmarkt zu bestehen, dann sind die auch in der Position für einen Konsolendeal.

Nur wie gesagt (ich schreib's immer wieder gern), wenn's um veralteten Schrott in rauhen Mengen geht, dann nimmt man halt Intel.

Unregistered
2002-10-28, 11:08:02
ich bin mir ziemlich sicher, dass VIA den Nehemiah massenhaft loswerden möchte. Dank der Die-Größe von ca. 55 mm² ist die Produktion ja ziemlich günstig...
Jedenfalls kann Microsoft keine >= 2 GHz CPU in eine Spielkonsole bauen, es sei denn, man vermarktet sie zusätzlich als Heizofen...

Unregistered
2002-10-28, 12:32:44
Warum?
Bis es eine x-Box2 gibt werden 2 GHZ CPUs in 0.09 gefertigt.
Mit nem gescheiten passiven Kühlkörper kein Problem.

Mein Alpha PAL8045 hat meinen XP2000+ passiv kühlen können.
Bis es die x-Box2 gibt sind 2 GHZ lachhaft.
Die werden wohl kaum auf VIA setzen.
VIA ist bei CPUs ne Lachnummer. So ein Risiko geht MS niemals ein.

StefanV
2002-10-28, 12:36:19
Originally posted by Demirug
Das geht so nicht. Das "DirectX" der XBox hat nur die API mit der PC Version gemeinsam und selbst da gibt es unterschiede. Die ganze Runtime ist speziel auf die Hardware zugeschnitten. Die Runtime befindet sich aber nun nicht im BIOS sonder mit auf der Spiele CD. Das heist damit die XBox2 XBox1 spiele laufen lassen kann muss ein grosses mass an Hardwarekompatibilität gewährleistet sein. Das könnte unter umständen für jemand anderes als NVIDIA schwer werden.

Man könnte ja eine ähnliche Grätsche hinlegen, wie es So-nie mit der PS2 gemacht hat ;)

Demirug
2002-10-30, 15:04:25
Originally posted by Stefan Payne


Man könnte ja eine ähnliche Grätsche hinlegen, wie es So-nie mit der PS2 gemacht hat ;)

Im Prinzip ja. Nur warum sollte MS für 2 Grafikchips bezahlen?

Unregistered
2002-10-30, 15:26:41
zumal das Beste vom Besten wohl wieder aus dem Hause NV kommen wird :)
Die 2 werden das schon schaukeln.
Bis dahin überlegen die anderen was sie machen können, damit MS nicht eine Spielebude nach der anderen kauft oder besticht.

Pussycat
2002-10-30, 19:40:26
Richthoven (nehme mal an das du das bist), findest du es sogar gut wie MS alle erpresst?

Richthofen
2002-10-30, 21:15:03
warum erpresst.
Sie ziehen halt alle Register und setzen ihr Geld ein, damit mehr auf Ihrer Seite sind.

Ich nenne das Kaufen aber nicht erpressen.
MS hat halt genügend Geld um sich langfristig solche Spielerein zu leisten. Ich sehe darin nix schlimmes. Sie nutzen ihre starke Marktposition um ihre Produkte in gewissen Feldern zu pushen und zu Marktführern zu machen.
Hinzu kommt eben noch bekannte PC Nähe, guten Developer Support durch Nvidia und schnelle Umsetzung durch DirectX auf eben beide Plattformen.
Das ist halt Nintendo's und Sony's Nachteil langfristig.
Wenn die das nicht verhindern können, dann waren sie nicht gut genug - period.

Iceman346
2002-10-30, 22:56:51
Nur das es momentan nicht so rosig aussieht für Microsoft. Gegen die PS2 Verkäufe sind die X-Box und GC Verkäufe sowieso nen Witz und hinter dem GC liegt der Kasten auch überall...

Richthofen
2002-10-30, 23:10:03
Die PS2 wird auch schon viel länger verkauft. Aber irgendwann ist halt Ende der Fadenstange. Dann ist das Produkt zu alt und nicht mehr leistungsfähig genug für vernünftige anspruchsvolle Spiele.

Die PS2 hat ihren Zenit schon erreicht. Alles was jetzt kommt, kann nur noch abwärts gehen.
Es interessiert doch wirklich keine Sau wieviel nun im Monat Consolen abgesetzt werden.
Das Geschäft ist langfristig. Die Zeit spielt gegen Sony und Nintendo weil MS es sich leisten wird eine Elitebude nach der anderen einfach zu kaufen oder finanziell ein wenig unter die Arme zu greifen.
Die kleineren Buden werden früher oder später sowieso für x-box entwickeln. Da winkt ihnen mit wenig Aufwand ein nettes Geschäft + eben die Möglichkeit den PC Markt auch noch mitzunehmen.
Ist der Herdentrieb ersteinmal im Gange, dann rennen alle mit wie an der Börse.
Läuft doch immer so.

StefanV
2002-10-30, 23:16:24
@Richthofen

Du scheinst zu vergessen, daß M$ eine AG ist, außerdem verursacht die XBox sehr hohe Kosten.

Es wäre denkbar, daß die Aktionäre auf der Hauptversammlung die Bremse ziehen, da zuviel Geld für zuwenig Resultate ausgegeben wurde.

Aktionäre sind keine Freaks, die wollen nur Geld sehen, mehr nicht und wenn das Ausbleibt, dann sind sie nicht so glücklich!!

Im Falle der XBOX wurde schon sehr viel Geld verschwendet, jeder 'normaldenkende' Mensch wird sich eher zwischen GC und PS2 entscheiden, mit klaren Tendenzen zur PS2, da die PS2 'out of the Box' ein DVD Player ist!!

Außerdem werden viele im Bekanntenkreis eine PSX oder auch eine PS2 haben, was auch einen Kaufanreiz gibt, warum dürfte klar sein (ey, ALder, kann ich mal dieses Game mitnehmen??), oder??

Die wenigsten werden sich 'ne XBox holen, eben weil die PSX/PS2 eine so große Martverbreitung hat.

Der Rest kauft sich 'nen Gamecube 'für die Kinder'...

Exxtreme
2002-10-30, 23:25:48
@ Richthofen

Naja, die XBOX hat Micros~1 doch einiges an Geld gekostet. Die haben bis jetzt keinen Cent damit verdient. Auch sind viele Entwicklungsstudios im Nachhinein wieder abgesprungen. Mag schon sein, daß Micros~1 einige Entwicklungsstudios kaufen oder finanziell "ermuntern" kann für die XBOX zu entwickeln. Die Frage bleibt, ob es reicht? Einkäufe lassen auch wieder ein Loch in der Kasse von MS entstehen. Der Einzige, der an der XBOX verdient hat ist wahrscheinlich nVidia.

Die XBOX ist nicht der Geldbringer, den sich MS erhofft hat. Sie ist teuer, laut, kann sich von der Konkurrenz HW-mässig nicht absetzen usw.

Und da MS pro verkaufte XBOX draufzahlt und seit neuesten Linux darauf läuft, könnte sich die XBOX noch zu einen grösseren Verlusstbringer entwickeln. Tja, ein von MS subventionierter Firewall-Router ist was Feines.
:)

Iceman346
2002-10-31, 00:06:36
Originally posted by Richthofen
Es interessiert doch wirklich keine Sau wieviel nun im Monat Consolen abgesetzt werden.

Doch, die Spieleentwickler. Warum für eine Konsole Entwickeln wo das Spiel vielleicht 50 000 Einheiten verkauft wenn man es für eine entwickeln kann auf der es 500 000 Einheiten oder mehr verkaufen kann.

Höhnangst
2002-10-31, 01:55:57
Für alle Interessierten und die, die es vielleicht noch nicht kannten, hab ich (nach den ganzen Spekulationen hier ;)) mal ein paar Fakten und Infos zusammengesucht. Einige sind aber schon älter und deswegen nicht mehr unbedingt aktuell:

1.) Xbox: Milliardenverlust für Microsoft, neue Variante geplant (http://www.onlinekosten.de/news/artikel.php3?id=9263) (Mittwoch, den 26.06.02 12:20)

2.) Microsoft stellt im August neue Xbox vor (http://www.onlinekosten.de/news/artikel.php3?id=9312) (Dienstag, den 02.07.02 12:50)

3.) Xbox verkauft sich nach der Preissenkung prächtig (http://www.onlinekosten.de/news/artikel.php3?id=9487) (Dienstag, den 23.07.02 16:15)

4.) NVIDIA und Microsoft arbeiten an Xbox II (http://www.onlinekosten.de/news/artikel.php3?id=9471) (Montag, den 22.07.02 13:26)

5.) Sony erwartet großes Interesse an Online-Konsolenspielen (http://www.onlinekosten.de/news/artikel.php3?id=9728) (Freitag, den 16.08.02 14:08)

Unregistered
2002-10-31, 09:24:01
nach den letzten Quartalszahlen zu urteilen hat sich bei MS das Blatt drastisch gewendet.
Sieht mir nicht mehr danach aus als würde da nur riesen Verluste gemacht. Mit jeder Woche wirds für MS besser und für die anderen zumindest Sony schlechter.

Du kannst noch so viele PS2s verkauft haben, irgendwann ist so ein Teil veraltet und die Spiele nicht mehr so gut wie auf neuerer Hardware. Dann ist das Geschäft rückläufig.
X-Box und Gamecube stehen erst am Anfang und die Kosten für die X-Box hat MS drastisch gedrückt.
Abstriche wird Nvidia sicher in Kauf genommen haben, und nicht zhu vegessen Flextronic. Die schreiben riesen Verluste und damit sind sie als Auftragsfertiger gut angreifbar bzw leicht unter Druck zu setzen.
Ich denke MS wird hier auch gespaart haben.

DATA_OK
2002-10-31, 10:00:31
@Unregisterd:
1. MS schreibt auch jetzt noch mit jeder XboX mehr als genug Verluste.
2. Die Zeit spielt wohl eindeutig FÜR Sony: da diese die weit aus größere installierte Basis haben und damit z.B. jetzt im Weihnachtsgeschäft weit aus mehr Spiele verkaufen. Und damit wird das Geld verdient, nicht mit der Hardware.

weitermachen

DATA

Unregistered
2002-10-31, 11:08:09
Die Zeit spielt nicht für Sony. Der Spieleverkauf kann nur noch rückläufig werden weil die PS2 ihren Zenit überschritten hat.
Das Teil ist veraltet und mit jedem Monat werden die anderen 2 neue und modernere Spiele bekommen.

StefanV2
2002-10-31, 11:36:40
Originally posted by Unregistered
Die Zeit spielt nicht für Sony. Der Spieleverkauf kann nur noch rückläufig werden weil die PS2 ihren Zenit überschritten hat.
Das Teil ist veraltet und mit jedem Monat werden die anderen 2 neue und modernere Spiele bekommen.

Was für erschlagende Argumente...

Welche Konsole die Fortschrittlichere ist hat nie jemanden interessiert, siehe auch Dreamcast vs PSX oder N64 vs PSX, die PSX war die erfolgreichere, obwohl die Dreamcast die bessere war.

Das einzige, was interessiert sind die vorhandenen Spiele und danach kauft man sich eine Konsole!!

Zum Beispiel kauft man sich eine PS2, weil man auf Final Fantasy steht oder einen Gamecube, weil man Mario mag.

Weshalb soll man jetzt eine XBox kaufen?
Damit man PC ähnliche Games auf dem Fernseher spielen kann??

Die XBOX hat einige gewaltige Probleme, die Sonie und Nintendo nicht haben.

Also für die XBox sehe ich keine rosige Zukunft!!

Sony konnte Nintendo besiegen, weil Nintendo harte Lizensvorschriften hatte und das N64 eine klassische Cartrige Konsole ist und Sony eine CD-ROM Konsole hatte.
Wie jeder weiß sind CDs günstiger in der Herstellung als Cartriges...

Quasar
2002-10-31, 12:25:50
...und leichter zu kopieren sind.

Ohne Raubkopien wären weder Sony noch MS in der Position, in der sie heute sind.

Ailuros
2002-10-31, 12:52:18
Darf ich mir auch eine kleine "Armchair-Analyze" bzw. Spekulation erlauben? :D

a) Ohne Zweifel hat ATI momentan im budget/mainstream und high end nicht nur die technisch besseren sondern auch um so einiges schnellere Angebote in der kompletten 9xxx Linie. Ich selber haette den Vorsprung zwischen R200 und R300, mir nicht erdenken koennen und dabei ist es mir auch gleichgueltig ob der letztere jetzt Multisampling, Z-Kompression, memory controller oder was auch immer dafuer benutzt um die weitaus impressiven Zahlen zu erziehlen: das End-Resultat ist imposant! Also kudos fuer ATI denn sie haben endlich mal zweifellos bewiesen dass sie es auch koennen, wenn sie nur moechten.

b) Ich nehme mal an dass NV30 entweder gleich so schnell wie R300 oder um die 20-25% schneller (um es so konservativ wie moeglich zu halten). Wobei mir hoehere Spezifikation vorruebergehend mal schnuppe sind (mir waren die PS1.1 zu PS1.4 Differenzen uebrigens genause egal), da wenn jenige chips erstmal fuer wahre dx9 Applikationen eingesetzt werden deren Fuellrate/Bandbreite sowieso zu mangelhaft sein wird - zu dem noch wie weit wir erstmal von dx8 Applikationen sind (nicht zu sprechen von dx9 pah).

Alle bisherige Andeutungen zeigen dass NV diesmal auf hohe Effizienz deren Pipelines anpeilt; wie sich dass dann fuer heutige Spiele/Anwendungen auspraegen wird will ich dann wohl lieber abwarten.

c) NV hat mit .13um so einiges riskiert; der langfristigere Gewinn kommt dann eventuell nicht nur vom high end sondern von allen Markt-Spalten. Obwohl ich wirklich keine Ahnung habe was NV31 darstellen koennte, kann ich mit Leichtheit spekulieren was NV25/8 durch einen die shrink ie hoehere Taktraten und vielleicht schnellere Speicher (wenn's cost-effektiv ist) ergeben koennte. Wenn natuerlich NV vorhat den doofen und durchaus antiken NV1x Design weiter aufzuputschen dann ist es natuerlich eine ganz andere Geschichte. Aber wenn es dann etwa so aussehen wird bis zum naechsten Fruehling:

R9700/PRO---> NV30
R9500/PRO---> NV31 (???)
R9000/PRO---> (NV28 auf .13um) ???

da sieht's meiner Meinung nach nichtmal so schlecht aus fuer NV. Ich bezweifle dass NV nur weil eine Generation um so einiges verspaetet war/ist, es vorhat sich umzudrehen und selbst begraben. So manche Firmen fuehlten sich nicht allzu wohl als sie die Renderfarms im Anand "inside" Artikel sahen, und genau dass war der Zweck des Artikels; NV investiert und dazu hoellisch hohe Summen.

d) Was positiv an der ganzen Geschichte sein kann ist die Moeglichkeit dass NV so einigen Markt-Anteil an ATI verliert, selbst wenn die Zeitspanne fuer ATI nicht allzu gross sein wird. Selbst 5-10% an Marktanteil ist ein gigantischer Gewinn fuer jede Firma, immer noch mehr fuer ATI das sie wirklich nicht soo weit von NV entfernt ist was Marktanteil betrifft. Ergo eine grosse Wahrscheinlichkeit dass wir Endverbraucher billigere und mit hoeherer Frequenz Preis/Performance Leistungen wie beim Ti4200/R9500PRO sehen werden.

e) SLI bei NV? Obwohl mann theoretisch multichip Varianten fuer den Profi-Markt (siehe Quadro-wasimmer) nicht ausschliessen kann, sind multichip Konfigurationen immer noch zu teuer und nicht Kosten-effektiv. Und wenn schon warum SLI um Gottes Willen? Schon mal auf die Idee gekommen dass es idiotisch ist triangle setup nicht ueber die chips verteilen zu koennen?

f) PowerVR? Erst mal abwarten und Tee trinken.

Konsolen: Wenn Microsoft sich immer noch nicht entschieden hat was den Xbox Nachfolger betrifft (wenn sie einen solchen auch wirklich geplant haben) und PVR glaubt dass sie Chancen dafuer haben, dann will ich wohl hoffen dass sie vom Gigapixel/Microsoft Fiasko etwas dazugelernt haben.

PDA/mobile: Schon ein sehr gesunder Vorsprung mit einer sehr guten Anzahl und Lizenzen was MBX betrifft, was sehr gut auch fuer zukuenftige Moeglichkeiten aussieht.

PC graphics: Uhmmm ja...Zuviele Bedingungen. Wenn etwas zur rechten Zeit herauskommt, dann werden sehr wenige etwas ueber Spezifikationen zum meckern haben, was Performance betrifft *Denkblase*...jemand der ein bisschen Erfahrung mit Tilern hat, weiss dann auch dass man sehr schlecht darueber Voraussehungen machen kann. Nichtsdestominder haben IMR's umso einige Vorteile von TBR's schon abgeschnitten, was wohl nicht heisst dass TBR's selbst heute noch ohne Vorteile (oder auch Nachteile) dastehen, aber was wichtig ist fuer den Verbraucher ist dann ob sich eine Investition in einen high end Tiler sich auch wirklich lohnt. Fuer mich persoenlich dann als FSAA/aniso freak vielleicht schon, aber das muss nicht unbedingt dann auch fuer die restlichen Verbraucher genauso sein.

Ach ja Fanboism spielt wohl auch noch ne Rolle hier :D

Was immer sich besser ausspielt. Ich plane fuer eine generelle Aufruestung naechsten Fruehling, momentan steht bei mir R300 hoch auf der Liste und NV30 mit einem grossen Fragezeichen ;)

StefanV
2002-10-31, 15:02:37
Originally posted by Quasar
...und leichter zu kopieren sind.

Ohne Raubkopien wären weder Sony noch MS in der Position, in der sie heute sind.

Korrekt, das ist ein weiterer Punkt für die Verbreitung einer Konsole.

Allerdings wundere ich mich doch sehr, daß die Dreamcast nicht so weit verbreitet ist, denn SEGA hatte nur einen Stümperhaften Kopierschutz eingebaut...

Exxtreme
2002-10-31, 15:14:15
Originally posted by Stefan Payne
Allerdings wundere ich mich doch sehr, daß die Dreamcast nicht so weit verbreitet ist, denn SEGA hatte nur einen Stümperhaften Kopierschutz eingebaut...
Naja, Sony hat schon 2 Jahre vor'm Erscheinen der PS2 Propaganda betrieben. Ich erinnere mich noch an eine Meldung in der es hiess, daß die PS2 wegen angeblich zu hoher Rechenleistung unter ein Rüstungsexport-Verbot fällt, da man angeblich mit der PS2 Steuerungssysteme für Lenkraketen bauen könnte. Diese Meldung kam aber auch zufällig kurz vor dem DC-Launch.

AlfredENeumann
2002-10-31, 16:56:51
Originally posted by Stefan Payne


Korrekt, das ist ein weiterer Punkt für die Verbreitung einer Konsole.

Allerdings wundere ich mich doch sehr, daß die Dreamcast nicht so weit verbreitet ist, denn SEGA hatte nur einen Stümperhaften Kopierschutz eingebaut...

Man hätte aber schwer zu bekommene Rohlinge benutzen müssen.

StefanV
2002-10-31, 19:29:26
Originally posted by AlfredENeumann
Man hätte aber schwer zu bekommene Rohlinge benutzen müssen.

Kann ich nicht bestätigen ;)

Heutzutage legt man einfach DC GD ein, kopiert die, fertig.

Die 1GB 'GD-ROMs' wurden gecrackt und auf 2 CDs verteilt...

Wobei die DC mir von den Konsolen, die ich hab, am besten Gefällt, was auch an dem fantastischen Pad liegt.

Das N64 PAD ist irgendwie billig Schrott, IMHO, das Sonie Pad liegt nicht wirklich gut in der Hand.