PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce4 --> Gibt die Kuh noch mehr Milch?


Kai
2002-05-18, 18:35:09
Hmm,

Mir kam da nur so ein Gedanke. Ist sicher schon mehrmals von anderen Leuten gedacht worden, aber ich wollte es nur mal zur Diskussion stellen.

Beim GF3-Release gab es doch damals die Ur-GF3, worauf erst viel später die TI500 und TI200-Varianten folgten (welche die Ur-Geforce3 komplett ablösten).

Bisher hielt es nVidia doch immer so ... nur mit der GF4 wurde direkt für jeden Geldbeutel die entsprechende Hardware vermarktet. TI4200, 4400, 4600.

Warum nehmen wir deshalb eigentlich an, das auf die TI4600 jetzt gleich der NV30 folgen soll? Könnte doch sein das man die Die-Grösse nochmal schnell auf 0.13 Micron schrumpft - und dann weitere GF4-Varianten wie z.Bleistift 4800 oder 5000 auf den Markt schmeisst. Wäre IMO logischer als gleich den NV30 auszuwerfen, oder?

Demirug
2002-05-18, 18:44:20
Also das im Herbst der NV30 kommt dürfte als ziemlich gesichert gelten. NVidia muß einfach etwas gegen den R300 setzten.

Wenn man sich nun die Leistungs kurven bisheriger GeForce Chips im Verhältnis zum GF4 ansieht hats du aber recht. Die TI4600 weicht von der normalen Vorgehensweise ab. Ob ein Die shrinkt allerdings reicht um aus der GF4 noch mehr rauszuholen kann bezweifelt werden. Die RAM-Bausteine der TI4600 sind schon ziemlich highend und nur den Chiptakt anzuheben reicht einfach nicht.

Unreal Soldier
2002-05-18, 18:45:01
Das wäre eine sehr gute Idee, denn mit dem Die-Shrink könnte die GPUs noch weitergetaktet werden, aber da wäre noch das Speicherproblem. 2ns RAMmodule sind extremteuer und deshalb könnte man die nicht mehr weitertakten um einen Preis von 500€ zu bekommen. Solche eine Karte würde durchaus über 600€ und würde heute soviel ausgeben???
Da wäre noch die Konkurenz, die würden mit ihren DX9 voll werben und so die Kundschaft vo Nvidia wegnehmen. Deshalb ist logischer gleich auf NV30 zu gehen. Der könnte besser mit der KOnkurenz mitmachen.

MFG
Unreal Soldier

Kai
2002-05-18, 19:17:03
Stimmt eigentlich. Wenn man dann 600 € für ne TI5000 veranschlagt, besteht ja dann immernoch die eigene NV30-Konkurrenz. Wenn ATI nämlich mit dem R300 im 500 € Preissegment platz nimmt, müsste nVidia sich dumme Fragen gefallen lassen.

jedi
2002-05-18, 19:34:40
Originally posted by Kai
Warum nehmen wir deshalb eigentlich an, das auf die TI4600 jetzt gleich der NV30 folgen soll? Könnte doch sein das man die Die-Grösse nochmal schnell auf 0.13 Micron schrumpft - und dann weitere GF4-Varianten wie z.Bleistift 4800 oder 5000 auf den Markt schmeisst. Wäre IMO logischer als gleich den NV30 auszuwerfen, oder?

Möglich wäre auch, dass sie beides machen und damit alle Preissegmente abdecken. Das haben sie ja schliesslich beim GF4MX und GF4Ti auch schon gemacht. ATI übrigens auch (mit dem 7500 und dem 8500).

Salvee
2002-05-18, 19:39:55
Ein Die-Shrink würde auch ohne erhöhte Taktfrequenz für mehr Milch sorgen, weil die Chippreise sinken.

Demirug
2002-05-18, 19:43:25
Was mir da gerade noch einfällt. NVidia braucht wenn sie ihere DX9 Karte einführen auch wieder was für den Consumer Bereich. Ob da die DX7 Schiene die sie im Moment fahren noch gut genung ist kann man bezweifeln. Die Chancen für eine Die shrink GF3 oder GF4 sind also nicht schlecht. Aber die Karten werden wohl nicht schneller als eine TI4600 sein.

aths
2002-05-18, 19:55:46
Kirk sagte mal was, die GF4-Linie sei die Linie für 2002. Das impliziert, dass wir den NV30 nicht 2002 sehen werden. Ich erwarte im Herbst NV18 und NV20 mit Ti4800, sowie einen kompletten GF4-"Refresh" auf 0.13 µm.

Gohan
2002-05-18, 20:52:31
Originally posted by Kai
Stimmt eigentlich. Wenn man dann 600 € für ne TI5000 veranschlagt, besteht ja dann immernoch die eigene NV30-Konkurrenz. Wenn ATI nämlich mit dem R300 im 500 € Preissegment platz nimmt, müsste nVidia sich dumme Fragen gefallen lassen.

Und dann gibt es das Problem das Matrox Karten genau so viel Kosten KÖNNTEN und trotzdem schneller sind ...

n Vidia muss sich was einfallen lassen. Nur noch mehzr Takt bringt es nicht, der Gewinn an Leistung wäre zu gering im verhältniss zum Preis.

mapel110
2002-05-18, 21:12:15
ich kann mir nicht vorstellen, dass nvidia keinen dx9 chip dieses jahr rausbringt.
zumal andere hersteller in den startlöchern stehen. der parhelia hat immerhin schon teile von dx9 und ist somit etwas zukunftssicherer als eine geforce4 mit hohem takt.
nvidia muss denke ich im highend-bereich noch eins drauflegen.

Richthofen
2002-05-18, 21:41:43
Ich denke das der NV30 noch dieses Jahr kommt.
Allerdings wird Nvidia in jedem Fall die gesamte GF4 Ti Reihe auf 0.13 umstellen.
Die MX wird früher oder später auslaufen zumindest die 440er und 460er.
Die 420er wird denk ich als absolut Low Cost Ersatz zur TNT2 M64 bleiben.
Eine höher getaktete GF4 liegt bei Nvidia sicher in der Schublade, aber die wirds nur geben wenn ein Anlaß dazu besteht.
Da wird man erstmal schauen ob ATI bis zum R300 noch etwas bringt.

Wegen Matrox wird man nicht in Hektik verfallen. Eine GF4 höher getaktet wird für den Matrox Chip nicht reichen und macht daher auch keinen Sinn. Matrox hat sowieso nicht viel Zeit groß zu werben und zu verkaufen. Das Zeitfenster ist extrem eng, da kann man sich auch mal leisten 3 Monate zurückzuliegen. Deswegen wird am OEM Markt wo man das Geld verdient nüscht passieren. Matrox kann die Entwicklung eh nicht mitgehen, das weiss Nvidia und das weiss auch ATI.
Nach dem Parhelia wird wieder ne gange Weile Ruhe sein bei Matrox von daher orientiert sich NV wohl eher an den Big Playern und da gibts nur einen - ATI.
3DLabs ist noch Zukunft und da muss sich auch erst herausstellen wie gut das Konzept ist und wie einfach es für Entwickler sein wird diesen Chip zu nutzen. Wenns kompliziert wird, dann wird er keine Rolle spielen da 3dlabs 0 Verbreitung am relevanten Consumer Markt hat.

mapel110
2002-05-19, 00:39:23
nvidia wird nicht ewig herrschen. du stellst das so hin, als sei die situation genauso wie bei microsoft und ihrer stellung.
wenn es leistungsfähigere chips gibt, die nicht von nvidia kommen, dann werden auch board-hersteller diese chips verbauen.
siehe hercules mit ati- und kyro-technik. die waren von der leistung überzeugt und haben gewechselt.

Demirug
2002-05-19, 00:50:17
Originally posted by mapel110
nvidia wird nicht ewig herrschen. du stellst das so hin, als sei die situation genauso wie bei microsoft und ihrer stellung.
wenn es leistungsfähigere chips gibt, die nicht von nvidia kommen, dann werden auch board-hersteller diese chips verbauen.
siehe hercules mit ati- und kyro-technik. die waren von der leistung überzeugt und haben gewechselt.

Ich glaube hier hat niemand behauptet das NVidia für immer herrschen wird. Gerade die vielen 3dfx Leute die bei ihnen rumlaufen sorgen schon dafür das man sich dieser Tatsache auch dort bewust ist.

Und du hast ja selbst gesagt das du davon ausgehst das der DX9-Chip (wahrscheinlich NV30) noch diese Jahr kommt. Ob er denn R300 schlagen kann muss sich erst noch zeigen.

StefanV
2002-05-19, 00:58:03
Originally posted by mapel110
nvidia wird nicht ewig herrschen. du stellst das so hin, als sei die situation genauso wie bei microsoft und ihrer stellung.
wenn es leistungsfähigere chips gibt, die nicht von nvidia kommen, dann werden auch board-hersteller diese chips verbauen.
siehe hercules mit ati- und kyro-technik. die waren von der leistung überzeugt und haben gewechselt.

Und haben eine Nische gesehen und haben zugeschlagen ;)

Ich behaupte mal, daß Hercules an der 4500 recht gut verdient hat, da die meisten Kyro User die Hercules und nicht die VDO haben...

Mag wohl auch an der 'geistigen Nähe' zu ST Micro, PowerVR (ImgTec) und ST Micro gelegen haben...

Denn alles sind EU Unternehmen ;)

Ikon
2002-05-19, 05:39:47
Jaaaa EU ruuulz ...

Aber mal im Ernst:
Auch wenn NV nicht für immer den GraChip-Markt beherrschen wird, was ich sehr hoffe, dann bin ich mir trotzdem sicher, dass die sich nicht so leicht unterkriegen lassen. Momentan ist die GF4 top (an Matrox-Fans: Parhelia gibbet noch nit zu kaufen), und solange alles läuft, werden die auch nicht mehr machen als nötig. Und wenns wirklich nötig wird, dann stehen die mit dem NV30 sofort auf der Matte. Wird halt dann nicht eben billig (vor allem für uns Consumer).

Razor
2002-05-19, 09:16:01
Also 'ne aufgemotzte ti4600 halt ich für ziemlich unrealistisch...

Könnte gut sein, daß folgende Specs ganz gut zutrffen könnten, denn sie wäre der Marktsituation (Konkurenzprodukte !) angemessen:
NV30
In 3rd or 4th Quarter 2002

- 0.13 micron process
- 400MHz GPU
- 512-bit chip structure
- AGP 8X
- 8 rendering pipelines
- Supports 128-256MB of DDR SDRAM
- 900MHz DDR SDRAM
- Lightspeed Memory Architecture III
- Supports DirectX 9 and OpenGL 1.3

NV35
In 1st Half 2003

- 0.13 micron process
- 500MHz GPU
- 512-bit chip structure
- AGP 8X
- 8 rendering pipelines
- Supports 128-256MB of DDR SDRAM
- 1000-1200MHz DDR or QDR
- Lightspeed Memory Architecture III
- Supports DirectX 9.1 and OpenGL 2.0
Und nun fröhliches Weiterspekulieren !
:D

Bis denne

Razor

Haarmann
2002-05-19, 09:21:16
Es war einmal...

Ein grosser mächtiger Prozessorhersteller... Der hatte mal 95% Marktanteil und immer den schnellsten Chip. Dann kam ein kleiner Hersteller mit einem guten Chip raus. Alle Anhänger der mächtigen Firma sagten, dass der sicher noch zig suuuper Chips in der Schublade hat.
Tja... Heute gibts 2 grosse Chiphersteller mit ca 70% zu 30%... Auch bekannt unter AMD und Intel. Aber diesen Wunderchip den Intel ja hat, den hat noch keiner gesehen oder?

Und genau diesen Chip solls nun wieder vom grossen Grafikchiphersteller geben...
Und was ist wohl wahrscheinlicher?

Es gibt keine Wunder und so wie Matrox ne ganze Weile sich verspekuliert hat, genau so können sich andere verspekulieren. S3 tats... 3dfx tats... Intel tats... und mitm NV1 - tats NV auch schon. Wer seine Produkte 2 Jahre vorher planen muss, der weiss selten was die Konkurrenz in 2 Jahren haben wird. Vor allem nicht, wenn diese Konkurrenz, vor eben diesen 2 Jahren, eigentlich gar keine ist... Da kann schon mal ein Fehler passieren. Vor 2 Jahren wusste niemand wie ATI die ArtX Leute einsetzen wird... Heute wissen wir, dass die zusammen geblieben sind und ATI nun einfach 2 Teams hat und nicht mehr nur eines.

Es könnte schon sein, dass der NV30 erst kommt, wenn DX9 da ist - das ist aber wohl erst 2003 der Fall. Auch steht in den Sternen, wenn ATI den R300 releasen will. Wohl auch erst wenn DX9 festgelegt ist.

Kais Variante mit ner weiteren GF4+ Auflage im Herbst ist durchaus denkbar. Ist nur logische Produktepflege, aber die GF4 MX wird dann wohl komplett dem NV18 weichen. ATI bringt auch vorerst nur ne RV250. Was auch immer dieser Chip sein wird.

Exxtreme
2002-05-19, 09:26:28
Vor Allem die R300 könnte sich als eine schwer zu knackende Nuss erweisen. Die ArtX-Leute habe 2 Jahre lang an diesem Chip gearbeitet. Die R100 und die R200 stammen noch vom alten ATi-Team. Und daß die ArtX-Leute was draufhaben, sieht man am Flipper des Gamecube.

Gruß
Alex

Razor
2002-05-19, 09:36:48
Tja Haarmann,

so ganz stimme ich Dir da nicht zu...

Schon vergessen ?

- alle 18 Monate ein neuer Chip (früher hatte ich 24 angenommen)
- nach weiteren 6 Monaten einen Refresh
- nach wieder weiteren 6 Monaten ein Performance-Update

Nun ja, mit der gf3 hat's da eine kleine Irregularität gegeben, was gut auf das Beitreten der 3dfx-Leute zurück zu führen sein könnte, vor allem aber auch die Marktsituation, also die zuzsätzliche Konkurrenz durch SiS, Matrox und Creative...

Also:
- tnt -> tnt2 -> tnt2ultra/pro/m64 etc
- gf1 -> gf2gts -> gf2ultra/pro/ti
- gf3 -> gf3ti -> gf4mx/ti
Insofern sind sie absolut im Zeitplan und müssten jetzt im Herbst einen neuen Chip bringen (sont würden sie tatsächlich hinterher hinken ;-). Mit der gf3-Reihe haben sie getrixt und damit auf die Marktsituation reagiert. Mit der gf4-Reihe werden sie den Markt egalisieren und alles andere raus schmeißen, was sich vor der gf4-Reihe befunden hat und der neue HighEnd Chip (NV30) wird kommen, wenn es notwendig wird und andere (ATI, Matrox, Creative) in den Startlöchern stehen. SiS ist keine erstzunehmende Konkurrenz, Matrox und Creative werden noch 'ein wenig' auf sich warten lassen und der RV250 wird den Kohl auch nicht fett machen können und vermutlich nicht einmal an die gf4ti-Klasse heran kommen. Insofern hat nVidia momentan noch genügend Zeit, um an ihrer neuen HighEnd-Waffe herumzuschrauben und ihr den letzten Schliff zu geben, um diese dann (wie immer) gegen dann erstarkte Konkurrenz antreten zu lassen (R300, Parhelia, P10)...

Schaun' wir mal, würde mich aber schon sehr wundern, wenn ich mich da irren würde !
:D

Bis denne

Razor

Gohan
2002-05-19, 09:39:33
NV35
In 1st Half 2003

- 0.13 micron process
- 500MHz GPU
- 512-bit chip structure
- AGP 8X
- 8 rendering pipelines
- Supports 128-256MB of DDR SDRAM
- 1000-1200MHz DDR or QDR
- Lightspeed Memory Architecture III
- Supports DirectX 9.1 and OpenGL 2.0

QDR? Das ist ja für Grafikkarten mehr als ungeeignet... und 1000 Mhz für'n Ram... ne. Ist ja so schlim wie bei Intel, wenig Pro Mhz Leistung, dafür klingt es besser.
Aber warum Inteligent vorgehen? Blödhochtakterei klingt besser als 1024 Bit Speicherinterface... :eyes:

Also Specs gibt es, die gibt es garnicht :D

Razor
2002-05-19, 09:45:27
Originally posted by Exxtreme
Vor Allem die R300 könnte sich als eine schwer zu knackende Nuss erweisen. Die ArtX-Leute habe 2 Jahre lang an diesem Chip gearbeitet. Die R100 und die R200 stammen noch vom alten ATi-Team. Und daß die ArtX-Leute was draufhaben, sieht man am Flipper des Gamecube.
Nur vergißt Du anscheinend, daß bei nVidia die 3dfx-Leutz dazu gekommen sind, insofern vermute ich hier eine Art Parität. Wer werden ja sehen, was da von den beiden kommt und wie sie sich gegen die 'neue' Konkurrenz behaupten können...

Wird auf jeden Fall mal ein spannender Herbst !
:D

@Gohan

1024Bit-Bus ?
Wozu ?

Den Specs würd ich zu diesem Zeitpunkt übrigens auch net traun'...
nVidia gibt gar nicht genügend Info's preis, um sich darüber ernstzunehmend Gedanken zu machen.
Auch wollen sie zur Zeit ja erst einmal gf4 verkaufen, gell ?

Wollte nur darauf hinaus, daß nach ihren bisherigen Produkt-Releasen einfach im Herbst was neues kommen müsste und anhand der Marktsituation dies auch plausibel erscheint.

Bis denne

Razor

Thowe
2002-05-19, 09:46:10
Auch wenn ich der Ansicht bin, das der NV30 nicht schlecht sein wird. Es gibt aber technische Limitationen die auch nVidia nicht umstoßen kann. Der P10 wird sicherlich nicht so der Konkurrent sein, auch der Parhelia ist eher fraglich (auch wenn es Summentechnisch genial ist), allerdings denke ich das der R300 schon Eindruck schinden wird.

Razor
2002-05-19, 09:50:01
Das wollen wir alle doch schwer hoffen, Thowe !
:D

Razor

P.S.: Dieses Jahr soll endlich wieder mal meine Kinnlade herunter klappen, so wie damals bei der Voodoo !
:o
:O

Ikon
2002-05-19, 09:53:06
Originally posted by Exxtreme
Vor Allem die R300 könnte sich als eine schwer zu knackende Nuss erweisen. Die ArtX-Leute habe 2 Jahre lang an diesem Chip gearbeitet. Die R100 und die R200 stammen noch vom alten ATi-Team. Und daß die ArtX-Leute was draufhaben, sieht man am Flipper des Gamecube.

Gruß
Alex

Wo bitte sieht man an der kleinen Waschmaschine (Gamecube) dass die ArtX-Leute was draufhaben? OK, der Flipper mag für eine Konsole reichen, aber am PC-Markt müssen sie schon ein bisschen mehr bringen. Denn technisch gesehen ist das Teil bis auf sehr wenige Ausnahmen (z.B. Virtual Texturing) vergleichbar mit DX7-Niveau. Und die intergrierten 3MB 1T-SRAM wären für einen PC-Renderer wohl auch ziemlich unterdimensioniert. Ob dieses Modell auf die PC-Plattform prinzipiel übertragbar ist und dort auch Speed bringt, muss sich noch zeigen.

Exxtreme
2002-05-19, 10:06:57
Hallo Ikon,
ich hoffe du weisst, daß der Flipper vor 2 Jahren entwickelt wurde, oder? Und das Ding unterscheidet sich doch ziemlich von den Designs der normalen PC-GraKa-Chipküchen. Die Jungs können auf das KnowHow des alten ATi-Teams zugreifen und bringen zusätzlich ihre eigenen (IMHO sehr eigenständigen) Ideen mit. Sicherlich sind die 3 MB 1T-SRAM für heutige Verhältnise unterdimensioniert nur ich könnte mir vorstellen, daß die R300 auch das 1T-SRAM nutzen wird - zwar nicht als Video-RAM sondern als sehr schnelle Caches direkt im Chip.
Fazit: es muss nicht sein, daß das ArtX-Team ihr altes Design des Flippers nochmal aufwärmt.

Gruß
Alex

Gohan
2002-05-19, 10:11:06
Originally posted by Razor
@Gohan

1024Bit-Bus ?
Wozu ?

Den Specs würd ich zu diesem Zeitpunkt übrigens auch net traun'...
nVidia gibt gar nicht genügend Info's preis, um sich darüber ernstzunehmend Gedanken zu machen.
Auch wollen sie zur Zeit ja erst einmal gf4 verkaufen, gell ?

Wollte nur darauf hinaus, daß nach ihren bisherigen Produkt-Releasen einfach im Herbst was neues kommen müsste und anhand der Marktsituation dies auch plausibel erscheint.

Bis denne

Razor

Meinst du, ich halte diese Specs für glaubwürdig? :eyes:

Razor
2002-05-19, 10:43:49
@Gohan

me:
"Den Specs würd ich zu diesem Zeitpunkt übrigens auch net traun'... "

you:
"Meinst du, ich halte diese Specs für glaubwürdig?"

Mehr sach ich dazu net !
:D

Razor

Der Elch
2002-05-19, 13:22:09
Das Nvidia im Spätsommer 2002 den NV30 nachschieben wird ist sicher wie das Amen in der Kirche!

Kai
2002-05-19, 13:41:42
Originally posted by Der Elch
Das Nvidia im Spätsommer 2002 den NV30 nachschieben wird ist sicher wie das Amen in der Kirche!

Eben. Denn schliesslich will nVidia zusammen mit jemandem der zufälligerweise John genannt wird eine Demonstration abziehen wie sie die Gamerwelt schon lange nicht mehr gesehen hat *hint* :D

Der Elch
2002-05-19, 14:31:34
So seh ich das auch. War es damals nicht genauso mit Quake3 und der Geforce256? ;)

aths
2002-05-19, 15:27:21
Kai,

wo steht dass JC dafür gerade nV-HW nutzen will?

Demirug
2002-05-19, 15:41:01
Originally posted by aths
wo steht dass JC dafür gerade nV-HW nutzen will?

Das steht nirgens. Es ist aber ein offenes Geheimniss das JC lieber mit nV zusammen arbeitet vorallem bei neuen Karten. Und JC macht sowieso nur was ER will.

StefanV
2002-05-19, 16:09:34
Originally posted by Demirug
Das steht nirgens. Es ist aber ein offenes Geheimniss das JC lieber mit nV zusammen arbeitet vorallem bei neuen Karten. Und JC macht sowieso nur was ER will.

Ich hab das gerücht gehört, daß Doom3 auf einer Parhelia präsentiert wird...

Weiß aber nicht, wieviel dran ist, sinn macht es alle mal, wenn Carmac dadurch 'ein paar Karten' bekommt, für die 24" Monitore, die er haben könnte (Tripple Head) *eg*

Demirug
2002-05-19, 16:20:24
Originally posted by Stefan Payne


Ich hab das gerücht gehört, daß Doom3 auf einer Parhelia präsentiert wird...

Weiß aber nicht, wieviel dran ist, sinn macht es alle mal, wenn Carmac dadurch 'ein paar Karten' bekommt, für die 24" Monitore, die er haben könnte (Tripple Head) *eg*

Glaubst du wirklich das Carmark für seine Karten was bezahlt? Der bekommt die sowieso geschenkt und zwar lange bevor die hier irgendjemand kaufen kann.

Unreal Soldier
2002-05-19, 16:47:55
Originally posted by Kai


Eben. Denn schliesslich will nVidia zusammen mit jemandem der zufälligerweise John genannt wird eine Demonstration abziehen wie sie die Gamerwelt schon lange nicht mehr gesehen hat *hint* :D

ALso JC bereitet uns eine Hamerpresentaton im zusammenarbeit mit NV. Da bin ich mir sicher. Die 2002-E3 hat eine riesengroße Überraschung auf Lager.
*wäregernebeidere3

MFG
Unreal Soldier

Ceiser Söze
2002-05-19, 16:52:18
Originally posted by Kai
Eben. Denn schliesslich will nVidia zusammen mit jemandem der zufälligerweise John genannt wird eine Demonstration abziehen wie sie die Gamerwelt schon lange nicht mehr gesehen hat *hint* :D

Momentan geistern Gerüchte(!) durchs Netz, dass Doom3 auf nicht-nVIDIA Hardware gezeigt werden wird ;)

Unreal Soldier
2002-05-19, 16:53:52
Originally posted by Ceiser Söze


Momentan geistern Gerüchte(!) durchs Netz, dass Doom3 auf nicht-nVIDIA Hardware gezeigt werden wird ;)

wirklich?? kannst du mir eine Seite sagen, denn ich bin gespannt.


MFG
Unreal Soldier

aths
2002-05-19, 19:00:21
Ceisers Informationsquellen müssen nicht zwangsläufig Webseiten sein :D

StefanV
2002-05-19, 19:13:37
Originally posted by Unreal Soldier


wirklich?? kannst du mir eine Seite sagen, denn ich bin gespannt.


MFG
Unreal Soldier

such mal im MURC Forum nach Doom3 und Parheilia...

aths
2002-05-19, 20:28:35
Also ich finde es schon ein wenig erstaunlich, dass die GF4 (Ti) bereits jetzt recht erfolgreich zu sein scheint. Diese Mischung aus GeForce3-Technik mit verbessertem Anti-Aliasing scheint auf viele recht "sexy" zu wirken. Ich bin sicher, dass nV die GF4 als DX8-Serie noch lange melken wird.

Haarmann
2002-05-19, 21:29:39
JC hat ja wie wir wissen (JCs eigene Worte) Doom3 schon an die ATI Extensions angepasst...
Displacement Mapping würde sich sicher auch gut machen... Und das ganze in Surround auf 3 Beamern? Das würde jedenfalls Leute erstaunen... Razor Kinnladeneffekt eben... Denn sind wir mal ehrlich können uns Bilder auf nem Monitor wirklich noch so vom Hocker reissen? Mich jedenfalls nicht. Der Unterschied Q1 SW vs GL ist weit grösser denn G1 GL zum neusten SerSam2, Auqanox oder was auch immer. Wer dann auch immer die HW dazu liefert ist für JC ziemlich egal ;). Er will doch nur die Engine möglichst teuer verhökern...

Demirug
2002-05-19, 21:40:33
JC hat ja wie wir wissen (JCs eigene Worte) Doom3 schon an die ATI Extensions angepasst...

Was blieb im auch anderes übrig? Bei OpenGL muss man eine Engine nun mal an jede Karte anpassen.

Displacement Mapping würde sich sicher auch gut machen...

Sehr unwahrscheinlich. Die müssten die halbe Grafik wegschmeisen und neu machen um DM zu nutzen.

Und das ganze in Surround auf 3 Beamern? Das würde jedenfalls Leute erstaunen... Razor Kinnladeneffekt eben... Denn sind wir mal ehrlich können uns Bilder auf nem Monitor wirklich noch so vom Hocker reissen? Mich jedenfalls nicht.


Beamer ist sehr wahrscheinlich ob es 3 sind (muss dan aber trotzdem keine Matrox sein). Wir werden sehen.

Wer dann auch immer die HW dazu liefert ist für JC ziemlich egal ;). Er will doch nur die Engine möglichst teuer verhökern...

Um sie teuer zu verkaufen muss er alle gängien Karten unterstützen. Bei einer Präsentation muss er aber vorallem auf ein stabiles und schnelles Gesamtsystem setzten. Ob die Matrox Treiber und Beta-Karten dafür schon stabil und schnell genung sind???

Kai
2002-05-20, 00:27:16
Originally posted by Ceiser Söze


Momentan geistern Gerüchte(!) durchs Netz, dass Doom3 auf nicht-nVIDIA Hardware gezeigt werden wird ;)

Da weiß ich aber handfesteres ;)

nocturne
2002-05-20, 01:36:52
Sprich Dich aus... :liplick:

Kai
2002-05-20, 02:59:22
Ah was. Ist doch gar nicht nötig. Einfach das Ende der E3 abwarten und auf die Berichtwellen warten :)

Doomtrain
2002-05-21, 00:10:16
Originally posted by Kai
Ah was. Ist doch gar nicht nötig. Einfach das Ende der E3 abwarten und auf die Berichtwellen warten :)

Sags uns doch! Das wäre die Meldung des Tages!!!

nggalai
2002-05-21, 07:53:42
@Kai, Doomtrain et al.:

Betreffend Doom3 auf NV-Hardware: sagen wir's mal so--NV stellt zusammen mit Intel und AMD u.a. für Activision die Hardware an der E3 . . . ;)

NVIDIA has partnered with AMD, Intel® Corporation, and VisionTek to provide hundreds of desktop PC and notebook systems featuring NVIDIA’s GeForce4 family of GPUs and nForce Platform Processors to the industry’s top developers and publishers, including Electronic Arts, Eidos Interactive, Activision, Inc., Disney Interactive, Epic Games, Microsoft Corp. and Sony Online Entertainment, each of whom will be demonstrating some of the hottest new products of the year.

Medienmitteilung: http://www.nvidia.com/view.asp?IO=IO_20020520_2947

ta,
-Sascha.rb

StefanV
2002-05-21, 12:01:25
Originally posted by Kai
Da weiß ich aber handfesteres ;)

Etwa, daß JC mit der Parhelia liebäugelt?? *eg*

Birdman
2002-05-21, 12:50:27
Originally posted by Stefan Payne

Etwa, daß JC mit der Parhelia liebäugelt?? *eg*
Na ja, wenn man die OpenGL Qualitäten des G400 CHips/Treibers berücksichtigt, würd ich mal denken dass JC eher einen feuchten Furz auf die karten fahren lässt :D

StefanV
2002-05-21, 13:02:16
Originally posted by Birdman

Na ja, wenn man die OpenGL Qualitäten des G400 CHips/Treibers berücksichtigt, würd ich mal denken dass JC eher einen feuchten Furz auf die karten fahren lässt :D

Naja, soo schlecht war die G400 nie :P

Auch wurde er mit der Zeit besser :P

Kai
2002-05-21, 13:04:55
Originally posted by Stefan Payne


Etwa, daß JC mit der Parhelia liebäugelt?? *eg*

Nö :D

StefanV
2002-05-21, 13:12:57
Originally posted by Kai
Nö :D

Kannst du auch etwas genauer werden??

Vielleicht hat ihn die Parhelia ja auch vom Hocker gerissen und er ist davon so begeistert, daß er die Präsentation auf MGA Hardware macht *eg*

Andre
2002-05-21, 13:50:05
Originally posted by Stefan Payne


Kannst du auch etwas genauer werden??

Vielleicht hat ihn die Parhelia ja auch vom Hocker gerissen und er ist davon so begeistert, daß er die Präsentation auf MGA Hardware macht *eg*

Träum weiter.

Demirug
2002-05-21, 13:57:28
Originally posted by Stefan Payne


Kannst du auch etwas genauer werden??

Vielleicht hat ihn die Parhelia ja auch vom Hocker gerissen und er ist davon so begeistert, daß er die Präsentation auf MGA Hardware macht *eg*

Sehr unwahrscheinlich. Zum einen glaube ich nicht das Matrox die Extensions von Nvidia oder Ati übernommen hat. Das bedeutet das IDSoft einen neuen Codepfad einbauen mus. Das dauert wenn die Treiber vollkommen in Ordnung sind ca 1 Woche. Mit dem standard OpenGL Pfad (ohne Extensions) kann er es unmöglich zeigen da er damit Matrox und sich selbst lächerlich macht.

Auf der E3 würde ich für eine präsentation auch nicht auf Alpha (bestenfalls Beta) Karten setzen.