PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : John Carmack speaks again!


Exxtreme
2002-05-28, 22:59:53
Hallo Mädelz, ich lasse es vorerst unkommentiert stehen.

“NVidia has been stellar in terms of driver quality and support and doing all of the things right,” says Carmack, who has been an outspoken evangelist for NVidia’s GeForce technology. “For the past few years, they have been able to consistently outplay ATI on every front. The problem is that they are about one-half step out of synch with the hardware generation because they did Xbox instead of focusing everything on their next board. So they are a little bit behind ATI.”
“I told everyone that I was going to demonstrate Doom III on the best hardware, and there has been no collusion or kickbacks or anything like that going on. Our objective is the technical merit.”
“The new ATI card was clearly superior. I don’t want to ding NVidia for anything because NVidia has done everything they possibly could; but in every test we ran, ATI was faster.”

Gruß
Alex

P.S.
Hier (http://www.msnbc.com/news/758337.asp?0dm=B15LT&cp1=1#BODY) ist die komplette Story.

StefanV
2002-05-28, 23:07:49
:rofl:

GEIL, mehr ist dazu nicht zu sagen :naughty:

Tarkin
2002-05-28, 23:17:36
sieht aus, als ob diesesmal wirklich ATI die Nase vorn hat...


"...NVidia has done everything they possibly could..."

Schätze mal, das heißt, dass nvidias nv30 langsamer sein wird, als ATIs R300 ... bzw. noch nicht so weit fortgeschritten.

Was wiederum heißt, dass ATIs neue praktisch vor der Tür steht(?)

Ich hoffe die Computex in 2 Wochen wird da etwas konkreteres ans Tageslicht bringen. (hoffentlich gibts dann auch endlich die neuen ATI Treiber -gottverdammt!)

Thowe
2002-05-28, 23:26:56
Wie schön, aber können wir das "geplänker" sein lassen?

ernesto.che
2002-05-28, 23:29:47
Originally posted by Thowe
Wie schön, aber können wir das "geplänker" sein lassen?
Ist das hier ein Diskussionsforum oder ein Diskussionsforum?

nagus
2002-05-28, 23:31:19
wenn dass mal keine gute nachricht für uns(alle) fanATIcs ist?

... und dass nochdazu John Carmack höchst persönlich in so hohen tönen von ati spricht... wunder oh wunder! die spieleentwickler sind doch sonnst alle, bis auf wenige außnahmen, völlig auf nvidia "eingeschossen"

ich freu mich wahnsinnig auf den kommenden grafikkarten-herbst(spätsommer)

btw, scheint so, als ob matrox (und alle anderen mitstreiter) mit der parhelia (richtig oder faslch geschrieben? es ist mir egal) nicht sonderlich gut ankommt... wer ist schoh so "dummdreist" und kauft sich im august eine parhelia 512 und ein monat später kommt DirectX9 und die R300 raus...?

mfg, nagus

nagus
2002-05-28, 23:33:20
Originally posted by Thowe
Wie schön, aber können wir das "geplänker" sein lassen?

*pffff*

Thowe
2002-05-28, 23:35:32
Originally posted by ernesto.che

Ist das hier ein Diskussionsforum oder ein Diskussionsforum?

Antwort 2 ist glaube ich die richtige, bin mir aber noch nicht ganz schlüssig. :)

Ansonsten, war meine Aussage als "Aufruf" zu verstehen seine Meinung zu begründen und nicht irgendwelche Fahnen dummbrothaft zu wedeln.

Quasar
2002-05-28, 23:37:48
“NVidia has been stellar in terms of driver quality and support and doing all of the things right,” says Carmack, who has been an outspoken evangelist for NVidia’s GeForce technology. “For the past few years, they have been able to consistently outplay ATI on every front. The problem is that they are about one-half step out of synch with the hardware generation because they did Xbox instead of focusing everything on their next board. So they are a little bit behind ATI.”
“I told everyone that I was going to demonstrate Doom III on the best hardware, and there has been no collusion or kickbacks or anything like that going on. Our objective is the technical merit.”
“The new ATI card was clearly superior. I don’t want to ding NVidia for anything because NVidia has done everything they possibly could; but in every test we ran, ATI was faster.”

Hm...imho ein bißchen voreilig, die R300 in den Himmerl zu loben, auch wenn's auf den ersten Blick so aussehen mag ("ATI was faster").

Doch ein Satz ("The problem is that they are about one-half step out of synch with the hardware generation because they did Xbox instead of focusing everything on their next board.") gibt mir ein wenig zu denken:
nV30 ist einfach noch nicht fertig, und daß die R300 eine GF4 im Regen stehen lassen wird, ist imho nicht verwunderlich.

Wie nagus (uups, wo ist der denn auf einmal wieder hergekommen ;)) bin auch ich sehr gespannt auf den Herbst...denn er wird heiß!!

Demirug
2002-05-28, 23:39:14
@nagus:

DirectX9 kommt nach derzeitiger Plannung im November und nicht im September.

Und vorallem wenn kümmert das. Dieses jahr (und einen großteil des nächsten jahres) zählt nur die DX8 Power.

Hät ich jetzt fast vergessen:

Gratulation an ATi für den Sieg in dieser Schlacht (um welche Chips es sich auch wirklich gehandelt haben mag). Bin mir aber sicher das Graphzila (NVidia) zurück schlagen wird.

nagus
2002-05-28, 23:39:18
Originally posted by Quasar


Wie nagus (uups, wo ist der denn auf einmal wieder hergekommen ;)) bin auch ich sehr gespannt auf den Herbst...denn er wird heiß!!


wohl heute morgen einen >> Blödsinn gelöscht (Exxtreme) << wie??


*MUAAHAHAH* > scherz

Salvee
2002-05-28, 23:45:33
Dass Graphzilla zurückschlagen wird, ist sicher wie das Amen in der Kirche. Laut den Millionen nV-Fanboys im Netz wäre der Kommentar "ATI was clearly superior" aber niemals möglich gewesen... Payback time!! :biggrin:

Exxtreme
2002-05-28, 23:46:06
@ nagus

Unterlasse bitte in Zukunft solche Ausdrücke!! Soetwas ist hier nicht erwünscht, klar?!!

Gruß
Alex

nagus
2002-05-28, 23:48:20
Originally posted by Demirug
@nagus:

DirectX9 kommt nach derzeitiger Plannung im November und nicht im September.



nach neusten infos auf tomshardware ( vor ca. 3 wochen ist da was über directx9 gestanden..) soll das 9er ende 3. Quartal rauskommen.

november ist sicher min. 2 monate zu spät. meiner meinug nach.

hat vielleicht jemand aktuellere insider infos über den genauen zeitplan ?

StefanV
2002-05-28, 23:49:59
Originally posted by nagus



nach neusten infos auf tomshardware ( vor ca. 3 wochen ist da was über directx9 gestanden..) soll das 9er ende 3. Quartal rauskommen.

november ist sicher min. 2 monate zu spät. meiner meinug nach.

hat vielleicht jemand aktuellere insider infos über den genauen zeitplan ?

er ist offizieller DX9 Beta Tester...

nagus
2002-05-28, 23:52:10
Originally posted by Exxtreme
@ nagus

Unterlasse bitte in Zukunft solche Ausdrücke!! Soetwas ist hier nicht erwünscht, klar?!!

Gruß
Alex

meine güte...

"scheisse" darf ich aber schon noch sagen, oder?


tut mir leid, wenn ich damit jemanden seelisch verletzt hab ;)

Exxtreme
2002-05-28, 23:56:36
Originally posted by nagus


meine güte...

"scheisse" darf ich aber schon noch sagen, oder?


tut mir leid, wenn ich damit jemanden seelisch verletzt hab ;)
Err, man kann das, was du oben gemeint hast, auch anders sagen, oder? Wenn du dich austoben willst, dann geh in das Forum von www.nvnews.net (ist z.Zt. down) ;)

Gruß
Alex

Edit: nVnews geht bei mir wieder

Andre
2002-05-29, 00:02:52
Ist schon lustig.
Erst schreien sie alle, dass JC keine Ahnung hat, als er NV lobte und jetzt ist er auf einmal DER Mann.
Nur geil, sowas gibts nur hier.

Quasar
2002-05-29, 00:03:07
@Exxtreme:
Stimmt doch gar nicht....

Da steht, der Parhelia wird lt. einem Matrox-PR-Mann mit ca. 220MHz Core-Clock rauskommen...

Ach ja, da mir Demirug schon zuvor gekommen ist: Glückwunsch an ATi....aber nun bleibt mal am Ball Jungs!


@nagus:
Keine Sorge, du kannst mich seelisch nicht verletzen..

Salvee
2002-05-29, 00:08:25
Kann man jemanden ernst nehmen, der behauptet, dass JohnC keine Ahnung von CG hat ???

Andre
2002-05-29, 00:12:13
Nur mal so als Denkanstoss:

Mich interessiert es herzlich wenig, was ZUR ZEIT am besten mit Doom 3 läuft.
Selbst wenn die Präsentation auf ner Radeon (Nachfolgemodell?) lief, ist mir das egal.
Und wenns auf ner NV oder Kyro III oder Matrox oder sonstwas gelaufen wäre.
Ausschlaggeben ist, was ZUM Zeitpunkt des Erscheinens von Doom 3 (oder kurz danach) am besten läuft.

Fragman
2002-05-29, 00:33:03
ueberrascht mich sehr, hab natuerlich darauf gehofft, bin aber trotzdem ueberrascht. sollte ati wirklich mal ne karte ohne grosse treiberprobs hinbekommen haben. das waere natuerlich schon eine kleine sensation wenn nv diesmal hinten ansteht, diesmal nicht nur technologisch, sondern auch performencesmaessig. der vorsprug muss dann aber auch mehr als deutlich sein, wenn damit die entscheidung einher ging, welche karte fuer die praesentaion benutzt werden soll.

denke da aber wie andrê: wenn doom3 rauskommt, wird mann erst sehen koennen, welche karte gut performent und auch immer wichtiger, welche karte die bessere quali bietet (stichwort aa und af). fuer weihnachten natuerlich ne gute nachricht, kommt vielleicht die g3 raus und der r3 rein, aber erstmal abwarten.

ps: weiss jemand, in welcher aufloesung und in welcher quali (aa; af)doom3 lief?

nocturne
2002-05-29, 01:49:31
Originally posted by Andre
Mich interessiert es herzlich wenig, was ZUR ZEIT am besten mit Doom 3 läuft.
Selbst wenn die Präsentation auf ner Radeon (Nachfolgemodell?) lief, ist mir das egal.
Und wenns auf ner NV oder Kyro III oder Matrox oder sonstwas gelaufen wäre.
Ausschlaggeben ist, was ZUM Zeitpunkt des Erscheinens von Doom 3 (oder kurz danach) am besten läuft.

Völlig richtig. Aus Carmacks Statement geht lediglich hervor, dass ATI ausnahmsweise gerade mal etwas früher einen Prototypen für die nächste Generation vorzeigbar hat als nVidia. Sonst sagt das gar nichts. Möglicherweise dreht sich ein paar Wochen später der Spiess schon wieder um.

zeckensack
2002-05-29, 02:02:00
Vielleicht aber auch nicht. Ich hab' Andre so verstanden, daß er sagen wollte, daß es eigentlich egal ist.
Zumindest ist es mir egal, wer 'gewinnt' ;)

nocturne
2002-05-29, 02:09:32
Im Prinzip ist das tatsächlich egal. Lustig ist nur das Freudengeheul mancher FanATIker. Das ist fast so, als hätten damals auf der ersten Doom3-Präsentation, die auf einem Macintosh mit nVidia-Karte stattfand, alle Mac-Fans gejubelt: "Geil, der Mac macht den PC platt!". ;)

Doch bis Doom 3 im Jahr 2003 rauskommt, wird noch so mancher angebliche Plattmacher vom nächsten Plattmacher abgelöst werden.

edit:
Carmack sagt, "I was going to demonstrate Doom III on the best hardware". Interessant, denn er demonstrierte Doom3 auf einem 2.2GHz Pentium IV. Wenn Intel-Jünger ähnlich fanATIsch wären, müssten sie daher jubeln, dass AMD das Rennen gegen Intel verloren hat.

*eg*

Ganon
2002-05-29, 08:42:53
Originally posted by nocturne

edit:
Carmack sagt, "I was going to demonstrate Doom III on the best hardware". Interessant, denn er demonstrierte Doom3 auf einem 2.2GHz Pentium IV. Wenn Intel-Jünger ähnlich fanATIsch wären, müssten sie daher jubeln, dass AMD das Rennen gegen Intel verloren hat.

*eg*

SSE2?

nggalai
2002-05-29, 08:51:36
Hi there,

ich schliesse mich meinen Vorrednern an: es ist absolut schnuppe welcher Chip momentan besser mit DooM 3 zurecht kommt. Das zählt erst, wenn DooM 3 erwerbbar ist--vorher hat ATi einen schönen kleinen PR-Bonus gekriegt. Ich persönlich freue mich jedoch auf den Herbst, und gratuliere ATi zu diesem moralischen Boost. :)

Betreffend des Textes, wo Carmack gequotet wurde, noch einige kleine Überlegungen zum Thema "ATi ist schneller als WELCHER Chip von NV?" und "was kann man aus dem Text für Schlüsse ziehen?":

- Carmack steht bei NV unter NDA. Je nachdem, wie das Ding formuliert ist, darf er in KEINSTER Weise auch nur Vergleiche zu non-disclosed HW andeuten. Hätte JC bei uns eine NDA unterzeichnet, dann hätte MSNBC jetzt bereits unsere Anwälte am Hals weil die Formulierung nahelegt, dass hier R300 mit NV30 verglichen wird--was zutreffen mag oder nicht, aber auf alle Fälle einer strengen NDA zuwiderlaufen würde.
Wie die Situation hier konkret aussieht ist unklar und wir müssen auf mehr Infos und ein klares Statement entweder von JC oder NV warten, bis wir hier vergleichende Schlüsse ziehen können. Selbst dann ist Vorsicht geboten:

- Zu den Treibern: alles was wir wissen ist, dass die ATi OpenGL-Treiber DooM3 schneller als diese ominöse NV-Hardware abspielen. Schlüsse über die allgemeine Treiberqualität machen wenig Sinn.

- Zur Performance: alles was wir wissen ist, dass die ATi-Karte DooM3 schneller als diese ominöse NV-Hardware abspielt. Schlüsse über die allgemeine Performance der Karte machen wenig Sinn.


Ich werde mich aus diesen Gründen auch hüten, selbst Spekulationen in Umlauf zu setzen. Ich bitte alle, solche Meldungen mit ein wenig Distanz anzusehen--der Text lässt soviele Interpretationsmöglichkeiten offen, dass man immer nur spekulieren kann.

ta,
-Sascha.rb

nagus
2002-05-29, 09:02:46
Originally posted by Andre
Nur mal so als Denkanstoss:

Mich interessiert es herzlich wenig, was ZUR ZEIT am besten mit Doom 3 läuft.
Selbst wenn die Präsentation auf ner Radeon (Nachfolgemodell?) lief, ist mir das egal.
Und wenns auf ner NV oder Kyro III oder Matrox oder sonstwas gelaufen wäre.
Ausschlaggeben ist, was ZUM Zeitpunkt des Erscheinens von Doom 3 (oder kurz danach) am besten läuft.


aber natürlich....

wenn doom3 auf der nv30 gezeigt worden wäre, würdest du das garantiert nicht sagen.

Andre
2002-05-29, 09:18:41
Originally posted by zeckensack
Vielleicht aber auch nicht. Ich hab' Andre so verstanden, daß er sagen wollte, daß es eigentlich egal ist.
Zumindest ist es mir egal, wer 'gewinnt' ;)

Es versteht mich mal jemand!!

*knuddel* @ zeckisacki :)

Andre
2002-05-29, 09:20:17
Originally posted by nagus
aber natürlich....

wenn doom3 auf der nv30 gezeigt worden wäre, würdest du das garantiert nicht sagen.

Doch.
Das zeigt mir, dass du meine Posts nicht liest.
Ich habe nie gesagt, dass ich NV oder sonstwen favourisiere.
Ich bin nur gegen kleingeistiges und eingeschränktes Denken.

HOT
2002-05-29, 11:01:49
JC lobt immer die beste Hardware. Das war ja auch beim Geforce3 so. Bei den ATI Treiber hat sich jetzt einiges geändert, das JC den OpenGL Teil sozusagen mitgestaltet hat. Er steht laut einigen Interviews ja mit ATI deshalb in Kontakt.
NV hat sich offensichtlich zu intensiv mit Chipsätzen beschäftigt.

nggalai
2002-05-29, 11:13:45
Könnte ein Fake sein, vielleicht auch nicht. Die Hervorhebung ist von mir.It [The ATI card used] was compared against a very high speed GF4. It shouldn't be surprising that a next-generation card is faster than a current generation card. What will be very interesting is comparing the next gen cards (and the supporting drivers) from both vendors head to head when they are both in production.

Everyone working on DOOM still uses GF4-Ti cards at the moment, and if someone needs to buy a new video card today, that is what I tell them to get.

John Carmack

http://www.beyond3d.com/forum/viewtopic.php?t=1101&postdays=0&postorder=asc&start=50

ta,
-Sascha.rb

SamLombardo
2002-05-29, 11:17:37
Ich frage mich, was daran so aussergewöhnlich sein soll, das der next gen(!!!) Chip von Ati schneller ist als GF4. Vielleicht hat es Carmack selbst vorher nicht geglaubt, weil er es jetzt erwähnt als ob das was ganz besonderes wäre.


CU Sam

zeckensack
2002-05-29, 11:51:57
Originally posted by SamLombardo
Ich frage mich, was daran so aussergewöhnlich sein soll, das der next gen(!!!) Chip von Ati schneller ist als GF4. Vielleicht hat es Carmack selbst vorher nicht geglaubt, weil er es jetzt erwähnt als ob das was ganz besonderes wäre.


CU Sam Hä ??? Wo haste denn da "was ganz besonderes" rausgelesen ??? Eher im Gegentum.

Haarmann
2002-05-29, 12:10:55
Andre hat da schon ein Korn Wahrheit gefunden... Es is Banane welche Beta Karte mit Beta Treibern zZ die Beta Doom3 am schnellsten bedient.
Alles was man nun pro ATI sagen kann ist A deren Chip läuft und B deren OGL Treiber läuft offensichtlich auch so wie sich JC das vorstellt.
Ob JC ne NV30 Karte hatte oder nicht, weiss wohl noch keiner so genau...
Die NV28? wär ev die hochgezüchtete GF4Ti Ultra inkl AGP*8 mit der das verglichen wurde. Spricht dann aber wohl gegen eine NV30 im Spätsommer... die wird wohl doch erst vor Weihnachten die Gestelle bevölkern.
Für diese Xmas Aussage spricht by the way auch JCs NV 3 Monate hinterherhinken Aussage wegen der XBox.

Quasar
2002-05-29, 12:22:02
Jo, schaun mer mal....

Vielleicht dürfen wir ja auch eine komplett umgekehrte Situation wie in den letzten beiden Jahren erleben:

ATi fürher am Markt und mit guten Treibern, nV mit Verspätung, dafür überlegener HW und schlechteren Treibern...

Mich würd's echt interessieren, wer dann hier wie argumentiert....

Haarmann
2002-05-29, 12:23:47
Quasar

Das wär wirklich mal ne witzige Situation... Aber ich werde wohl nach dieser R200 mal vorerst ins best SQ Lager wechseln... sprich Parhelia ich komme.

nocturne
2002-05-29, 12:34:05
Quasar,

ich tippe eher auf folgende Situation:

ATi ausnahmsweise kurzzeitig früher am Markt und mit mittelmässigen Treibern. nVidia kurze Zeit später, dafür mit überlegener Hardware und besseren Treibern.

Und ja, es wäre ja wirklich schlimm für ATI, wenn ihr Nex-Gen-R300-Prototyp nicht tatsächlich schneller gewesen wäre als ein GeForce4.


... aber eigentlich gehört dieser Thread sowieso ins Spekulationsforum. Da könnten wir dann auch gleich weiterspekulieren, warum sich Carmack keinen Parhelia zur Präsentation ausgesucht hat: zu langsam oder mal wieder zu schlechte OpenGL-Treiber wie üblich bei Matrox? ;)

edit:
Bei http://nvnews.net bestätigt John Carmack übrigens:


It [The ATI card used] was compared against a very high speed GF4. It shouldn't be surprising that a next-generation card is faster than a current generation card. What will be very interesting is comparing the next gen cards (and the supporting drivers) from both vendors head to head when they are both in production.

Everyone working on DOOM still uses GF4-Ti cards at the moment, and if someone needs to buy a new video card today, that is what I tell them to get.

John Carmack

Andre
2002-05-29, 13:37:12
Nocturne,

den Auszug hat nggalai schon ein paar Posts vor dir zitiert ;)

ernesto.che
2002-05-29, 13:44:11
Originally posted by Andre
Nocturne,

den Auszug hat nggalai schon ein paar Posts vor dir zitiert ;)

Änder bitte wieder deine Bild - vorher hast du immer so nett gelacht, jetzt habe ich Angst vor dir :(

Andre
2002-05-29, 13:47:05
Originally posted by ernesto.che


Änder bitte wieder deine Bild - vorher hast du immer so nett gelacht, jetzt habe ich Angst vor dir :(

Höh?
Das ist mein Tribut an Brandon Lee und meine Vorfreude auf die bald erscheinende The Crow-DVD.

nocturne
2002-05-29, 14:51:33
Originally posted by Andre
Nocturne,
den Auszug hat nggalai schon ein paar Posts vor dir zitiert ;)

Stimmt. Aber während sich nggalai noch gefragt hatte, ob das vielleicht ein Fake sei, bestätigt nvnews, dass es eben direkt von Carmack kommt, weil sie direkt bei Carmack persönlich nachgefragt hatten. Deshalb schrieb ich auch "bestätigt".

edit: Also ich finde deinen Brandon-Lee-Avatar cool, auch wenn mir Dein "echtes" Foto sympathischer war. ;)

Fragman
2002-05-29, 15:05:41
@andre:
the crow auf dvd? etwa ungeschnitten? wann?

nggalai
2002-05-29, 15:15:17
Hi nocturne,

die Meldung auf nvnews ist vom gleichen Typen wie im Forum. :)

Aber bestätigt ist's trotzdem, von einer "echten" dritten Partei:

http://www.shacknews.com/funk.y?id=3756458

I feel I should clarify Carmack's statement, because it's not entirely in context:

The Doom 3 demo was running on the next-gen ATI stuff, which is clearly superior to everything NVIDIA has to run Doom 3 on.

This is NOT because R300 is faster than NV30. This is because NV30 is not yet at a stage where ANYTHING can be run on it at all, and therefore the contest was between early R300 stuff and NV25 (GeForce 4).

This is what Carmack meant when he said "The new ATI card was clearly superior. I dont want to ding NVidia for anything because NVidia has done everything they possibly could; but in every test we ran, ATI was faster." He means faster than a GeForce 4 Ti 4600. Before ATI's next-gen silicon got to him, Ti 4600s were outpacing Radeon 8500s by a good margin in the Doom 3, despite the ATI's cards ability to handle things in fewer passes.

To be clear: despite what phase of production R300 and NV30 are at now (and I'm under NDA so I can't say), nobody is yet sure when either product will ship. It's likely they'll both be this fall, and nobody has any idea which one will be faster until stuff like clock speeds and the like are determined.

ta,
-Sascha.rb

Andre
2002-05-29, 15:25:36
Originally posted by Fragman
@andre:
the crow auf dvd? etwa ungeschnitten? wann?

OT:

Ja, sollte am 11.07.2002 erscheinen.
Doch grade heute habe ich gelesen, dass Buena Vista die DVD auf unbestimmte Zeit verschoben hat :(
Ich frage mich, warum jeder Pissels-Film auf DVD kommt, und The Crow nicht.

Kai
2002-05-29, 18:05:04
Nach dem was ich weiß werden die ATI-Fanatix sowieso bald wieder ruhiger werden, also mal keine Sorge - flamen rult, solange man sich später über das Thema kaputtlachen kann ;)

jedi
2002-05-29, 18:25:22
Originally posted by Kai
Nach dem was ich weiß werden die ATI-Fanatix sowieso bald wieder ruhiger werden, also mal keine Sorge - flamen rult, solange man sich später über das Thema kaputtlachen kann ;)
Ich lach mich jetzt schon kaputt, wie schnell der extreme Parhelia-Hype verblasst ist und Carmack über den Bürokartenhersteller noch nicht mal ein Wort bezüglich Doom3 verloren hat.

Lassen wir hier also den FanATIkern genauso noch ein paar Wochen ihren Hype-Spass und amüsieren uns später umso mehr. *eg*

Thowe
2002-05-29, 21:15:07
Oh Ha. Tuts weh?

aths
2002-05-29, 22:50:28
Thowe,

wo nichts ist, kann auch nichts weh tun...

Quasar
2002-05-30, 00:14:30
Originally posted by nggalai
Hi nocturne,

die Meldung auf nvnews ist vom gleichen Typen wie im Forum. :)

Aber bestätigt ist's trotzdem, von einer "echten" dritten Partei:

I feel I should clarify Carmack's statement, because it's not entirely in context:

The Doom 3 demo was running on the next-gen ATI stuff, which is clearly superior to everything NVIDIA has to run Doom 3 on.

This is NOT because R300 is faster than NV30. This is because NV30 is not yet at a stage where ANYTHING can be run on it at all, and therefore the contest was between early R300 stuff and NV25 (GeForce 4).

This is what Carmack meant when he said "The new ATI card was clearly superior. I dont want to ding NVidia for anything because NVidia has done everything they possibly could; but in every test we ran, ATI was faster." He means faster than a GeForce 4 Ti 4600. Before ATI's next-gen silicon got to him, Ti 4600s were outpacing Radeon 8500s by a good margin in the Doom 3, despite the ATI's cards ability to handle things in fewer passes.

To be clear: despite what phase of production R300 and NV30 are at now (and I'm under NDA so I can't say), nobody is yet sure when either product will ship. It's likely they'll both be this fall, and nobody has any idea which one will be faster until stuff like clock speeds and the like are determined.
http://www.shacknews.com/funk.y?id=3756458

ta,
-Sascha.rb

Shit, wie ich es hasse, immer recht zu haben ;)

Quasar
2002-05-30, 00:15:41
@Andre's new Aardvark err....Avatar:

The Crow? Ich dachte das wäre Sting....(der Wrestler)

Kai
2002-05-30, 00:29:36
Ich frage mich sowieso was es da zu "missinterpretieren" gab. Ich ging sowieso davon aus das der NV30 noch nicht fertig, bzw. testbar ist.

Demirug
2002-05-30, 00:32:37
Originally posted by Kai
Ich frage mich sowieso was es da zu "missinterpretieren" gab. Ich ging sowieso davon aus das der NV30 noch nicht fertig, bzw. testbar ist.

Aber einige ATI-Anhänger gingen wohl fest davon aus das die Herbst-Schlacht diese Jahr schon auf der E3 geschlagen wurde und Ati der Sieger ist.

Lightning
2002-05-30, 00:57:22
Originally posted by Demirug


Aber einige ATI-Anhänger gingen wohl fest davon aus das die Herbst-Schlacht diese Jahr schon auf der E3 geschlagen wurde und Ati der Sieger ist.

Mir wars auch schon ziemlich klar. Aber es ist natürlich trotzdem gut für ATi, wenn sie schon weiter mit ihrem R300 sind als nVidia mit dem NV30.

Kai
2002-05-30, 01:07:50
Oder auch nicht so gut ... ;) Wenn nV über die Doom-Schiene mehr über den R300 interpretieren können als ATI lieb ist, dann dürfte das nicht so toll für die sein ;)

Lightning
2002-05-30, 01:26:50
Es fragt sich auch, warum der NV30 noch nicht so weit ist. Liegt das wohl eher noch an der Hardware oder an den Treibern? Auf jeden Fall aber ist ATi anscheinend schon einen Schritt weiter. Vielleicht gerät nVidia dann unter Druck und wollen ihre Karte gleichschnell wie die von ATi auf den Markt bringen. Aber ATi hat dann möglicherweise eben schon die ausgereiftere Karte+Treiber.

Quasar
2002-05-30, 01:36:32
Wenn wir schon am spekulieren sind:

Vielleicht ist der nV30 ja auch so komplex, daß man einfach noch keine funktionierenden Samples von TSMC zurückbekommen hat, während der R300 nur ein leicht aufgebohrter R200 ist? Ihr wißt schon, ein paar Transistoren hier, ein paar Register dort und fertig ist der PS 2.0 ;)

Andre
2002-05-30, 01:57:51
Originally posted by Quasar
@Andre's new Aardvark err....Avatar:

The Crow? Ich dachte das wäre Sting....(der Wrestler)

Banause!

nggalai
2002-05-30, 08:09:40
Hi there,Es fragt sich auch, warum der NV30 noch nicht so weit ist. Liegt das wohl eher noch an der Hardware oder an den Treibern? Auf jeden Fall aber ist ATi anscheinend schon einen Schritt weiter. Vielleicht gerät nVidia dann unter Druck und wollen ihre Karte gleichschnell wie die von ATi auf den Markt bringen. Aber ATi hat dann möglicherweise eben schon die ausgereiftere Karte+Treiber.
- nForce
- XBox
- .13um


ta,
.rb

Haarmann
2002-05-30, 09:42:43
NV ist nun halt diesmal langsamer als ATI... und im Spätsommer wird KEINE NV30 geben - da wette ich drauf.

ernesto.che
2002-05-30, 11:03:58
Originally posted by Haarmann
NV ist nun halt diesmal langsamer als ATI... und im Spätsommer wird KEINE NV30 geben - da wette ich drauf.

Wenn ATI zuerst die nächste Karte herausbringt, müssen sie schneller sein als Nvdia, sonst können sie sich gleich erschießen

AlfredENeumann
2002-05-30, 11:16:15
Originally posted by ernesto.che


Wenn ATI zuerst die nächste Karte herausbringt, müssen sie schneller sein als Nvdia, sonst können sie sich gleich erschießen

ne müssen sie nicht. schneller als ne "very high speed GF4" ist Sie laut JC schon. und wenn die R300 rauskommt und es ist noch keine NV30 da dannn ist es eh shit egal.

Exxtreme
2002-05-30, 11:21:08
Originally posted by ernesto.che


Wenn ATI zuerst die nächste Karte herausbringt, müssen sie schneller sein als Nvdia, sonst können sie sich gleich erschießen
Meinen derzeitigen Informationen nach wird weder der Parhelia noch der NV30 performancemässig was gegen die R300 ausrichten können. Es könnte sich aber wieder ändern.

Gruß
Alex

aths
2002-05-30, 11:42:43
Parhelia wird in derzeitigen Spielen nichtmal eine Ti4600 ernsthaft in die Schranken weisen.

ernesto.che
2002-05-30, 12:15:26
Originally posted by aths
Parhelia wird in derzeitigen Spielen nichtmal eine Ti4600 ernsthaft in die Schranken weisen.
Womit ich finde, das Matrox irgendwie ein bisschen am Spielemarkt vorbei produziert hätte.

Unregistered
2002-05-30, 12:24:45
Wartet doch mal ab bis die Karten am Markt sind.
Die jetzigen GeForce3/4 R200 dürften für Doom3 auch reichen.

Mir geht nur wieder am Sack das bei den div. Karten wieder krampfhaft nach Fehlern gesucht wird, um diese im schlechten Licht stehen zu lassen.
Ganz nach den Motto, kaufst Du die Karte bist ein Dau und Dein rechner geht in die Luft.

Alle Karten haben Ihre Vorzüge, es hängt halt immer vom Einsatz Gebiet ab.
ZU J.C sage ich nicht viel.
Er ist halt jemand der die Posiotion Besitzt Karten zu testen welche wir noch nicht mal Ansatzweise kennen.
Was früher fertig ist, wird früher getestet mehr juchkt ihm sicher auch nicht.
Ihm interresiert auch nur was dann auf den Markt kommt.

Gruss Labberlippe

Unregistered
2002-05-30, 12:28:53
Originally posted by Haarmann
NV ist nun halt diesmal langsamer als ATI... und im Spätsommer wird KEINE NV30 geben - da wette ich drauf.

Naja, aber nVIDIA kann dadurch die gleiche Schiene fahren wie mit der GeForce3.
Einen Wundertreiber ankündigen, neue Specs von der nv30 verlauten welche wieder Wunder verbringt und so die Kunden bei der Stange halten.
Hat bis jetzt auch immer geklappt.
nVIDIA hat aufgrund der Fangemeinde es gar nicht notwendig Zeitgleich mit ATi zu starten.
Ein Bissl warten das Konkurenzprodukt ansehen, ein paar "optimierungen" durchführen und ab gehts.

Gruss Labberlippe

Richthofen
2002-05-30, 12:29:16
Hm finde ich nicht unbedingt. Ich finde allerdings das Matrox sich gewaltig ans Bein gepisst hat mit dem fetten Speicherinterface aber dem damit vergleichenen eher langsamen Chip.
0.13 wäre hier aber ganz stark angebracht.

Übrigens hat der NV CEO gestern in der Merrill Lynch Hardware Konferenz bestätigt das der NV30 im August vorgestellt wird und ein komplettes Neudesign verglichen mit der GF4 ist.
Ich denke mal im Laden sind die Teile vor dem wichtigen Weihnachtsgeschäft aber noch nicht im Sommer. Ich schätze so Oktober / November.

Tja und warum er später kommt? K.a. kann man nur mutmaßen. Sicher tragen nForce und x-Box ihren Teil dazu bei. Aber mal ganz im Ernst was hättet ihr gemacht? Weiter nur Dekstop Grafik gebacken und alles andere links liegen gelassen?
Die paar Monate später können sich sich erlauben. Andere Bereiche gleichen das doch mehr als aus.

Übrigens sehe ich den Hauptgrund warum das Teil später kommt beim 0.13er TSMC Prozess. Auf den ist man angewiesen. Ohne den kein NV30 und dieser ist anscheinend noch nicht richtig rund am laufen.
Ich rechne mal round about mit 100 Mio Transistoren oder mehr.
Wenn er wieder on the Top ist, ist doch alles prima.

Wollt nur mal anfügen das der Sommer bzw das "Sommerloch" der Zeitraum ist an dem am wenigsten gekauft wird.
Ist ja auch logo. Da fliegt man lieber in den Urlaub und kauft sich keine Graka.
Wichtig ist, das man rechtzeitig für x-Max on track ist.

Exxtreme
2002-05-30, 12:43:11
Originally posted by Richthofen
Hm finde ich nicht unbedingt. Ich finde allerdings das Matrox sich gewaltig ans Bein gepisst hat mit dem fetten Speicherinterface aber dem damit vergleichenen eher langsamen Chip.
0.13 wäre hier aber ganz stark angebracht.

Wenn du AA und AF weglässt ist der Chip sicherlich unterdimensioniert. Beide Optionen brauchen aber sehr viel Bandbreite und deswegen sollte der Geschwindigkeitsverlusst sich beim Parhelia in Grenzen halten wenn beide Optionen aktiviert werden. Und da dürfte er deutlich schneller sein als heute verfügbare Grafikchips.

Gruß
Alex

nocturne
2002-05-30, 13:51:04
Originally posted by ernesto.che
Womit ich finde, das Matrox irgendwie ein bisschen am Spielemarkt vorbei produziert hätte.

Was man schon daran sieht, dass Carmack in seinem Grafikkarten-Rundumschlag für Doom3 Matrox noch nicht mal erwähnt.

Richthofen
2002-05-30, 14:03:39
AF geht auch auf Kosten des Chips und nicht nur der Bandbreite - nicht vergessen!
Und man kann noch keine Aussagen darüber machen, wie gut die Treiber sind.
Die meissten Neuentwicklungen wurden auf NV Hardware gecoded.
Das reisst locker einige % Rückstand.

Ich finde den Matrox Chip unausgeglichen.
In etwa wie die GF2GTS. Die hatte Füllrate satt aber nur wenig Bandbreite.
Bei Matrox isses genau umgekehrt. Bandbreite satt dafür wenig Fillrate.

So richtig verstehen tu ich das nicht, denn die Bandbreite macht das Ganze nur sinnlos teuer.
Hier wäre es doch besser gewesen ein bisschen weniger Bandbreite zu haben und dafür einen in 0.13 gefertigten Chip der mit 300 MHZ taktet oder in dem man bessere Textureinheiten bzgl der Filterung verwendet. Mit besser meinte ich Leistungsfähiger.

Irgendwie find ich den einfach überdimmensioniert beim Speicher.
Und das J.C den nichtmal erwähnt hat sagt für mich auch einiges aus.
Das wird am Developersupport liegen unter anderem. Nur tolle Karten bauen reicht in diesem Geschäft nicht aus. Developer Support muss her, ansonsten richten die sich nur an anderen aus und man selber muss ständig work arounds in Treibern basteln vor allem bei OpenGL Spielen wo die Hersteller Extensions genutzt werden.

nocturne
2002-05-30, 14:26:55
Matrox-Manager haben ja auch schliesslich oft genug betont, dass ihnen der OpenGL- und Spielemarkt ziemlich wurscht ist, weil er effektiv nur einen ziemlich kleinen Anteil am Markt hat.

Kai
2002-05-30, 14:53:59
Originally posted by nggalai
Hi there,
- nForce
- XBox
- .13um


ta,
.rb

Sehe ich genauso. Das hat die guten ziemlich zurückgeworfen.

Kai
2002-05-30, 14:55:10
Originally posted by Exxtreme

Meinen derzeitigen Informationen nach wird weder der Parhelia noch der NV30 performancemässig was gegen die R300 ausrichten können. Es könnte sich aber wieder ändern.


Da weiss ich aber ganz anderes ;)

Exxtreme
2002-05-30, 15:01:06
Originally posted by Kai


Da weiss ich aber ganz anderes ;)
Wird ein heisser Herbst dieses Jahr, gell?
;)

Gruß
Alex

nocturne
2002-05-30, 15:04:42
Originally posted by Kai
Da weiss ich aber ganz anderes ;)

Dann erzähl doch... ;)

Quasar
2002-05-30, 16:37:53
Thema Parhelia:

Nach anfänglicher Skepsis (nicht wegen der Screenies, aths!) muss ich sagen, daß mir dieses Teil mehr und mehr sympathisch wird.

IMHO in etwa vergleichbar mit einer Shelby Cobra oder Dodge Viper: Sauteuer, elend hoher Verbrauch und fährt noch nichtmal schneller als ein normaler Porsche.

Dafür aber Hubraum satt, Drehmoment satt, Sound satt und einfach ein gewisses Extra, daß der andere nicht hat....rational ließe sich die Entscheidung für so ein Teil kaum begründen, aber emotional mit Sicherheit.

ernesto.che
2002-05-30, 17:01:44
Originally posted by Quasar
Thema Parhelia:

Nach anfänglicher Skepsis (nicht wegen der Screenies, aths!) muss ich sagen, daß mir dieses Teil mehr und mehr sympathisch wird.

IMHO in etwa vergleichbar mit einer Shelby Cobra oder Dodge Viper: Sauteuer, elend hoher Verbrauch und fährt noch nichtmal schneller als ein normaler Porsche.

Dafür aber Hubraum satt, Drehmoment satt, Sound satt und einfach ein gewisses Extra, daß der andere nicht hat....rational ließe sich die Entscheidung für so ein Teil kaum begründen, aber emotional mit Sicherheit.

sounds like voodoo:D

Quasar
2002-05-30, 17:03:20
Nein, sounds like Parhelia. Voodoo-HW ist veraltet und tot, es gibt keine aktuellen Treiber und moderne Features werden auch nicht unterstützt. Außerdem ist sie waaayy to slow, mittlerweile.

Richthofen
2002-05-30, 17:06:43
"
Sehe ich genauso. Das hat die guten ziemlich zurückgeworfen.
"

Naja ziemlich halte ich für ein bisschen übertrieben. Bis jetzt sind die Unterschiede marginal am Ende entscheided die Performance.
Du musst das einfach aus Sicht des Managements sehen.
Weiter nur Desktop Grakas puschen und dafür nen Wachstum von lächerlichen 5% an den Tag legen oder Desktop bissl langsamer treten und dafür mit nForce, X-Box und bald auch Sound Wachstum von 20% und mehr hinlegen.
Am Ende wollen die Anleger Rendite sehen und nicht wissen ob nun der R300 2 Monate vor dem NV30 kommt :)
Wenn die anderen Bereiche, bei denen man von 0 angefangen hat mal am laufen sind kannst dich auch wieder mehr auf Desktop Graka konzentrieren. Ich glaub sogar das NV 2003 auf Personaleinkaufstour gehen wird. Die brauchen einfach massig Leute und anscheinend gibts ja wieder paar Fähige bei anderen Firmen die man abwerben kann.

nagus
2002-05-30, 17:59:54
Originally posted by Exxtreme

Meinen derzeitigen Informationen nach wird weder der Parhelia noch der NV30 performancemässig was gegen die R300 ausrichten können. Es könnte sich aber wieder ändern.

Gruß
Alex


hi


welche "infos" sind das genau gesagt??

nagus
2002-05-30, 18:03:31
Originally posted by Richthofen


Übrigens hat der NV CEO gestern in der Merrill Lynch Hardware Konferenz bestätigt das der NV30 im August vorgestellt wird und ein komplettes Neudesign verglichen mit der GF4 ist.
Ich denke mal im Laden sind die Teile vor dem wichtigen Weihnachtsgeschäft aber noch nicht im Sommer. Ich schätze so Oktober / November.




da muß ich dich leider korrigieren: diese konferenz war nicht "gestern" sonder vor ca. 3 wochen...

nggalai
2002-05-30, 18:13:56
Woah, da kriegte einer wohl keine Corn Flakes zum Frühstück:I can't speak for John Carmack. What I can tell you is that John is a long-time supporter of NVIDIA and Doom III is being designed with NVIDIA graphics in mind. The first two public showings of DOOM III were done on NVIDIA GF3 and GF4 hardware (spreading the love?). John is on the record in his dot plan file as saying that id's primary development platform is on NVIDIA hardware and NVIDIA's OpenGL drivers are his "gold standard". When Doom 3 is ready to ship, our next generation architecture, known as NV30, will provide the ultimate platform for DOOM III and deliver the game the way it's meant to be played. No question about it. Besides, we have the four fastest products on the market right now (GF4 Ti 4600, 4400, 4200 128MB and 4200 64MB) and have little to gain by pushing our fall part. That said, we feel very good about our product offering for the fall. Brian Burke, PR-Manager nVIDIA, zitiert auf http://www.beyond3d.com/#news1120

Recht aggressiv. Brian wurde wohl wegen Carmacks Statement / dem MSNBC-Artikel recht zugemailt . . .

Hatte ich das mit "NDA" und "MSNBC" "Anwälte" schon erwähnt? ;)

ta,
-Sascha.rb

Quasar
2002-05-30, 18:16:12
:lol:

Dem hat's wohl gehörig die Suppe verhagelt...

Und es dürften ein paar recht unfreundliche Worte zwischen nV und JC hin- und hergeflossen sein :D

Exxtreme
2002-05-30, 18:22:34
Originally posted by nagus



hi


welche "infos" sind das genau gesagt??
Kann ich nicht sagen sonst könnte jemand Ärger bekommen. Grob geschätzt ist die R300 im jetzigen Stadium rund bis zu 2x so schnell als eine R200 je nach Test. Und dazu sage ich, daß der anisotrope Filter einen winzigen Geschwindigkeitsverlusst mit sich bringen wird.

Gruß
Alex

skampi
2002-05-30, 18:27:21
Originally posted by Quasar
:lol:

Dem hat's wohl gehörig die Suppe verhagelt...

Und es dürften ein paar recht unfreundliche Worte zwischen nV und JC hin- und hergeflossen sein :D

Ist schon ein Verräter, der JC...

Originally posted by Exxtreme

...rund bis zu...


...auch sehr lustig.:) So schwammig wie die 50%-Geschichte vom DetoXP.

Quasar
2002-05-30, 18:31:25
Originally posted by Exxtreme

Grob geschätzt ist die R300 im jetzigen Stadium rund bis zu 2x so schnell als eine R200 je nach Test.

Hehehe...dann kann er ja nicht so dolle sein. Eine GF3 war immerhin rund bis zu 7x schneller als eine GF2 ;)

nagus
2002-05-30, 18:34:56
Originally posted by Exxtreme

Kann ich nicht sagen sonst könnte jemand Ärger bekommen. Grob geschätzt ist die R300 im jetzigen Stadium rund bis zu 2x so schnell als eine R200 je nach Test. Und dazu sage ich, daß der anisotrope Filter einen winzigen Geschwindigkeitsverlusst mit sich bringen wird.

Gruß
Alex


hast du vielleicht insider infos bezüglich der taktfrequenz?

wenn du sagt 2x schneller als ne R200 ( ... alpha board mit vielleicht 200mhz ... grob geschätzt )

mit wieviel mhz wird dann aller voraussicht nach die FINAL R300 laufen?

btw, kannst du uns etwas über das neue, (vielleicht) verbesserte smoothvision (2) sagen?

wird es höhere FSAA stufen geben? ( vielleicht 8x FSAA??)


danke im voraus

nagus
2002-05-30, 18:39:22
Originally posted by Quasar


Hehehe...dann kann er ja nicht so dolle sein. Eine GF3 war immerhin rund bis zu 7x schneller als eine GF2 ;)


den schwachsinn hab ich auch gelesen. am schluss waren es bei damals aktuellen spielen vielleicht 30%. meistens weniger!

Exxtreme
2002-05-30, 18:40:06
Originally posted by Quasar


Hehehe...dann kann er ja nicht so dolle sein. Eine GF3 war immerhin rund bis zu 7x schneller als eine GF2 ;)
Diese Infos habe ich aber nicht aus irgendeinen Whitepaper von ATi. Auf jeden Fall werden sich ATi-Fans freuen über das Teil.

@ nagus
Über SV2 und die jetzigen und endgültigen Taktfrequenzen weiss ich leider nichts. Aber über das SV2 kannst du dir selbst ein Bild machen.

Gruß
Alex

nagus
2002-05-30, 18:44:38
Originally posted by Exxtreme

Diese Infos habe ich aber nicht aus irgendeinen Whitepaper von ATi. Auf jeden Fall werden sich ATi-Fans freuen über das Teil.

@ nagus
Über SV2 und die jetzigen und endgültigen Taktfrequenzen weiss ich leider nichts. Aber über das SV2 kannst du dir selbst ein Bild machen.

Gruß
Alex


schaut aus wie ein waschbecken aus DOOM 3.

woher willst du wissen, dass die DOOM3 screenshots mit SV2 gemacht worden sind? immerhin ist es bei den spielehersteller gang und gebe die screenshots nachzubearbeiten.


mfg, nagus

PS: kannst du uns nicht sagen, woher du die infos hast?

Exxtreme
2002-05-30, 18:49:11
Es ist das Waschbecken aus D3. Nur ist es IMHO unmöglich einen AA-Effekt _nachträglich_ in ein Bild einzufügen. Du müsstest schon Bilder in einer sehr viel höheren Auflösung zur Verfügung haben um solche Effekte zu erzeugen.

Gruß
Alex

Quasar
2002-05-30, 18:51:17
Originally posted by nagus



den schwachsinn hab ich auch gelesen. am schluss waren es bei damals aktuellen spielen vielleicht 30%. meistens weniger!

Tja, sowas aber auch ;)

@Exxtreme:
Da du schon nichts genaues über deine Quelle sagen kannst, eine andere Frage: Diese 2x schneller, wie häufig tritt dein "rund bis zu" auf? Eher in wenigen, teils konstruierten Situationen oder ist es eher der gute Durchschnitt?

Exxtreme
2002-05-30, 18:56:57
Originally posted by Quasar


Tja, sowas aber auch ;)

@Exxtreme:
Da du schon nichts genaues über deine Quelle sagen kannst, eine andere Frage: Diese 2x schneller, wie häufig tritt dein "rund bis zu" auf? Eher in wenigen, teils konstruierten Situationen oder ist es eher der gute Durchschnitt?
Da weiss ich leider auch nichts genaues. Mir wurde aber gesagt, daß es sich _nicht_ um irgendwelche synthetische Low-Level-Tests gehandelt hat. Ausserdem reden wir sowieso über ungelegte Eier. Bei der Verkaufsversion dürfte sich noch Einiges ändern.

Gruß
Alex

nagus
2002-05-30, 19:00:42
Originally posted by Exxtreme

Da weiss ich leider auch nichts genaues. Mir wurde aber gesagt, daß es sich _nicht_ um irgendwelche synthetische Low-Level-Tests gehandelt hat. Ausserdem reden wir sowieso über ungelegte Eier. Bei der Verkaufsversion dürfte sich noch Einiges ändern.

Gruß
Alex



wenn das annähern stimmt, dass die R300 ca. 2X so schnell ist wie eine normale 8500... haut mich dass nicht unbedingt vom hocker, muß ich ehrlich sagen.

Exxtreme
2002-05-30, 19:04:34
Originally posted by nagus

wenn das annähern stimmt, dass die R300 ca. 2X so schnell ist wie eine normale 8500... haut mich dass nicht unbedingt vom hocker, muß ich ehrlich sagen.
Ich fürchte du hast was falsch verstanden. Die R300 soll "im jetzigen Stadium" _bis_ zu 2x schneller sein. Und zum Release sind es noch ein Paar Wochen. Da kann sich Vieles ändern.

Gruß
Alex

nagus
2002-05-30, 19:15:27
Originally posted by Exxtreme

Ich fürchte du hast was falsch verstanden. Die R300 soll "im jetzigen Stadium" _bis_ zu 2x schneller sein. Und zum Release sind es noch ein Paar Wochen. Da kann sich Vieles ändern.

Gruß
Alex


stimmt, da hast du natürlich recht.


außerdem: R200 3DMark2001: ~ 9000
beta R300 ---"------: ~ 18000

Quake3 1600x1200
R200 ~ 100fps
R300 ~ 200fps

... plus nochmal 30% mit final board und final treiber ->> GEIL!!


ist zwar ne ziehmliche milchmädchenrechnung, aber wenn dass annähernd stimmt, ist die R300 ~ 2X schneller als ne Geforce 4 TI4200


wobei ich noch anmerken darf, dass die 8500 bei Serious Sam 2 schneller ist als die TI4400 ... nur so am rande: http://www.hardocp.com/images/articles/1022213969caRtNalNRP_3_1.gif

andererseits hoffe ich, das dass HIER: http://www.hardocp.com/images/articles/1022213969caRtNalNRP_3_4.gif ... nur ein treiberproblem ist. ( GF3 settings!!!! )

Quasar
2002-05-30, 19:45:14
Daß die Radeon mit AF nicht so viel Leistung verliert, solltest du aber gewusst haben, nagus. BTW ist bei HardOCP eine 128MB-Radeon im Test...

Exxtreme
2002-05-30, 19:49:34
Originally posted by nagus

andererseits hoffe ich, das dass HIER: http://www.hardocp.com/images/articles/1022213969caRtNalNRP_3_4.gif ... nur ein treiberproblem ist. ( GF3 settings!!!! )
DroneZ ist ausschliesslich auf die GF3/4Ti-Serie optimiert. Deswegen ist dieser Benchmark eigentlich irrelevant.

Gruß
Alex

Razor
2002-05-30, 20:01:28
Tja liebe Leutz...
Zum Thema John Carmak, Doom3, ATI und Co hab' ich da auch noch was hübsches aus dem B3D-Forum !
(Gruß an nggalai, der diesen Thread kennen wird ;-)

Der ganze Thread ist hier zu finden und der leibe Reverend dürfte auch einigen beaknnt sein:
http://64.246.22.60/~admin61/forum/viewtopic.php?t=1114

Und hier mal der initiale Post von Rev, den ich einfach mal so stehen lassen möchte:
(das fett Gedruckte sind die Antworten von JC)
Instead of posting a reply to this thread (http://www.beyond3d.com/forum/viewtopic.php?t=1101&start=175) where I said I received an email reply from JC, I'm starting a new one.

I'd asked JC three specific questions. Here are his answers :

Regarding the seemingly low-poly models (from the screenshots), shadow volume lighting and how they relate to his engine. I said that his engine may slow down if higher polies are used and if ATI's TruForm may help out :


The game characters are between 2000 and 6000 polygons. Some of the heads do look a little angular in tight zooms, so we may use some custom models for cinematic scenes.

Curving up the models with more polygons has a basically linear effect on performance, but making very jagged models with lots of little polygonal points would create far more silhouette edges, which could cause a disproportionate slowdown during rendering when they get close.

TruForm is not an option, because the calculated shadow silhouettes would no longer be correct.


Regarding higher precision rendering on a Radeon 8500 vis-a-vis a GF3/GF4Ti. I stated the obvious difference (like JC didn't know it, bleh!) in this aspect between the two and how, during combining, the 8500 allows for better dynamics in lighting. The question was if this would be an influence in how DOOM3 would look depending on the board used :


At the moment, it has no impact. The DOOM engine performs some pre modulation and post scaling to support arbitrarily bright light values without clamping at the expense of dynamically tossing low order precision bits, but so far, the level designers aren't taking much advantage of this. If they do (and it is a good feature!), I can allow the ATI to do this internally without losing the precision bits, as well as saving a tiny bit of speed.


Regarding his publicly-stated (but somewhat veiled) "complaint" (re GF3/GF4Ti vs 8500) about multiple passes based on the number of texture accesses he needs (7, as he stated) and that although the 8500 should, in theory/based-on-specs, be faster but somehow the GF3/GF4Ti is "consistently" faster even with 2 or 3 passes (compared to the single one on a 8500). My question was whether the 8500 may have a problem in terms of latency even if its single shader does all the work (bandwidth savings accepted as well) :


No, latency should not be a problem, unless they (JC's talking about ATI's 8500) have mis-sized some internal buffers. Dividing up a fixed texture cache among six textures might well be an issue, though. It seems like the nvidia cards are significantly faster on very simple rendering, and our stencil shadow volumes take up quite a bit of time.

Several hardware vendors have poorly targeted their control logic and memory interfaces under the assumption that high texture counts will be used on the bulk of the pixels. While stencil shadow volumes with zero textures are an extreme case, almost every game of note does a lot of single texture passes for blended effects.


I have more questions for JC (based on his replies, solely) but I will wait a day before sending them off to him in case some of you also have some questions for him... I will wait a day and include whatever (good and reasonable, as I deem them to be) questions you folks may have... and hope he replies to me again! Questions such as "Do you have a NV30?" (he doesn't, or didn't leading up to E3, btw ) or "If you have a NV30, how does it compare to the R300?" will be skipped.
_________________
Reverend
Beyond3D
3DPulpit
'Nett', nicht wahr ?

Muß jetzt los, meine Freundin abholen...
Bin mal gespannt, was Ihr dazu sagt !

Bis denne

Razor

Birdman
2002-05-30, 21:07:55
Originally posted by Exxtreme

Kann ich nicht sagen sonst könnte jemand Ärger bekommen. Grob geschätzt ist die R300 im jetzigen Stadium rund bis zu 2x so schnell als eine R200 je nach Test. Und dazu sage ich, daß der anisotrope Filter einen winzigen Geschwindigkeitsverlusst mit sich bringen wird.


Wenn aber das Anisotrope Filtering die selbe schlechte Qualität aufweist wie beim R200, kann mir die karte gestohlen bleiben...ein solchen Stück hardware gehörte imho im jahre 2002/2003 auf den Müll.

Kai
2002-05-30, 22:52:57
Originally posted by Exxtreme

Wird ein heisser Herbst dieses Jahr, gell?
;)

Gruß
Alex

*ZITTER* jaaaaaaaaaahaaaaaa ... Mir dreht sich schon alles im Magen rum. Will jetzt endlich das die Karten auf den Tisch gepappt werden ;) (In zweierlei übertragenem Sinne)

nagus
2002-05-30, 23:03:38
Originally posted by Birdman


Wenn aber das Anisotrope Filtering die selbe schlechte Qualität aufweist wie beim R200, kann mir die karte gestohlen bleiben...ein solchen Stück hardware gehörte imho im jahre 2002/2003 auf den Müll.


schlechte qualität würde ich nicht unbedingt sagen. sicher schlechter als GeFoce, aber in punkto leistung und bildqualität doch ein sehr guter kompromiss.

@Exxtreme: kannst du uns vielleicht sagen, ob die R300 besseres AF kann??

Exxtreme
2002-05-30, 23:13:30
Originally posted by nagus


@Exxtreme: kannst du uns vielleicht sagen, ob die R300 besseres AF kann??
Nach meinen Informationen kann die R300 aniso + trilinear und winkelunabhängig filtern also wie die GF3/4Ti-Serie nur daß der Geschwindigkeitsverlusst sich sehr in Grenzen halten wird.

Gruß
Alex

Kai
2002-05-30, 23:13:53
Originally posted by nagus


@Exxtreme: kannst du uns vielleicht sagen, ob die R300 besseres AF kann??

Kommmt drauf an wie man "besseres AA" definiert. Ich glaube, Ceiser hatte da mal was zu gesagt, wenn ich mich nicht irre.

aths
2002-05-30, 23:24:58
Viele scheinen schon mit AF á la R200 ganz gut leben zu können.

Birdman
2002-05-30, 23:36:56
na ja, ich möcht zumindest nen Umschalter, wie auch schon mal irgendwo gefordert.
Bei einigen Games reicht die jetzige ATi methode aus, und da könnt man auch in zukunft dabei bleiben...bei high speed versteht sich.
Und wenn ein game damit mal scheisse ist, schaltet man auf quality und verliert halt nen happen fps.

nagus
2002-05-31, 00:04:37
Originally posted by Exxtreme

Nach meinen Informationen kann die R300 aniso + trilinear und winkelunabhängig filtern also wie die GF3/4Ti-Serie nur daß der Geschwindigkeitsverlusst sich sehr in Grenzen halten wird.

Gruß
Alex


SEHR GEIL!


btw, was haltet ihr davon?: http://www.rage3d.com/board/showthread.php?threadid=33620143

Quasar
2002-05-31, 00:21:12
Originally posted by nagus
btw, was haltet ihr davon?: http://www.rage3d.com/board/showthread.php?threadid=33620143

...das würde zumindest erklären, warum sie DOOM III nicht in High Quality zum laufen bekommen haben: Es gibt noch keine Doom3-Treiber von ATi.

edit:
Und daß eine R250 mit kolportierten 350MHz schneller als eine Ti4600 wäre, würde mich auch nicht wundern...Brute Force eben.

Kai
2002-05-31, 00:38:33
Originally posted by Quasar


...das würde zumindest erklären, warum sie DOOM III nicht in High Quality zum laufen bekommen haben: Es gibt noch keine Doom3-Treiber von ATi.[/i]

Roffel ;D

Iceman346
2002-05-31, 01:45:24
Originally posted by aths
Viele scheinen schon mit AF á la R200 ganz gut leben zu können.

Ich komme damit eigentlich ganz gut klar. Da es sehr wenig Performance kostet habe ich es ständig angeschaltet sowohl in D3D als auch in OGL. Bei Quake 3 sieht man deutlich die Mip Map Ränder, was eher schlecht aussieht. Bei den meißten anderen Spielen (Morrowind, DAoC, Anachronox, JK2) fällt es dagegen garnicht auf.

nocturne
2002-05-31, 02:26:48
Originally posted by Quasar
...das würde zumindest erklären, warum sie DOOM III nicht in High Quality zum laufen bekommen haben: Es gibt noch keine Doom3-Treiber von ATi.

Aber wenn man dann das Programm in "Dumm3" umbenennt, zeigt der Benchmark nur noch halb so viele fps an. ATI wird das dann "Optimierung zum Wohle der Gamer" nennen.

*eg*

nocturne
2002-05-31, 02:29:26
Originally posted by Razor
Muß jetzt los, meine Freundin abholen...
Bin mal gespannt, was Ihr dazu sagt !


Keine Ahnung, poste mal ein Foto von ihr. :naughty:

Haarmann
2002-05-31, 09:34:09
Iceman

Das Banding kann man rel einfach "entsorgen" ;) Dann siehts besser aus. Q3 hat das Banding eben absichtlich eingebaut.

Quasar
2002-05-31, 10:12:07
Reverend, der das kurze "Interview", welches nggalai zitierte, geführt hat, sagte noch folgendes im B3D-Forum:

:
2. He mentioned that the R300 beat a "very high speed GF4" in every test but was it vastly superior or just slighty. How fast was this GF4 (assuming it isn't Nvidia's next refresh)?

I can answer that here and now - it is a currently available GF4Ti, the R300 is not significantly faster than a GF4Ti at default settings but takes a larger lead when "anisotropic filtering" (as the term applies to the R300 and the GF4Ti's individual, and therefore different, implementations) is used.

Carmack isn't too concerned about "relatively unimportant extras" like a hardware's anisotropic filtering and/or FSAA, as expected of most any developer.

wenn das stimmen sollte....oha!

Exxtreme
2002-05-31, 11:15:48
Originally posted by Quasar
Reverend, der das kurze "Interview", welches nggalai zitierte, geführt hat, sagte noch folgendes im B3D-Forum:


I can answer that here and now - it is a currently available GF4Ti, the R300 is not significantly faster than a GF4Ti at default settings but takes a larger lead when "anisotropic filtering" (as the term applies to the R300 and the GF4Ti's individual, and therefore different, implementations) is used.

Carmack isn't too concerned about "relatively unimportant extras" like a hardware's anisotropic filtering and/or FSAA, as expected of most any developer.

wenn das stimmen sollte....oha!
Also ich sehe es _im Moment_ nicht so kritisch. Die R300 incl. Treiber dürfte sich z.Zt. im Pre-Beta-Stadium befinden. Da kann sich im Laufe der Zeit noch vieles ändern. Es sind ja noch Monate bis zur Veröffentlichung.

Gruß
Alex

Quasar
2002-05-31, 11:19:08
Das ist richtig, aber dann wird's schon etwas enger mit der Konkurrenz à la Parhelia und nV30. P10 laß ich jetzt absichtlich mal außen vor, imo zu "allgemein" um wirklich schnell zu sein.

Kai
2002-05-31, 11:37:28
Ui, hätte nicht gedacht das JC das jetzt schon rausposaunt.

Quasar
2002-05-31, 11:44:12
Vorsicht!
Diese Äußerung ist nicht von JC, sondern von Reverend, der auch explizit in einem späteren Posting als Quelle nicht JC angibt!

Kai
2002-05-31, 12:35:27
Dieser Hirni. Soweit ich weiss sollte das noch gar nicht bekannt werden. Naja, nu isses eh zu spät. Der Reverrend posaunt in letzter Zeit ganz schön viel rum.

jedi
2002-05-31, 16:09:28
Originally posted by nocturne


Aber wenn man dann das Programm in "Dumm3" umbenennt, zeigt der Benchmark nur noch halb so viele fps an. ATI wird das dann "Optimierung zum Wohle der Gamer" nennen.


:lol: :D :lol:

Mehr als für Dumm3 und 3DMark2003 werden sie ihre Treiber sowieso nicht "optimieren". ;)

Quasar
2002-05-31, 16:16:59
Originally posted by Kai
Dieser Hirni. Soweit ich weiss sollte das noch gar nicht bekannt werden. Naja, nu isses eh zu spät. Der Reverrend posaunt in letzter Zeit ganz schön viel rum.

Ich liiiiiebe es, kein NDA zu haben und frei über alles spekulieren zu dürfen und alle Quellen zitieren zu können, ohne daß irgendjemand mir emails mit Adressen von Rechtsanwälten schickt...

Kai
2002-05-31, 16:56:06
Gegen spekulieren sagt ja keiner was. Der Reverrend hat aber auch Insider-Einsichten. Ist also eigentlich sicher zu sagen das NDA's gewisser Personen bereits gebrochen wurden - woher soll er sonst solche Info's haben?!

Naja, kann sich halt nicht jeder leisten. Ich hab aus der UT2003 Sache gelernt und bringe da jetzt auch niemanden mehr in Schwulitäten ... sonst sacht mir am Ende kein Schwein mehr was und das halt' ich nicht aus ;)

Quasar
2002-05-31, 17:03:30
Hm, wenn de n NDA hast, solltest du aber auch lieber vorsichtig sein mit Spekulationen, die definitiv nichts mit dem NDA direkt zu tun haben....manche Firmen sind da sehr....strikt.

Kai
2002-05-31, 17:08:39
Iiich? Ich hab kein NDA ... so wichtig wäre ich gerne mal :D Sagen wir mal so ... ich kenne jemanden der eins hat, es aber nicht so genau damit nimmt :lol:

Quasar
2002-05-31, 17:44:23
Dazu muss man nicht wichtig sein. Schick 'ne Mail an einen beliebigen HW-Hersteller, sage, du willst 'n Review/Preview/Sonstwas schreiben und hättest gern Vorab-Infos. Zack, haste n NDA am Hals.

Exxtreme
2002-05-31, 17:49:01
Wenn ich mich nicht irre, muss man vorher ein NDA unterschreiben, oder nicht? Einen Maulkorb können die HW-Hersteller nicht so einfach verpassen - das wäre gegen das Recht auf freie Meinungsäusserung.

Gruß
Alex

nggalai
2002-05-31, 17:58:51
Hi there,

hier mal als Beispiel, wie eine NDA in etwa aussieht. Ich habe einiges ersetzt . . . will ja nicht gleich eine NDA brechen, indem ich eine NDA publiziere. ;)NON-DISCLOSURE AGREEMENT


This agreement is made as of the [DATE] by and between:
[COMPANY] located in [ADDRESS], hereinafter referred to as the Discloser, and
[CONTRACT PARTNER] located in [ADDRESS], hereinafter referred to as the Recipient.


This Agreement shall govern the conditions of disclosure by the Discloser to the Recipient of certain "Confidential Information" including but not limited to prototypes, drawings, technology, data, know-how, samples, trade secrets and intellectual property of a confidential nature invented or provided by the Discloser.

With regard to the Confidential Information, the Recipient hereby agrees:

1) Not to use the information therein except for evaluating the Recipient's interest in entering a business relationship with the Discloser, based on the disclosed information.

2) To safeguard the information against disclosure to others with the same degree of care as exercised with the Recipient's own information of a similar nature.

3) Not to disclose the information to others, without the express written permission of the Discloser, except that:

a) which the Recipient can demonstrate by written records was previously known;

b) which are now, or become in the future, public knowledge other than through acts or omissions of the Recipient;

c) which are lawfully obtained by the Recipient from sources independent of the Discloser;

4) That the Recipient shall not directly or indirectly acquire any interest in, or design, create, manufacture, sell or otherwise deal with any item or product, containing, based upon or derived from the information, except as may be expressly agreed to in writing by the Discloser.

5) That the secrecy obligations of the Recipient with respect to the information shall continue for a period ending 3 years from its effective date.

6) That the Recipient is aware of the penalty clause which applies in case of violation of this Agreement. The penalty clause entitles the Discloser to fine the Recipient with a fine of no less than € 500,000.--. Additional financial recompensations resulting from the violation of this Agreement are not included and will be claimed seperately.

The Discloser will be entitled to obtain an injunction to prevent threatened or continued violation of this Agreement, but failure to enforce this Agreement will not be deemed a waiver of this Agreement.

IN WITNESS WHEREOF the Parties have hereunto executed this Agreement as of the day and year first above written. This Agreement shall be governed by and construed in accordance with the laws of Switzerland.


For the Recipient:

By: _____________________________ Date: _____________

Title:___________________________


For the Discloser:

_____________________________
ta,
-Sascha.rb

Edit: Je nach Empfänger wird eine NDA natürlich angepasst--z.B. macht Punkt 1) für Hardware-Reviewer wenig Sinn, ausser, Du hast einen Amerikanischen Anwalt. ;) Auf alle Fälle gilt, dass es reicht, wenn auch nur gegen ein Punkt verstossen wird . . . .rb

Kai
2002-05-31, 18:01:02
Man muss es unterzeichnen.

nggalai
2002-05-31, 18:01:57
Und ja, eine NDA muss vorhergehend unterzeichnet werden, von beiden Parteien.

Allerdings kann man Informationen einfach so unter die Leute streuen, sofern man eine "Vertraulichkeits-Klausel" mit einbaut. Das wird vor Gericht schwieriger zu vertreten sein, falls es hart auf hart kommt. Je nach Gerichtsstand lacht sich der Richter krumm, oder wertet es gleichwertig mit einer ordentlichen NDA.

ta,
-Sascha.rb

Quasar
2002-05-31, 18:07:16
Natürlich muss man's unterschreiben...vorher kriegt man eben seine Infos nicht. Wollte nur drauf hinweisen, daß es nicht von besonderer Wichtigkeit zeugen muss, unter NDA zu stehen :D

Razor
2002-06-01, 07:45:11
NDA hin oder her...
Die wichtigsten Aussagen aus dem von mir zitierten 'Gespräch' zwischen Reverend und JC waren schlicht:

- Characters zwischen 2000 und 6000 Polys
- TruForm ist keine Option
- ein paar 'precision bits' gehen bei Nicht-8500+-Karten flöten, wenn "arbitrarily bright light values without clamping" benutzt würden, was bei derzeitigen Leveln aber nicht der Fall ist
- Fehler im Hardwaredesign der R8500 (mis-sized internal buffers) verursachen schlechte Performance (im Vergleich zu gf3/4ti die 'konsistet schneller' sind)
- fixiertrer Texture-Cache könnte ebenfalls ein Problem sein

Daraus folgen ebenso schlicht:

- Kein TruForm für neue ID-Engine
- Schlechte Performance der R8500 für Doom3

Ist doch mal eine definitive Aussage, oder nicht ?
:D

Razor

Exxtreme
2002-06-01, 08:50:29
Originally posted by Razor

- Schlechte Performance der R8500 für Doom3
Razor
Hast du eine R8500 mit Doom3 gebencht um diese Aussage treffen zu können?

Nix für ungut.

Gruß
Alex

Iceman346
2002-06-01, 09:20:13
Originally posted by Razor
- ein paar 'precision bits' gehen bei Nicht-8500+-Karten flöten, wenn "arbitrarily bright light values without clamping" benutzt würden, was bei derzeitigen Leveln aber nicht der Fall ist
- Fehler im Hardwaredesign der R8500 (mis-sized internal buffers) verursachen schlechte Performance (im Vergleich zu gf3/4ti die 'konsistet schneller' sind)
- fixiertrer Texture-Cache könnte ebenfalls ein Problem sein

Daraus folgen ebenso schlicht:

- Kein TruForm für neue ID-Engine
- Schlechte Performance der R8500 für Doom3

Ist doch mal eine definitive Aussage, oder nicht ?
:D

Razor

Wer lesen kann ist klar im Vorteil...

1. Ist es möglich das die Berechnungen die du in deinem ersten von mir gequoteten Punkt aufführst bei der Radeon in Hardware ausführen und damit nochmal etwas Geschwindigkeit rausholen.
2. Ist es nicht bewiesen das die Radeon dort einen Designfehler hat, dies war lediglich eine Spekulation von JC, es könnte genauso ein Treiberproblem sein.

Ganz ehrlich hätte ich einen solchen Flame Post von dir nicht erwartet... Von ow, Richthofen oder Nocturne jederzeit, aber ich dachte du könntest Englisch ;)

Razor
2002-06-01, 10:32:36
@exxtreme

Meine vielen Smilies erscheinen oft sinnlos, aber in letzter Zeit versuchte ich diese gezielt einzusetzen...
;-)

@Iceman346

Ok, ich geb's ja zu !
Wollte eine Reaktion auf die von mir zitierten Aussagen JC's provozieren...
Eigentlich stecken dort eine menge Aussagen, die auch einiges erklären würden.

Wen's interessiert:
Letzter Post auf Seite 5 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21139&perpage=20&pagenumber=5) dieses Threads !

Ansonsten...

Ad1:
"...saving a tiny bit of speed."
Insofern dies kein quantitativer, sondern eher ein qualitativer Vorteil ist.

Ad2:
Fakt ist, daß die R8500 mit SinglePass deutlich langsamer ist, als eine gf3/4ti mit mehreren.
Ob das (wieder mal) ein Treiber-Prob ist, vermag ich nicht zu sagen, aber ich denke schon, daß Freund JC da etwas nähere Info's zur Hardware-Implementierung der von ihm genutzten Buffer hat und auch näheres über das Caching-Verhalten der Karten unterrichtet ist. Wie sonst sollte er seine Engine optimal auf die verschiedenen Chip's abstimmen ?

-

Wie Du nun vielleicht mitbekommen hast, bin ich des Englischen durchaus mächtig und wüde nun ganz gerne etwas mehr Kommentare zu dem von JC bekommen. In dem von mir genannten B3D-Tread (http://64.246.22.60/~admin61/forum/viewtopic.php?t=1114) tauchen übrigens auch noch eine Menge mehr an interessanten Dingen auf. Allerdings sollte man des englischen mächtig sein...
:D

Bis denne

Razor

Quasar
2002-06-01, 12:28:52
Originally posted by Exxtreme

Hast du eine R8500 mit Doom3 gebencht um diese Aussage treffen zu können?

Nix für ungut.

Gruß
Alex

Naja, wenn a) ein Next-Gen ATi-Chip für eine Medium-Quality-Präsentation benutzt wird, weil eine "hochgetaktete" GF4 TI zu langsam war, und b) JC sagt, die GF4Ti der schnellste momentan käufliche Chip für Doom3 ist (auch wenn die ATi Vorteile haben sollte, ist das eine durchaus logische Schlußfolgerung, oder?

BTW, hat Razor keine "Aussage getroffen", sondern eine Folgerung angestellt...

Quasar
2002-06-01, 12:31:47
Originally posted by Razor
Ad2:
Fakt ist, daß die R8500 mit SinglePass deutlich langsamer ist, als eine gf3/4ti mit mehreren.
Ob das (wieder mal) ein Treiber-Prob ist, vermag ich nicht zu sagen, aber ich denke schon, daß Freund JC da etwas nähere Info's zur Hardware-Implementierung der von ihm genutzten Buffer hat und auch näheres über das Caching-Verhalten der Karten unterrichtet ist. Wie sonst sollte er seine Engine optimal auf die verschiedenen Chip's abstimmen ?


Jetzt wo du's sagst....

Neulich gab's ja das nette Blockdiagramm zum Parhelia, der bei Pixelshadern mit mehr als 5 Ops seine 4 Pipes paarweise koppeln muss. aths erwähnte mal was, das GF3/4 auch sehr beschränkt seien in der Länge der PS-Ops.

Weiß jemand, wie's da mit der Radeon ausschaut? Wenn der Chip der Flaschenhals sein sollte, ist es natürlich wurscht, wieviele Passes er machen muss...

Demirug
2002-06-01, 12:47:41
Da ja sowohl die Radeon und die Geforce nur 2 TMUs haben können sie sich eigentlích im Texelbereich nicht viel schenken. Da zählt dann nur noch die Taktrate.


Wenn nun die Geforce und die Radeon auch noch die gleichen Texturecache Size haben ist die Geforce im Vorteil da bei nur 4 Texturen im Gegensatz zu 6 mit höhrer wahrscheinlichkeit ein Hit gelandet werden kann.


Die GeForce braucht aber mindestens 2 passes im gegensatz zur Radeon. Das kann aber die GeForce4 mit dem zweiten VS ausgleichen.

Darum scheint wirklich nur die Taktrate zu zählen.

Edit:
Die Geforce müsste die 8 ops eigentlich ohne Problem ausführen können da sie über 8 general combiner stages verfügt. Zum anderen wurde die PS1.0 doch von NVidia geschrieben. Darum denke ich mal das 8 ops genau der Geforce3 Fähigkeit entsprechen.

Quasar
2002-06-01, 13:00:24
Klingt logisch, obwohl aths Äußerungen meist auch Hand und Fuß haben...
edit:
Oder meinst du 2ops pro Pipe und 8 insgesamt? Das würde sich wieder mit aths Ansicht decken....

Richthofen
2002-06-01, 16:50:00
Um dem ganzen ein bisschen mehr Würze zu geben gibt es anscheinend hier ein paar Comments von J.C.
Habs bei NvNews verlinkt gefunden. K.a. ob das nun ein Faker oder er selbst ist der da gepostet hat.
Was in dem Post zusammengefasst dargelegt wird ist genau das was er in dem Gamespy Interview gesagt hat und wie ich und andere ihn auch verstanden haben.

Enige andere (ATI Fans oder nicht k.a.) haben da ganz konsequent das wichtigste Wort "should" im 1. Satz überlesen was nichts anderes sagt, das von der Theorie her die R8500 schneller als eine GF4 sein sollte aber es letztlich doch nicht ist, weil der interne Aufbau der GF4 wohl besser optimiert ist. Die ganze Betrachtung abseits der Treibergeschichten.

Kurz zitiert aus dem Forum Thread:

"
This batch of comments from me have let people draw conclusions that leave me scratching me head wondering how they managed to get from what I said to what they heard.

Other people have outlined the issues in detail in comments already, but the crux is that, even with driver quality removed from the discussion (not counting conformance issues, running at fill limited resolutions), GF4 hardware is still faster than 8500 hardware on basically everything I tested. The 8500 SHOULD have been faster on paper, but isn't in real life.

The hardware we used at E3 was not an 8500, and while the drivers were still a bit raw, the performance was very good indeed.

Take with a grain of salt any comment from me that has been paraphrased, but if it is an actual in-context quote from email, I try very hard to be precise in my statements. Read carefully.

John Carmack
"

Wer den ganzen Thread lesen will hier ist der Link:

http://slashdot.org/article.pl?sid=02/05/30/2151254

Ob das Post da nun von ihm ist oder nicht - wie gesagt keine Ahnung.
Das Gamespy Interview ist von ihm und das lässt nunmal nur einen Schluss zu:

Die GF4 Ti ist schneller als die Radeon8500 auch wenn diese pro Pass mehr Texturen auftragen kann.

Das sollte den ganzen Diskussionen doch nun eigentlich ein Ende setzen.

Quasar
2002-06-01, 17:25:01
Die Slashdot-Postings sind i.A. authentisch.

Hab's gestern abend irgendwo im Tech- oder Speku-Forum auch schon erwähnt...

Iceman346
2002-06-01, 19:56:02
Originally posted by Razor
Wie Du nun vielleicht mitbekommen hast, bin ich des Englischen durchaus mächtig und wüde nun ganz gerne etwas mehr Kommentare zu dem von JC bekommen. In dem von mir genannten B3D-Tread (http://64.246.22.60/~admin61/forum/viewtopic.php?t=1114) tauchen übrigens auch noch eine Menge mehr an interessanten Dingen auf. Allerdings sollte man des englischen mächtig sein...
:D

Bis denne

Razor

War auch nicht ganz ernst gemeint ;)

Xmas
2002-06-02, 05:04:01
Originally posted by Demirug
Die Geforce müsste die 8 ops eigentlich ohne Problem ausführen können da sie über 8 general combiner stages verfügt. Zum anderen wurde die PS1.0 doch von NVidia geschrieben. Darum denke ich mal das 8 ops genau der Geforce3 Fähigkeit entsprechen.
GeForce3/4 können selbstverständlich 8 Operationen ausführen (sonst wären sie nicht PS1.0-fähig), aber nicht in einem Takt!

Jede Pipeline besitzt zwei Combiner (Parhelia: 5), acht Ops brauchen also vier Takte, was bei 4 Pipelines auf 1 Pixel pro Takt rauskommt, während der Parhelia zwei pro Takt schafft.

Demirug
2002-06-02, 11:46:49
Originally posted by Xmas

GeForce3/4 können selbstverständlich 8 Operationen ausführen (sonst wären sie nicht PS1.0-fähig), aber nicht in einem Takt!

Jede Pipeline besitzt zwei Combiner (Parhelia: 5), acht Ops brauchen also vier Takte, was bei 4 Pipelines auf 1 Pixel pro Takt rauskommt, während der Parhelia zwei pro Takt schafft.

Du hast natürlich vollkommen Recht. Bei der Geforde 3/4 würde aber 5 ops pro Pipeline nicht so viel bringen da nur 2 TMUs zur Verfügung stehen. Bei Parhelia sehe ich (und zeckensack) aber schon wesentlich trivialere Problem mit DOOM III. Fehlende Unterstüzung des Pixelshaders in OpenGL.

Der Punkt bleibt aber bestehen das die Geforce trotz der Zweipass lösung schneller als die Radeon mit einem Pass ist. Das läst darauf schliessen das die Geforce pro Pass 2 Texel pro Takt (max 4 ops) und die ATi nur einen Texel pro Takt schaft.

Edit:
Wenn man die Pixelshader des Parhelia allerdings zum laufen bekommt und auf trilineares Filltern verzichtet dürfte das Teil um einiges schneller als ein R200 oder NV2x sein.

Quasar
2002-06-02, 12:30:19
Ehrlich gesagt glaube ich nicht, daß Matrox sich das Marketing-Instrument "Doom3" entgehen lassen wird. Das kann sich heute kein Hersteller leisten, daß das Spiel (sorry für dein Projekt, Demirug.. ;)) nicht in voller Pracht laufen sollte.

Eher werden sie dem Carmack einen zweistelligen Millionenbetrag zustecken, damit er D3 solange verzögert, bis er einen Codepath für die Parhelia eingezimmert hat...

Demirug
2002-06-02, 12:38:36
Originally posted by Quasar
Ehrlich gesagt glaube ich nicht, daß Matrox sich das Marketing-Instrument "Doom3" entgehen lassen wird. Das kann sich heute kein Hersteller leisten, daß das Spiel (sorry für dein Projekt, Demirug.. ;)) nicht in voller Pracht laufen sollte.


Ich hab schon in einem anderen Thread gesagt das wenn es nicht in voller Pracht läuft das eine definitive Verabschiedung von Matrox aus dem Gamesector wäre.

Wo ist das jetzt der Zusammenhang mit meinem Projekt???


Eher werden sie dem Carmack einen zweistelligen Millionenbetrag zustecken, damit er D3 solange verzögert, bis er einen Codepath für die Parhelia eingezimmert hat...

Oder sie bilden auf OpenGL Ebene einen Geforce3/4 nach. Zeckesack und ich waren uns da jedoch über die rechtlichen belange nicht so ganz sicher. Nach dem ich aber gerade noch einen Blick auf die OpenGL Extension Seite geworfen habe gehe ich davon aus das es rechtlich OK ist die Extension von anderen zu benutzten.

TBird
2002-06-02, 12:40:11
Originally posted by Quasar
(sorry für dein Projekt, Demirug.. ;))

Dürfte man erfahren an was für einem Projekt Du arbeitest Demirug ???

Avalance
2002-06-08, 22:57:38
Originally posted by Stefan Payne
:rofl:

GEIL, mehr ist dazu nicht zu sagen :naughty:

dazu zu sagen ist das das spiel doomIII nicht auf einer radeon8500-nachvolger karte ( R300 ) getestet wurde sondern auf UNBEKANNTER hardware build by ATI

das "kann" also sein (is also vorstellbar ) das doomIII bei diesem "gezocke" nicht auf einer Radeon8500/8800/9000 sondern auf ner andern ATI karte gelaufen is ( über die karte sind keine daten bekannt gegeben wurden, doomIII lief in medium quality ( nich in high ) )

das hab ich jednfalls aus ner mail von john carmack bei ner engl. site gelesen bzw noch so im kopf gehabt *gg*

Avalance
2002-06-08, 23:01:43
Originally posted by Demirug


Ich hab schon in einem anderen Thread gesagt das wenn es nicht in voller Pracht läuft das eine definitive Verabschiedung von Matrox aus dem Gamesector wäre.

Wo ist das jetzt der Zusammenhang mit meinem Projekt???



Oder sie bilden auf OpenGL Ebene einen Geforce3/4 nach. Zeckesack und ich waren uns da jedoch über die rechtlichen belange nicht so ganz sicher. Nach dem ich aber gerade noch einen Blick auf die OpenGL Extension Seite geworfen habe gehe ich davon aus das es rechtlich OK ist die Extension von anderen zu benutzten.

HAHAHHA
da sieht man das ihr keinen plan habt ;)

P10 von 3DLabs/Creative (ein neuer grafikchip) wird in openGL2.0 hammer ergebnisse liefern !!! grund: 3DLabs ist HAUPTZÄCHLICHER ENTWICKLER der Grafik API OpenGL2.0 und demzuvolge schliesse ich daraus das ATI und nVIDIA echtn prob haben werden ;) und die P10 derbe ergebnisse liefern wird ;)

*smile*
nachtrag:

ich geh davon aus das auf 3dlabs chips der dx9 generation diese games richtig derbe laufen werden da die firma seiten 3dlabs ein spitzen Treiber.engineer.team besitzt und auf seiten von creative helle köpfchen der marketing abteilung ( spenden an john )

ich geh auch davon aus das weder matrox, nvidia oder ati zu dieser zeit nen contra ( zB R300 Pharelia NV30 und p10 kommen zur gleichen zeit raus ... ) liefern kann, da sich die p10 in dx9 titeln abheben wird *hechel*

Demirug
2002-06-08, 23:23:09
Originally posted by Avalance
HAHAHHA
da sieht man das ihr keinen plan habt ;)


Erst 4 Beiträge und schon anfangen Leute zu beleidigen? :D


P10 von 3DLabs/Creative (ein neuer grafikchip) wird in openGL2.0 hammer ergebnisse liefern !!! grund: 3DLabs ist HAUPTZÄCHLICHER ENTWICKLER der Grafik API OpenGL2.0 und demzuvolge schliesse ich daraus das ATI und nVIDIA echtn prob haben werden ;) und die P10 derbe ergebnisse liefern wird ;)


Warum bringst du jetzt OpenGL 2.0 ins Spiel??? DOOM III ist nicht für OpenGL 2.0 programmiert. Zum anderen reden die Leute von 3dlabs auch mit ATi und NVidia. Wenn die beiden nicht bereit wären ebenfalls OpenGL 2.0 Treiber zu schreiben ist der Standard tot bevor er überhaupt offiziel wird.



ich geh davon aus das auf 3dlabs chips der dx9 generation diese games richtig derbe laufen werden da die firma seiten 3dlabs ein spitzen Treiber.engineer.team besitzt und auf seiten von creative helle köpfchen der marketing abteilung ( spenden an john )

ich geh auch davon aus das weder matrox, nvidia oder ati zu dieser zeit nen contra ( zB R300 Pharelia NV30 und p10 kommen zur gleichen zeit raus ... ) liefern kann, da sich die p10 in dx9 titeln abheben wird *hechel*

Ich glaube ich muss dich da enttäuschen in den wichtigen Kenngrössen kann sich der P10 nicht vom Parhelia absetzten. Und ATi und NVidia werden sich wohl in der gleichen Region bewegen.

Der P10 ist ein guter Chip er wird jedoch erst dann richtig "derbe ergebnisse" liefern wenn es OpenGL 2.0 Spiele bzw. Spiele für eine DX Version (wahrscheinlich 10) welche der Architecktur des P10 gerecht wird gibt. Nur werden bis dorthin auf NVidia, ATi und hoffentlich auch Matrox entsprechende Chips haben.

Fragman
2002-06-09, 12:53:35
mal sehen was jc ueber den p10 sagen wird, ob er einen eigenen renderpfad bekommt und ob doom3 dann anders aussieht, davon wird auch viel abhaengen, ob die architektur eine chance in naeherer zukunft hat. denn benchmarkmaessig wirds weitverbreitet sicher wieder ueberall nur doom3 benches geben (in der masse der hardware reviewer).

Demirug
2002-06-09, 13:01:33
Originally posted by Fragman
mal sehen was jc ueber den p10 sagen wird, ob er einen eigenen renderpfad bekommt und ob doom3 dann anders aussieht, davon wird auch viel abhaengen, ob die architektur eine chance in naeherer zukunft hat. denn benchmarkmaessig wirds weitverbreitet sicher wieder ueberall nur doom3 benches geben (in der masse der hardware reviewer).

Viel anders kann es nicht aussehen da man auch auf dem P10 nur den bereits erstellten Content benutzen kann.

Was die Benches angeht wird das wohl so sein. Zusätzlich wahrscheinlich noch einen neuen 3dMark.

zeckensack
2002-06-09, 13:30:06
Für mich stellt der P10 sowas ähnliches dar, wie damals die Geforce 1 -> nicht sofort wirklich nützlich, aber ein wegbereitender Meilenstein.

Der Vergleich hinkt andererseits (aus Marketing-Sicht) ziemlich:
Die Geforce 1 hatte damals zusätzlich zum 'einmaligen neuen Wahnsinnsfeature(TM)' auch eine im Vergleich zum Vorgänger und der gesamten Konkurrenz geradezu brutale Füllrate anzubieten. Innovation kann man eben (leider) nur über die pure Geschwindigkeit in 'alten' Spielen gut verkaufen.

Und da wird sich der P10 wohl seeeehr schwer tun gegen die Boliden von den beiden großen Mitbewerbern ;)

Demirug
2002-06-09, 13:50:21
@zeckensack:

Die Füllrate könnte beim P10 wirklich zum Problem werden. Allerdings weis noch niemand wir sich die Füllrate im Bezug auf die Complexität der Shader verhält. GF4 geht ja sehr schnell auf 2 bzw 1 Texel pro Takt runter. Hier könnte der P10 aufgrund seiner 16 Integer Zellen Pro Pipeline unter umständen mehr rausholen. Man müsste mal einen Test entwerfen der die Fillrate im Bezug auf unterschiedliche PS Programme analysiert.

Unregistered
2002-06-09, 19:25:07
seht das mal so

der R300 spielt ja nur in der GF4 Liga

der N30 ist ja schon wieder ganz eine andere Liga

gruß Mark

Lightning
2002-06-09, 20:39:02
Originally posted by Unregistered
seht das mal so

der R300 spielt ja nur in der GF4 Liga

der N30 ist ja schon wieder ganz eine andere Liga

gruß Mark

Hä? Ah ja klar, und die GeForce3 spielt in der Radeon 7500 Liga ;) :bonk:

Unregistered
2002-06-09, 22:26:27
die 8500 spielt in der Gf3 Liga

die 7500 ka gf2 mx ?

StefanV
2002-06-09, 23:28:16
Originally posted by Unregistered
die 8500 spielt in der Gf3 Liga

die 7500 ka gf2 mx ?

1. momentan über GF3
2. wohl eher GF2 PRO und höher, oder??

Richthofen
2002-06-10, 01:31:37
"
momentan über GF3
"
Kommt drauf an welche GF3 du meinst.
Bei ner Ti200 sicher.
Bei der Ti500 wird diese in mehr als 50% der Fälle besser abschneiden.
Daran ändern auch neue ATI Treiber nix.

zeckensack
2002-06-10, 04:27:36
Bezüglich Parhelia:
Originally posted by Demirug
Oder sie bilden auf OpenGL Ebene einen Geforce3/4 nach. Zeckesack und ich waren uns da jedoch über die rechtlichen belange nicht so ganz sicher. Nach dem ich aber gerade noch einen Blick auf die OpenGL Extension Seite geworfen habe gehe ich davon aus das es rechtlich OK ist die Extension von anderen zu benutzten. Es ist doch mittlerweile raus, daß Matrox tatsächlich den PS unter OpenGL anbietet???
Heißt dann sinnigerweise MTX_fragment_shader.
Wo stand das noch gleich ...
*kram*

edit:
Gefunden: http://www.beyond3d.com/forum/viewtopic.php?t=1158
Man beachte, daß Matrox teilweise auch ATI-Extensions benutzt. Ist ein feiner Zug, da sich dadurch der Aufwand für eine spezielle Parhelia-Anpassung auf den Fragment Shader (aka Pixel Shader) beschränkt.

Die eine NV-Extension ganz unten (NV_texgen_reflection) gibt's übrigens auch in ATI-Treibern.

Demirug
2002-06-10, 07:23:40
Originally posted by zeckensack
Bezüglich Parhelia:
Es ist doch mittlerweile raus, daß Matrox tatsächlich den PS unter OpenGL anbietet???
Heißt dann sinnigerweise MTX_fragment_shader.


Zu dem Zeitpunkt als ich das geschrieben haben hatte ich diese Information noch nicht.

zeckensack
2002-06-10, 07:32:55
Originally posted by Demirug


Zu dem Zeitpunkt als ich das geschrieben haben hatte ich diese Information noch nicht. Stimmt natürlich. Datumsvergleich: 2<3
Mein Fehler :bonk:
Jedenfalls wissen wir's jetzt, und es sieht gut aus :)

Kai
2002-06-26, 11:12:22
Sodele, jetzt isses raus:

Alle die nicht auf mich gehört haben schmeissen sich jetzt bitte kollektiv eine Klippe runter ;)

http://www.gamigo.de/?site=newsdetails&news_id=13869

Demirug
2002-06-26, 11:29:12
@Kai:

Und wer soll den ganzen Dreck dann wegmachen???:D

Iregendwie gewinne ich aber den Eindruck das JC jetzt langsam aber sicher am durchdrehen ist. Man erkennt doch eine gewisse Betriebsbildheit in letzter Zeit. Aussagen nach dem Muster es ist nicht gut für die DOOM III Engine also ist es schrott kommen im scheinbar sehr leicht über die Lippen. Er formuliert es zwar diplomatischer aber der Kontext bleibt der gleiche.

Kai
2002-06-26, 11:37:16
Finde ich nicht, er hat ja auch die Vorzüge der Parhelia erwähnt. Ausserdem wird JC sicher kein Statement darüber abgeben wie toll die Parhelia in 3DSMax oder Unreal Tournament 2003 abschneidet ;)

Naja, ich wusste es ja durch einen glücklichen Zufall schon ein bisschen früher, aber das sie so schlecht abschneidet wie in den Benches hätte ich nicht gedacht. Naja, was heisst "schlecht". Ist ja in heutigen Framerate-Zeiten sowieso eher unerheblich ... aber wie ich schon sagte: Nur für Doom3 brauch man keine 540€ für ne Parhelia rauszuschmeissen.

Demirug
2002-06-26, 11:44:04
@Kai:

Mein Fehler ich habe mich auf das Original bezogen und du hast nur einen deutsche Zusammenfassung angegegeben.

Es ging mir auch weniger um die Parhelia sondern um Technik und dabei um die im letzten Abschnitt erwähnten HOS Sachen.

Unregistered
2002-07-26, 09:42:11
*3xspam-lösch.rb*

Kellwolf
2002-07-26, 12:46:05
"Da weiss ich aber ganz anderes "

hehe du auch.....wird auf jeden Fall heiß der Herbst......