PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV basht ATI


Seiten : [1] 2 3

LovesuckZ
2004-05-25, 14:33:55
http://activefuse.qsurf.org/~floppy/nvidia/10.jpg

Weitere Folien (http://www.vrforums.com/showthread.php?postid=500147#post500147) befinde sich im VR-Zone Forum (http://www.vrforums.com/showthread.php?postid=500147#post500147)!

Fehlt eigentlich nur noch, dass ATi treiber rausgebe, welche neuer sind als die später veröffentlichten offiziellen, nicht zu vergessen, die Ungleichberechtigung bei den Filterunsgeinstellungen.

Uller
2004-05-25, 14:36:56
Und ich habe schon gedacht es wäre was lesenswertes :-(

Exxtreme
2004-05-25, 14:38:37
Hahaha, geil. ;D ;D ;D

Ich liebe sowas. :D

ow
2004-05-25, 14:43:12
ah...die guten internen Dokumente...:D

Leonidas
2004-05-25, 14:43:16
Was wäre der Markt ohne diese Bashings?


Nebenbei: Die Hälfte des NV-Personals stöhnt innerlich bei solchen Dingern. Aber es ist halt diese Hälfte des Personals, die nicht die Entscheidung darüber hat. ;)

ShadowXX
2004-05-25, 14:43:38
Sie sind ja fast noch nett..... :D

Ist bestimmt von den Leuten, die damals die KyroII Präsi gebastelt haben;D ;D

BlackArchon
2004-05-25, 14:44:16
Wie lustig. :)

Ich liebe solche 'internal documents', die nach außen dringen. ;D

Winter[Raven]
2004-05-25, 14:45:51
am besten finde ich immer noch die Anspielung auf Eminems "The real Slimshady please stand up" ^^.

http://activefuse.qsurf.org/~floppy/nvidia/7.jpg

Ist bestimmt von den Leuten, die damals die KyroII Präsi gebastelt haben

Dumm nur, dass alles Stimmt was in den PDF's steht, gelle?

LovesuckZ
2004-05-25, 14:46:37
Original geschrieben von BlackArchon
Ich liebe solche 'internal documents', die nach außen dringen. ;D

Sind keine "internal documents". Diese wurden bei der heutigen bzw. gestrigen conference call verwendet und gezeigt.

Exxtreme
2004-05-25, 14:47:41
Original geschrieben von LovesuckZ
Sind keine "internal documents". Diese wurden bei der heutigen bzw. gestrigen conference call verwendet und gezeigt.
Guckst du links unten in der Ecke.

LovesuckZ
2004-05-25, 14:48:43
Original geschrieben von Exxtreme
Guckst du links unten in der Ecke.

Ja, aber darum ging es aber in der conference call. Und wenn die dort die Folien rumgeben und Presseleute einladen, sollte es keinen Wundern, wenn diese veröffentlicht werden.

ShadowXX
2004-05-25, 14:51:20
Original geschrieben von Winter[Raven]
Dumm nur, dass alles Stimmt was in den PDF's steht, gelle?

War nur auf die Machart bezogen...nicht auf den Inhalt...

Für den Inhalt soll sich jeder selbst seine Meinung bilden...

Leonidas
2004-05-25, 14:53:01
Original geschrieben von Winter[Raven]
Dumm nur, dass alles Stimmt was in den PDF's steht, gelle?


Naja, das mit den Taktfrequenzen snd Fehldeutungen und Schreibfehler, bis auf THG.

Kakarot
2004-05-25, 14:53:53
http://www.vr-zone.com/?i=837&s=1


NVIDIA GeForce 6800 Series Updates

NVIDIA held a conference call for members of the press this morning. Apart from downplaying of ATi R420 architecture at the first half of the presentation slides, here are some latest updates on the GeForce 6800 GPUs :

GeForce 6800 Ultra and 6800 are shipping now. GeForce 6800 GT soon.
Shader Model 3.0 provides Full 32 bit Precision, Conditional Loops and Branches, Geometry Instancing, Dynamic Flow Control
64 bit floating point texture filtering and blending is necessary for high dynamic range effects and stunning visuals, the data format of choice for film (OpenEXR)
Superscalar architecture has large untapped upside (version 1.0 of superscalar compiler barely taps power of 6800 architecture)
ForceWare drivers just beginning to unleash the true power
Significant free performance increases in the coming months
350W PS is minimum requirement for 6800 Ultra
300W PS is minimum requirement for 6800 GT and 6800
Apparently, the best is yet to unleash from the 6800 series as claimed by NVIDIA.

Leonidas
2004-05-25, 14:54:15
Original geschrieben von LovesuckZ
Diese wurden bei der heutigen bzw. gestrigen conference call verwendet und gezeigt.



Der Call war für welche Personengruppe?

Kakarot
2004-05-25, 14:55:06
Original geschrieben von Leonidas
Der Call war für welche Personengruppe?
Presseleute iirc

Winter[Raven]
2004-05-25, 14:56:01
Original geschrieben von Uller
Und ich habe schon gedacht es wäre was lesenswertes :-(

Ist es doch, eine kleine aber feine Zusammenfassung der Sachen die am R420 "FAUL" sind.

[dzp]Viper
2004-05-25, 14:56:18
muah

ich würde mal gerne die typen sehen, die die folien machen und die dann mal fragen, ob die wirklich hinter dem stehen, was sie da schreiben oder ob sie das eher als "fun" machen X-D


Aber lustig sind die Folien wirklich :D

Leonidas
2004-05-25, 14:56:35
Original geschrieben von Winter[Raven]
Ist es doch, eine kleine aber feine Zusammenfassung der Sachen die am R420 "FAUL" sind.



Nach NV-Darstellung der Dinge ;)

[dzp]Viper
2004-05-25, 15:00:26
Original geschrieben von Winter[Raven]
Ist es doch, eine kleine aber feine Zusammenfassung der Sachen die am R420 "FAUL" sind.

ja nimm die folien ruhig ernst :D
Klar is das nicht unbedingt gelogen, aber die folien haben das Niveau einer Bildzeitung. Sie basieren auf falschinformationen und missinterpretationen (taktraten sind schreibfehler der seiten z.b.)

Es ist reines PR gehabe und ich finde eigentlich, dass sich die firmen die sowas auf einer pressekonferenz zulassen sich eher lächerlich machen (egal ob NV - ATI -Kyro - Intel - AMD - ....)

Jeder Mensch der einigermaßen klar denken kann, sieht, dass die folien absolut überzogen sind und reines PR material sind.

Demirug
2004-05-25, 15:00:47
Original geschrieben von Leonidas
Nach NV-Darstellung der Dinge ;)

Natürlich. Was am R420 gut ist hat uns ja schon ATI erzählt.

Jetzt brauchen wir noch die Presentation von ATI wo sie den NV40 schlecht machen und das Bild ist komplett.

Leonidas
2004-05-25, 15:00:52
Original geschrieben von [dzp]Viper
muah

ich würde mal gerne die typen sehen, die die folien machen und die dann mal fragen, ob die wirklich hinter dem stehen, was sie da schreiben oder ob sie das eher als "fun" machen X-D



Gemäß dem teilweise von Managern wirklich gelebtem Grundsatz "Geschäft ist Krieg" dürften das einige sicherlich todernst meinen.

Leonidas
2004-05-25, 15:02:01
Ich nehm mir mal die Freiheit, alle Folien hier abzubilden - man weiss ja nie, wie lange die noch vorhanden sind (Thread wurde für diesen Zeitpunkt kurz mal geschlossen):

1

Leonidas
2004-05-25, 15:02:30
2

Leonidas
2004-05-25, 15:02:54
3

Leonidas
2004-05-25, 15:03:17
4

Leonidas
2004-05-25, 15:03:32
5

Leonidas
2004-05-25, 15:03:44
6

Leonidas
2004-05-25, 15:03:58
7

Leonidas
2004-05-25, 15:04:09
8

Leonidas
2004-05-25, 15:04:20
9

Leonidas
2004-05-25, 15:04:32
10

Leonidas
2004-05-25, 15:05:10
Thread wieder offen.

Leonidas
2004-05-25, 15:06:20
Original geschrieben von Demirug
Jetzt brauchen wir noch die Presentation von ATI wo sie den NV40 schlecht machen und das Bild ist komplett.


Genau! Wir wollen jetzt auch mal ein zünftiges ATi-Bashing sehen!

deekey777
2004-05-25, 15:06:24
Original geschrieben von Demirug
Natürlich. Was am R420 gut ist hat uns ja schon ATI erzählt.

Jetzt brauchen wir noch die Presentation von ATI wo sie den NV40 schlecht machen und das Bild ist komplett.

Hehehe ;D

Diese Präsentation bzw. deren Niveau ist schon peinlich.

[dzp]Viper
2004-05-25, 15:07:01
Original geschrieben von Leonidas
Gemäß dem teilweise von Managern wirklich gelebtem Grundsatz "Geschäft ist Krieg" dürften das einige sicherlich todernst meinen.

achso - ja das kann sein...
Würde wirklich mal gerne die leute sehen :bäh:

Original geschrieben von Demirug
Jetzt brauchen wir noch die Presentation von ATI wo sie den NV40 schlecht machen und das Bild ist komplett.

bingo :up:

Die ATI Präsi wäre bestimmt nicht viel anders vom Stil her :)

Winter[Raven]
2004-05-25, 15:07:38
Jetzt brauchen wir noch die Presentation von ATI wo sie den NV40 schlecht machen und das Bild ist komplett.

Was will man den schlechtmachen?

- Stromverbrauch?
- Lüfter bzw. Kühlerkonstruktion?
- Nur 4x AA?

Also mir fällt da ned viel ein ^^.

DrumDub
2004-05-25, 15:07:45
:lolaway: damit nv mal wieder bewiesen, dass sie doch die bessere marketingabteilung haben. die zitate sind echt das beste. perfekt ausgesucht. (und natürlich aus dem zusammenhang gerissen.)

betasilie
2004-05-25, 15:07:49
Na, wer es nötig hat die Konkurrenz so zu bashen.

Da sieht man nur, dass NV sich scheinbar sorgen um das Geschäft macht. ;D

Kakarot
2004-05-25, 15:08:51
Original geschrieben von Demirug
Jetzt brauchen wir noch die Presentation von ATI wo sie den NV40 schlecht machen und das Bild ist komplett.
oder eine von S3 wo so richtig über ATis und nVidias "Fehlentwicklungen" (Bildqualtität etc.) abgeledert wird, das Ganze am besten präsentiert von aths und Endorphine. :D

betasilie
2004-05-25, 15:09:26
Original geschrieben von Winter[Raven]
Was will man den schlechtmachen?

- Stromverbrauch?
- Lüfter bzw. Kühlerkonstruktion?
- Nur 4x AA?

Also mir fällt da ned viel ein ^^.
Vielleicht damit, dass die ATI die schnelleren Karten baut. ;)

[dzp]Viper
2004-05-25, 15:09:50
Original geschrieben von Kakarot
oder eine von S3 wo so richtig über ATis und nVidias "Fehlentwicklungen" abgeldert wird, das Ganze am besten präsentiert von aths und Endorphione. :D

ui - da würden ATI und NV aber nicht ungeschoren davonkommen X-D
Oder wie wäre es mit einer Präsi von Matrox :D

LovesuckZ
2004-05-25, 15:09:53
Original geschrieben von betareverse
Na, wer es nötig hat die Konkurrenz so zu bashen.

Wahrheit <> bashen.

ow
2004-05-25, 15:11:01
Original geschrieben von deekey777
Hehehe ;D

Diese Präsentation bzw. deren Niveau ist schon peinlich.

Was bitte ist daran peinlich?

kami
2004-05-25, 15:11:19
Original geschrieben von betareverse
Na, wer es nötig hat die Konkurrenz so zu bashen.

Da sieht man nur, dass NV sich scheinbar sorgen um das Geschäft macht. ;D

Als wär ATi da anders. :freak:

betasilie
2004-05-25, 15:12:14
Original geschrieben von kami
Als wär ATi da anders. :freak:
Die hatten ja gute Lehrmeister, was das diffamieren der Konkurrenz angeht. :D

[dzp]Viper
2004-05-25, 15:12:20
Original geschrieben von ow
Was bitte ist daran peinlich?

Es ist marketing - und überzoges Marketing ist nun einmal unfreiwillig komisch ;)

ow
2004-05-25, 15:14:55
Original geschrieben von [dzp]Viper
Es ist marketing - und überzoges Marketing ist nun einmal unfreiwillig komisch ;)

Was bitte ist daran ueberzogen?
Ich lese dort nichts ausser der ungeschoenten Wahrheit.

/edit: btw. wir koennen die einzelnen Punkte auf den Folien gerne der Reihe nach durchgehen, ich wuerde gerne Argumente dazu hoeren von denen, die das fuer komisch halten.

DrumDub
2004-05-25, 15:15:28
Original geschrieben von [dzp]Viper
Es ist marketing - und überzoges Marketing ist nun einmal unfreiwillig komisch ;)

jupp. ;D

aber wie gesagt: ati ist nicht besser.

Exxtreme
2004-05-25, 15:15:30
Original geschrieben von Winter[Raven]
Was will man den schlechtmachen?

- Stromverbrauch?
- Lüfter bzw. Kühlerkonstruktion?
- Nur 4x AA?

Also mir fällt da ned viel ein ^^.
Hier mal einige *mögliche* Nachteile des NV40, die sich ausschlachten lassen würden:

* kein gammakorrektes AA
* alles über 4x AA langsam
* viele PS3.0-Anweisungen langsam
* ein nicht funktionierender Schalter zum Deaktivieren des blilinearen Filters im neuen Treiber
* Bildqualitätsmängel bei Farcry und Lock On.
* die Platine ist ziemlich groß

etc.

Daraus liesse sich eine schöne Präsentation basteln. :D

LovesuckZ
2004-05-25, 15:16:32
Original geschrieben von [dzp]Viper
Klar is das nicht unbedingt gelogen, aber die folien haben das Niveau einer Bildzeitung. Sie basieren auf falschinformationen und missinterpretationen (taktraten sind schreibfehler der seiten z.b.)

"falschinformationen und missinterpretationen"?
Wo denn bitte?
Die Taktraten, woher soll der Leser wissen, dass diese Schreibfehler waeren? Es ist fakt, dass ATi ein neues Bios mit den Orginaltaktraten nach der Ausliesferung der Karten zu den testern geschickt hat. Wer das Bios nicht raufgezogen hat, hat mit Taktraten gebencht, welche nicht dem Kaufprodukt entsprechen.

Mr. Lolman
2004-05-25, 15:16:58
Original geschrieben von ow
Was bitte ist daran ueberzogen?
Ich lese dort nichts ausser der ungeschoenten Wahrheit.

/edit: btw. wir koennen die einzelnen Punkte auf den Folien gerne der Reihe nach durchgehen, ich wuerde gerne Argumente dazu hoeren von denen, die das fuer komisch halten.

Ja klar ow. Und wenns solche Slides über NV geben würd, hättest du den Thread wahrscheinlich schon geschlossen ;)

/eidt: Lstig, dass die Leute, die sich über die Ati slides, dermassen mokierten, jetzt in NV bashslides nichts als die ganze Wahrheit sehen. Naja wers nötig hat?

Ich geh jetzt mal mit meinem getunten Golf ein paar Opelfahrer bashen :schlag:

[dzp]Viper
2004-05-25, 15:17:16
Original geschrieben von ow
Was bitte ist daran ueberzogen?
Ich lese dort nichts ausser der ungeschoenten Wahrheit.

manchmal habe ich das gefühl, dass du ein roboter bist, der nie lacht oder mal etwas amüsant findet...
Deine Reaktionen auf manchmal wirklich lustige sachen sind immer knochentrocken.
Hast du überhaupt sinn für Humor? ;)

ow
2004-05-25, 15:17:48
Original geschrieben von Mr. Lolman
Ja klar ow. Und wenns solche Slides über NV geben würd, hättest du den Thread wahrscheinlich schon geschlossen ;)

Ja klar, mr. lolman, wie immer keine Argumente parat?

DrumDub
2004-05-25, 15:18:32
Original geschrieben von ow
/edit: btw. wir koennen die einzelnen Punkte auf den Folien gerne der Reihe nach durchgehen, ich wuerde gerne Argumente dazu hoeren von denen, die das fuer komisch halten.

es ist ja auch nicht falsch, aber in der geballten menge, wirkt es einfach nur lustig. marketing bedeutet ja nicht zu lügen, sondern nur das zu sagen, was den konkurrenten schlecht aussehen lässt und einen selbst gut. es ist halt eine seeehr selektive wahrnehmung der singe bzw. versucht man den leuten diese klar zu machen.

ow
2004-05-25, 15:18:54
Original geschrieben von [dzp]Viper
manchmal habe ich das gefühl, dass du ein roboter bist, der nie lacht oder mal etwas amüsant findet...
Deine Reaktionen auf manchmal wirklich lustige sachen sind immer knochentrocken.
Hast du überhaupt sinn für Humor? ;)


Natuerlich habe ich Sinn fuer Humor. Ich sehe hier aber nichts komisches. Was ist denn bitte an dieser Praesentation so lustig??

Mr. Lolman
2004-05-25, 15:21:56
Original geschrieben von ow
Natuerlich habe ich Sinn fuer Humor. Ich sehe hier aber nichts komisches. Was ist denn bitte an dieser Praesentation so lustig??

Lustig ist eher, dass manche so tun, als wär das die neue NV Bibel. Laufen schon Streits, wer welche Folien als Avatar haben darf?

Aber wenns schon auf dem Niveau läuft, werd ich mal mit der Akte Nvidia ein bisschen hausieren gehen. denn im Grunde steht da auch nichts anderes, als die Ganze Wahrheit ;)

Aquaschaf
2004-05-25, 15:22:11
Ist doch Ironie des Schiksaals, dass derjenige der ursprünglich Vorreiter bei "suspicious drivers" war nun selber andere deswegen ankreidet. Ich finde es schon amüsant.

betasilie
2004-05-25, 15:22:11
Original geschrieben von Mr. Lolman
Ja klar ow. Und wenns solche Slides über NV geben würd, hättest du den Thread wahrscheinlich schon geschlossen ;)

/eidt: Lstig, dass die Leute, die sich über die Ati slides, dermassen mokierten, jetzt in NV bashslides nichts als die ganze Wahrheit sehen. Naja wers nötig hat?
Full Ack! :up:

[dzp]Viper
2004-05-25, 15:22:45
Original geschrieben von ow
Natuerlich habe ich Sinn fuer Humor. Ich sehe hier aber nichts komisches. Was ist denn bitte an dieser Praesentation so lustig??

Die Ausdrucksweise und die art WIE die nachteile der ATI karten dargestellt sind...

niemans sagt hier, dass die inforamtionen falsch seinen oder so, aber es ist die art und weise WIE sie präsentiert werden....

du verstehen? :D

ow
2004-05-25, 15:22:48
Original geschrieben von DrumDub
es ist ja auch nicht falsch, aber in der geballten menge, wirkt es einfach nur lustig. marketing bedeutet ja nicht zu lügen, sondern nur das zu sagen, was den konkurrenten schlecht aussehen lässt und einen selbst gut. es ist halt eine seeehr selektive wahrnehmung der singe bzw. versucht man den leuten diese klar zu machen.


Ich wuesste nicht, was geballtes Marketing auf einmal lustig erscheinen liesse. Sinn und Zweck von Marketing ist ja wohl klar.

Wenn ich hier etwas belustigend finden wuerde, dann doch eher die Tatsache, wie leicht es ATi diesmal NV gemacht hat, ihre Produkte in einem schlechten Licht erscheinen zu lassen.

Kakarot
2004-05-25, 15:23:24
Original geschrieben von ow
Natuerlich habe ich Sinn fuer Humor. Ich sehe hier aber nichts komisches. Was ist denn bitte an dieser Praesentation so lustig??
das es irgendwie kindisch ist, über einen Konkurrenten derart herzuziehen und trotzdem der Wahrheit entspricht, je nach Grad der Selektion. Die überzogene Art halt, lässt mich zumindest schmunzeln. :D

jagger
2004-05-25, 15:23:35
Alles eine Frage der Perspektive.... ATI oder NVFanboy?

Gast
2004-05-25, 15:23:35
Herauspicken von Schwachstellen und dann auf die Konkurrenz losbashen ist nicht die feine Art. Diese Zusammenfassung ist nunmal nur die Hälfte (Viertel?!) der Wahrheit. Das würde man also als Manipulation/Propaganda oder eben PR bezeichnen, aber nicht Wahrheit nennen.

Richtig wäre, zu sagen:
Ja, die Konkurrenz hat gute Arbeit bei ihrer Next-Gen-GraKa geleistet. Allerdings bieten wir hier und da Vorteile für diesen und jenen...

LovesuckZ
2004-05-25, 15:24:23
Original geschrieben von Mr. Lolman
/eidt: Lstig, dass die Leute, die sich über die Ati slides, dermassen mokierten, jetzt in NV bashslides nichts als die ganze Wahrheit sehen. Naja wers nötig hat?


Zeige uns doch bitte, wo nvidia lügt.

Xmas
2004-05-25, 15:25:02
Original geschrieben von Demirug
Jetzt brauchen wir noch die Presentation von ATI wo sie den NV40 schlecht machen und das Bild ist komplett.
Die gibts ja auch schon ;)
http://www.hardware.fr/medias/photos_news/00/07/IMG0007851_1.jpg

betasilie
2004-05-25, 15:25:19
Original geschrieben von ow
Natuerlich habe ich Sinn fuer Humor. Ich sehe hier aber nichts komisches. Was ist denn bitte an dieser Praesentation so lustig??
ow, wenn Du wirklich nicht in der Lage bist, diese Folien als lustig zu empfinden, dann tust Du mir leid.

Nicht das vieles nicht richtig wäre, was da so steht, aber die Art und Weise, wie es selektiert und einseitig beleuchtet präsentiert wird, ist nun wirklich sehr unterhaltsam.

Du solltest mal etwas neutraler werden. Ist ja langsam wirklich lächerlich wie parteiisch Du dich verhältst und so machst, als ob Du der neutralste mensch der Welt wärst. :ratlos:

deekey777
2004-05-25, 15:25:45
Original geschrieben von ow
Was bitte ist daran ueberzogen?
Ich lese dort nichts ausser der ungeschoenten Wahrheit.

/edit: btw. wir koennen die einzelnen Punkte auf den Folien gerne der Reihe nach durchgehen, ich wuerde gerne Argumente dazu hoeren von denen, die das fuer komisch halten.

Das brauchst du gar nicht - die einzelnen Punkte sind nicht falsch. Sie wurden aber einfach aus einigen Reviews herausgeriessen, zusammengewürfelt und zu einer Präsentation zusammengefasst. Tolle Leistung! Jedermann könnte die NV40 Reviews nehmen, die für die NV40 kritischen Punkte herausschneiden und ins Netz stellen. Das ist niveaulos und peinlich für so eine grosse Firma - wie für jede andere Firma (auch für ATi)!

Und die Autoren, die zitiert wurden, haben bestimmt auch etwas anders - ausser diesen Zitaten - geschrieben, leider steht davon nichts.

[dzp]Viper
2004-05-25, 15:26:34
Original geschrieben von Kakarot
das es irgendwie kindisch ist, über einen Konkurrenten derart herzuziehen und trotzdem der Wahrheit entspricht, je nach Grad der Selektion. Die überzogene Art halt, lässt mich zumindest schmunzeln. :D

ganz genau meine meinung. Und wer dieses Überzogene und Kindische Marketing (egal ob richtig oder falsch) nicht lustig wenigstens ein wenig lustig findet, dem können wir auch nicht helfen :karate:

/edit:

Ich habe eine Theorie - ow ist Vulkanier X-D

Blutgrätsche
2004-05-25, 15:28:14
Ich kann mich einfach nicht gegen meinen Eindruck wehren, dass die Slides ein Fake sind. Machart und Inhalt wirken zu befremdlich. Ausserdem, wie funktioniert ein Press Conference Call insbesonders in Verbindung mit Slides?

kami
2004-05-25, 15:28:40
Naja es handelt sich halt um Marketing und nicht um gegenseitiges Schulterklopfen was der andere doch für gute Arbeit geleistet hat. Seine Vorzüge kann der Gegenpart schön selber rausstellen während man selbst sich halt dann die Angriffspunkte rauspickt.

deekey777
2004-05-25, 15:28:53
Original geschrieben von Kakarot
das es irgendwie kindisch ist, über einen Konkurrenten derart herzuziehen und trotzdem der Wahrheit entspricht, je nach Grad der Selektion. Die überzogene Art halt, lässt mich zumindest schmunzeln. :D

Ich sehe in dieser Präsentation keine Wahrheit, sondern nur die halbe.
Eine halbe Wahrheit ist nie die Hälfte einer ganzen.
(Karl Heinrich Waggerl (1897-1973), östr. Schriftsteller)

(Noch besser: "Eine halbe oder verstümmelte Wahrheit ist aber oft weit schlimmer als eine offene Lüge.")

LovesuckZ
2004-05-25, 15:29:40
Original geschrieben von deekey777
Und die Autoren, die zitiert wurden, haben bestimmt auch etwas anders - ausser diesen Zitaten - geschrieben, leider steht davon nichts.

Man zitiert das, was für den angesprochend Punkt von Bedeutung ist. Durch den Quellen Nachweiß kann man sich den Text selbst durchlesen und sein eigenes Urteil bilden.
Ich sehe daran nicht verwerfliches, macht dies doch jeder...

Winter[Raven]
2004-05-25, 15:29:58
Original geschrieben von LovesuckZ
Zeige uns doch bitte, wo nvidia lügt.

Daran wäre ich jetzt auch interessiert.

Also Lolman ... LETZ GO!

Mr. Lolman
2004-05-25, 15:30:32
Original geschrieben von LovesuckZ
Zeige uns doch bitte, wo nvidia lügt.

:bonk: Man, wenn du mich schon an einzelnen Argumenten aufhängen willst, bitteschön:


"X800 ist just a 9800 on Stereoids"

Diese Aussage ist technisch genauso unkorrekt, wie unnötig. Wenn die x800 tatsächlich nur so eine gedopte 9800 sein soll, warum kann braucht eine 9800 dann Multipassshader um die Rubydemo darstellen zu können?

Oder erweitern Stereoide auch die technischen Fähigkeiten einer Grafikkarte :balla:




/edit: Ich weiss, es ist im Grunde genommen idiotisch, einzelne Marketingaussagen auseinanderzupflücken.

Die 9800XT Anisocheatsache ist ja genauso undurchsichtig. Nur auf der 9800Xt, eigentlich begann das ja mit der 9700. Hat man aber nicht geschrieben, denn was intereissrt der Presse die HW von gestern.

Demirug
2004-05-25, 15:31:22
Original geschrieben von Xmas
Die gibts ja auch schon ;)
http://www.hardware.fr/medias/photos_news/00/07/IMG0007851_1.jpg

Für den Anfang nicht schlecht.

Ich denke das kann ATI aber noch besser.

betasilie
2004-05-25, 15:33:43
Am lustigsten finde ich ja, dass NV so darauf rumbasht, dass der R420 auf dem R350 basiert. Nun, irgendwie ist das eher ein Armutzeugniss für NV, dass ATI mit so eine "alten" Architektur NV immer noch ebenbürtig ist und scheinbar in einigen Bereichen noch überlegen ist. ;D

NV sollte sich freuen, dass ATI noch nichts neues ausgepackt hat, sonst wäre der vermeintliche Gleichstand aber in weite Ferne gerückt.

Und wenn dann demnächst Spiele durch 3Dc große Vorteile haben, dann wird NV wohl richtig blöd aus der Wäsche gucken.

ow
2004-05-25, 15:34:45
Original geschrieben von Kakarot
das es irgendwie kindisch ist, über einen Konkurrenten derart herzuziehen und trotzdem der Wahrheit entspricht, je nach Grad der Selektion. Die überzogene Art halt, lässt mich zumindest schmunzeln. :D


Ja, kurz schmunzeln kann ich darueber auch. Das wars dann aber auch schon.
Ich hatte eher den Eindruck, als wuerden das hier manhce zum Bruellen komisch finden.

Und ueber Marketing an sich braucht man doch keine Worte zu verlieren.

Kakarot
2004-05-25, 15:35:39
Original geschrieben von betareverse
ow, wenn Du wirklich nicht in der Lage bist, diese Folien als lustig zu empfinden, dann tust Du mir leid.[...]
kein Grund, wegen ein paar Folien gleich persönlich zu werden!
Jeder hat halt seine eigenen Ansichten und Empfindungen gegenüber etwas -- "leben und leben lassen". :)

[dzp]Viper
2004-05-25, 15:36:02
Original geschrieben von ow
Ja, kurz schmunzeln kann ich darueber auch. Das wars dann aber auch schon.


dann besteht ja doch noch hoffnung für Dich :tröst:

;)

LovesuckZ
2004-05-25, 15:36:14
Original geschrieben von Mr. Lolman
:bonk: Man, wenn du mich schon an einzelnen Argumenten aufhängen willst, bitteschön:

Nein, dass will ich nicht. Wer aber zwischen diesen überzogenden und einen gelogenden "Konkurentenverarsche" keinen Unterschied sieht, sollte dies doch mal erklaeren.

Diese Aussage ist technisch genauso unkorrekt, wie unnötig. Wenn die x800 tatsächlich nur so eine gedopte 9800 sein soll, warum kann braucht eine 9800 dann Multipassshader um die Rubydemo darstellen zu können?

Wenn die Shader nicht als "Multipassshader" vorliegen, wie sollte die Hardware die Shader dann ausführen? Ausserdem sollten längere Shader mit dem F-Buffer funktionieren.

Oder erweitern Stereoide auch die technischen Fähigkeiten einer Grafikkarte :balla:

FBuffer. Funktioniert nicht? Tja, aber damit beim r350 werben...
Also, wo lügt Nvidia?

DrumDub
2004-05-25, 15:36:21
Original geschrieben von Kakarot
kein Grund, wegen ein paar Folien gleich persönlich zu werden!
Jeder hat halt seine eigenen Ansichten und Empfindungen gegenüber etwas -- "leben und leben lassen". :)

ack. :D

Mr. Lolman
2004-05-25, 15:37:13
Original geschrieben von LovesuckZ
Also, wo lügt Nvidia?

In den Folien, oder generell? ;)


/edit:

Original geschrieben von LovesuckZ
Wenn die Shader nicht als "Multipassshader" vorliegen, wie sollte die Hardware die Shader dann ausführen? Ausserdem sollten längere Shader mit dem F-Buffer funktionieren.



Singlepass, z.B...

FBuffer ist auch R360 scheinbar nur unter OpenGL ansprechbar, aber fang jetzt nicht, mit, zur Lebzeiten der Karte, unnützen Features an. Denn auf diesem Gebiet ist NV König (auch wenns zum Wohle aller Spieler (?), die HW Entwicklung schneller voran treibt... )

LovesuckZ
2004-05-25, 15:37:26
Original geschrieben von betareverse
Und wenn dann demnächst Spiele durch 3Dc große Vorteile haben, dann wird NV wohl richtig blöd aus der Wäsche gucken.

:rofl:

BlackArchon
2004-05-25, 15:37:39
Ich erinnere da an das Schicksal, welches den letzten Grafikchiphersteller ereilt hat, der seine Hardware praktisch nicht weiterentwickelt hat: 3dfx.

Ich hoffe in unserem Interesse, dass Ati mit dem R420 richtig auf die Nase fällt, damit sie sich beim nächsten Chip wieder richtig anstrengen müssen.

ow
2004-05-25, 15:37:51
Original geschrieben von Gast
Herauspicken von Schwachstellen und dann auf die Konkurrenz losbashen ist nicht die feine Art.


Meinst du irgenein Hersteller wuerde sich selbst bashen?;)


Diese Zusammenfassung ist nunmal nur die Hälfte (Viertel?!) der Wahrheit. Das würde man also als Manipulation/Propaganda oder eben PR bezeichnen, aber nicht Wahrheit nennen.


S.o., meinst du irgendein IHV wuerde den Konkurrenten loben?


Richtig wäre, zu sagen:
Ja, die Konkurrenz hat gute Arbeit bei ihrer Next-Gen-GraKa geleistet. Allerdings bieten wir hier und da Vorteile für diesen und jenen...

:lol:, fett markiertes wird es nie geben.

Exxtreme
2004-05-25, 15:38:00
OK, der Ursprungsthread wurde gelöscht. ;(

LovesuckZ
2004-05-25, 15:38:29
Original geschrieben von Mr. Lolman
In den Folien, oder generell? ;)

Es geht hier um die Folien.
Du vergleichst diese mit denen, kürzlich veröffentlichten, von ATi.

Kakarot
2004-05-25, 15:39:39
Original geschrieben von Exxtreme
OK, der Ursprungsthread wurde gelöscht. ;(
Damit sind wir dann wohl so ziemlich die einzigen, die alles komplett haben. :D :up:

ow
2004-05-25, 15:39:42
Original geschrieben von deekey777
Ich sehe in dieser Präsentation keine Wahrheit, sondern nur die halbe.



Was waere deiner Meinung nach denn die andere Haelfte?

DrumDub
2004-05-25, 15:39:51
Original geschrieben von LovesuckZ
Wenn die Shader nicht als "Multipassshader" vorliegen, wie sollte die Hardware die Shader dann ausführen? Ausserdem sollten längere Shader mit dem F-Buffer funktionieren

FBuffer. Funktioniert nicht? Tja, aber damit beim r350 werben...
Also, wo lügt Nvidia?

doch. der f-buffer funktioniert, aber lt. ati eben nur unter opengl. der r420 kann eben 512 instruktionen bei ps 2.x wo der r350 auf 96 beschränkt ist.

Winter[Raven]
2004-05-25, 15:40:12
Und wenn dann demnächst Spiele durch 3Dc große Vorteile haben, dann wird NV wohl richtig blöd aus der Wäsche gucken.

Und wenn dann demnächst Spiele durch Shader 3.0 große Vorteile haben, dann wird ATI wohl richtig blöd aus der Wäsche gucken.

betasilie
2004-05-25, 15:40:31
Original geschrieben von Kakarot
kein Grund, wegen ein paar Folien gleich persönlich zu werden!
Jeder hat halt seine eigenen Ansichten und Empfindungen gegenüber etwas -- "leben und leben lassen". :)
Nun, jetzt hat er ja zugegeben, dass er schmunzeln musste. :up:

Es geht ja nicht darum, dass ow nicht lachen kann, sondern darum, dass er strikt pro-NV ist. ;)

Gas3t
2004-05-25, 15:40:52
Ich kann schon sehen, wie diese Präsentation bei der nächsten GraKa-Generation aus dem Sumpf des I-Net hervorgezogen wird, um NVidia zu bashen. Und dann kommt ein anderer der die ATI pdfs hervorholt. Und aus der hintersten Ecke kommt dann wieder einer der sagt, das hat NV auch schon bei PowerVR gemacht...

Aber was solls: Thats bus(s)iness. Und wir müssen damit leben.

betasilie
2004-05-25, 15:41:00
Original geschrieben von Winter[Raven]
Und wenn dann demnächst Spiele durch Shader 3.0 große Vorteile haben, dann wird ATI wohl richtig blöd aus der Wäsche gucken.
Tja, das wird aber nicht passieren, jedenfalls nicht mit dem NV40. :D

x5
2004-05-25, 15:41:01
Original geschrieben von LovesuckZ
"falschinformationen und missinterpretationen"?
Wo denn bitte?
Die Taktraten, woher soll der Leser wissen, dass diese Schreibfehler waeren? Es ist fakt, dass ATi ein neues Bios mit den Orginaltaktraten nach der Ausliesferung der Karten zu den testern geschickt hat. Wer das Bios nicht raufgezogen hat, hat mit Taktraten gebencht, welche nicht dem Kaufprodukt entsprechen.

Als ob die paar Mhz was ausgemacht hätten.

Bei der Veranstaltung hätte mal einer ne 5800ultra in die Luft halten sollen.

deekey777
2004-05-25, 15:41:52
Original geschrieben von LovesuckZ
Man zitiert das, was für den angesprochenden Punkt von Bedeutung ist. Durch den Quellennachweis kann man sich den Text selbst durchlesen und sein eigenes Urteil bilden.
Ich sehe daran nicht verwerfliches, macht dies doch jeder...

Man zitiert jemanden (der eine gewichtige Meinung hat bzw. etwas wichtiges geäussert hatte), um seinen eigenen Standpunkt zu behaupten bzw. zu stärken.
Das, was in der Präsentation zusammengewürfelt wurde, ist kein Zitieren, sondern Aneinanderreihung einzelner Sätze (Halbsätze) aus verschiedenen Reviews. Und die Quellenangabe dient nur dem Schutz des geistigen Eigentums der Autoren dieser "Zitate".

Original geschrieben von Winter[Raven]
Und wenn dann demnächst Spiele durch Shader 3.0 große Vorteile haben, dann wird ATI wohl richtig blöd aus der Wäsche gucken.

Das werden die NV40 Besitzer auch tun.

Original geschrieben von ow
Was waere deiner Meinung nach denn die andere Haelfte?

Der Rest der Reviews.

Winter[Raven]
2004-05-25, 15:42:13
Original geschrieben von betareverse
Tja, das wird aber nicht passieren, jedenfalls nicht mit dem NV40. :D

Tja, das wird aber nicht passieren, jedenfalls nicht mit dem R420. :D

//EDIT:

Wie du siehst kann man den BS den du postet so drehen wie man es will!

Oder hast du eine Quelle, ein Beweiß, oder irgendwetwas für dein Posting?

Mr. Lolman
2004-05-25, 15:44:14
Original geschrieben von BlackArchon
Ich erinnere da an das Schicksal, welches den letzten Grafikchiphersteller ereilt hat, der seine Hardware praktisch nicht weiterentwickelt hat: 3dfx.

Ich hoffe in unserem Interesse, dass Ati mit dem R420 richtig auf die Nase fällt, damit sie sich beim nächsten Chip wieder richtig anstrengen müssen.


Imo hat ATi es sich verdient, sich auszuruhen...

Wenn die technische Unterlegenheit, zu Lebzeiten des R420 tatsächlich zu, Problem werden wird, dann wird das ATi schon zu spüren bekommen.

(IMO wird SM3 in deser GraKagenertaion genauso irrelevant sein, wie CineFX(II), oder Truform, bei den (Vor)vorgänger Generationen. Aber lassen wir uns überraschen.

Von der neuen GraKageneration kommt mir sowieso nix is Haus :madman:

Gast
2004-05-25, 15:45:30
Ich möchte dazu nur kurz mal ein (wie ich denke gutes) Beispiel aus der Geschichte einwerfen:
Das Telegramm von Bad Ems (Emser Depesche)...


1870/1871:
Der spanische Thron war zu der Zeit frei und es stand ein Hohenzollernprinz frei um jenen zu besetzen.
Frankreich hatte aber Angst davor umzingelt zu werden, wollte also das Versprechen von Wilhelm I. (preussischer König), dass kein Hohenzollernprinz nie mehr jenen Thron in Spanien besteigen wird, da Frankreich sonst Preussen den Krieg erkläre. Um sicher zu gehen wurde der franz. Aussenminister nach Bad Ems zu Wilhelm I. geschickt, welcher ein Entschuldigungsschreiben fordern sollte. Er forderte also jenes Entschuldigungsschreiben und die Garantie, dass auf den spanischen Thron verzichtet werden würde.
Wilhelm I. gab sich aber nicht mit dieser Forderung einverstanden. Er schrieb einen Bericht über diesen Vorfall und sandte ihn zu Bismarck (welcher Wilhelm I. schon zur Thronanwartung überreden musste), damit jener die franz. Forderung und die preussische Ablehnung veröffentlichen würde. Bismarck stellte aber das Telegramm so um, dass es wie ein Ultimatum klang und veröffentlichte es. Frankreich war stocksauer über diese Beleidigung und erklärte Preussen den Krieg.

So ist's doch hier auch. nVidia gibt Fakten wieder und lügt nicht. Hat es doch bloß in das für sich bessere Licht gestellt. Und amüsant (weil nVidia sich regelrecht über ATi lustig macht) ist es doch auch. Desweiteren:
Ein "Krieg" zwischen nVidia und ATi bedeutet doch für uns, dass der Konkurrenzkampf nicht nur aufgrund von Produkten besteht, sondern auch wegen der Symphatien, die hier im Spiel sind.
Hoffen wir doch einfach, dass die beiden sich mit Preisen und Leistungen noch stärker überbieten als es je war.

Mahlzeit,
vamp

Blutgrätsche
2004-05-25, 15:45:38
Original geschrieben von Exxtreme
OK, der Ursprungsthread wurde gelöscht. ;(
Jetzt glaube ich noch eher an einen Fake!

aths
2004-05-25, 15:45:49
Original geschrieben von ow
Was bitte ist daran ueberzogen?
Ich lese dort nichts ausser der ungeschoenten Wahrheit.Ich lese dort sehr einseitige Darstellungen.

Exxtreme
2004-05-25, 15:46:44
Original geschrieben von Blutgrätsche
Jetzt glaube ich noch eher an einen Fake!
Also für mich sind die Folien zu "professionell" gemacht worden als daß ich an einen Fake glaube.

ow
2004-05-25, 15:46:58
Original geschrieben von BlackArchon


Ich hoffe in unserem Interesse, dass Ati mit dem R420 richtig auf die Nase fällt, damit sie sich beim nächsten Chip wieder richtig anstrengen müssen.

Anstrengen wird Ati sich ohnehin muessen, unabhaengig davon, wie wirtschaftlich erfolgreich der R420 wird.

Mr. Lolman
2004-05-25, 15:47:34
Original geschrieben von Gast
Ich möchte dazu nur kurz mal ein (wie ich denke gutes) Beispiel aus der Geschichte einwerfen:
Das Telegramm von Bad Ems (Emser Depesche)...




Sehr schönes Post, Gast :up:

Gas3t
2004-05-25, 15:47:36
Original geschrieben von ow

:lol:, fett markiertes wird es nie geben.

Ich habe auch nicht geschrieben, dass ich das von einem IHV erwarte, sondern nur, dass die gewählte Form nicht die feine Art ist. Da musst du wohl zustimmen.

Aber vielleicht könnte ein kleines (vielleicht auch nur klitzekleines) Zugeständnis, dass die Karten der Konkurrenz nicht schlecht ist, dem Image durchaus förderlich sein. Das bedeutet ja nicht, dass sie gleich die Vorteile der Konkurrenz herausstellen, sondern eben nur ein allgemeines "gut" (um dann zu sagen: Hier und dort sind wir weiter/besser ...).

Dieses Posting bezieht sich allgemein auf alle IHVs.

vamp
2004-05-25, 15:48:43
Original geschrieben von Mr. Lolman
Sehr schönes Post, Gast :up:

Mh. War mein Account. Leider hatte ich das Einloggen vergessen.
Danke schön, Lolman

LovesuckZ
2004-05-25, 15:48:50
Original geschrieben von Mr. Lolman
Imo hat ATi es sich verdient, sich auszuruhen...

:rofl:

Wenn die technische Unterlegenheit, zu Lebzeiten des R420 tatsächlich zu, Problem werden wird, dann wird das ATi schon zu spüren bekommen.

Ist es doch schon. Technisch unterlegen und "nur" leicht schneller bei vergleichbaren Optimierungen sind kein Grund zur ATi Karte zu greifen.

(IMO wird SM3 in deser GraKagenertaion genauso irrelevant sein, wie CineFX(II)[...]

Und wie sollte SM3.0 bei der nächsten Generation Wunder bewirken, wenn man genauso argumentieren koennte?
Ahso, CineFX(II) hilft den FX Karten Ruby wiederzugeben.

ow
2004-05-25, 15:48:57
Original geschrieben von DrumDub
doch. der f-buffer funktioniert, aber lt. ati eben nur unter opengl. der r420 kann eben 512 instruktionen bei ps 2.x wo der r350 auf 96 beschränkt ist.

Auf einer R350 wurde AFAIK bislang kein funktionierender F-Buffer gesichtet. Auch unter OpenGL nicht.

aths
2004-05-25, 15:48:58
Original geschrieben von Mr. Lolman
Imo hat ATi es sich verdient, sich auszuruhen...

Wenn die technische Unterlegenheit, zu Lebzeiten des R420 tatsächlich zu, Problem werden wird, dann wird das ATi schon zu spüren bekommen.

(IMO wird SM3 in deser GraKagenertaion genauso irrelevant sein, wie CineFX(II), oder Truform, bei den (Vor)vorgänger Generationen. Aber lassen wir uns überraschen. Sollten die IHVs darauf verzichten, Features die absehbar nicht sofort relevant werden, einzubauen?

Demirug
2004-05-25, 15:49:20
Original geschrieben von aths
Ich lese dort sehr einseitige Darstellungen.

Da steht der Name eines IHVs drauf und nur ein Name. Das muss einseitig sein.

spawn|TB
2004-05-25, 15:49:26
So ich geb auch mal meinen senf dazu...
ATI ROXX

aber egal ich kenne jemanden der bei ati in der entwicklung arbeitet und der hat mir zugesteckt das ati an einem neuen Layout für ihre Karten arbeitet...
Das Layout kommt aber erst mit der neuen generation auf den Markt... Insgesammt soll das board dann 1/3 mehr Transistoren besitzen und mit kleineren (units) gefertigt werden...

ow
2004-05-25, 15:49:40
Original geschrieben von aths
Ich lese dort sehr einseitige Darstellungen.


Marketing-ueblich oder meinst du nicht?

betasilie
2004-05-25, 15:50:37
Original geschrieben von aths
Sollten die IHVs darauf verzichten, Features die absehbar nicht sofort relevant werden, einzubauen?
Nein, aber man könnte auch NV den Vorwurf machen ATI nciht genug gefordert zu haben. ;)

Soll natürlich keine Entschuldigung sein für ATIs technolgischen Winterschlaf.

x5
2004-05-25, 15:51:01
Original geschrieben von Winter[Raven]
Und wenn dann demnächst Spiele durch Shader 3.0 große Vorteile haben, dann wird ATI wohl richtig blöd aus der Wäsche gucken. #
Demnächst?Wohl eher 2005 oder später.

Vampire
2004-05-25, 15:51:45
Mensch...so. Jetzt bin ich da.

zum Topic (erneut):

ATi und nVidia nehmen sich zur Zeit nicht so viel was die Leistung angeht. Was nVidia da gemacht hat war doch nur ein Versuch sich bei der Presse (und nun bei der restlichen Audienz) hochzuschaukeln bzw. ATi etwas runterzudrücken. Den Tod bedeutet das doch für ATi nicht und Fans jener Firma werden auch bei ihr bleiben.
Weiß nicht, was sich manche Leute über "die Methoden von nVidia" so aufregen. Das nennt man Wettbewerb, Jungs und Mädels.

Riipa
2004-05-25, 15:53:08
So ich geb auch mal meinen senf dazu...
ATI ROXX

aber egal ich kenne jemanden der bei ati in der entwicklung arbeitet und der hat mir zugesteckt das ati an einem neuen Layout für ihre Karten arbeitet...
Das Layout kommt aber erst mit der neuen generation auf den Markt... Insgesammt soll das board dann 1/3 mehr Transistoren besitzen und mit kleineren (units) gefertigt werden...


Ich kenne jemanden, der bei VW arbeitet und die hat mir zugesteckt, dass VW an einem neuen Design arbeitet. Das soll aber erst mit dem neuen Passat rauskommen und wird ca. 1/3 mehr Platz bieten.

Was ich damit sagen will: Die Relevanz Deines Posts ist gleich Null. Natürlich arbeitet ATI an neuen Chips. Genau wie S3, Nvidia, Intel und AMD. Das ist ihr Job.

deekey777
2004-05-25, 15:53:30
Original geschrieben von ow
Auf einer R350 wurde AFAIK bislang kein funktionierender F-Buffer gesichtet. Auch unter OpenGL nicht.

Musst du unbedingt Salz in offende Wunden aller 9800 Besitzer streuen? :...(

:weg:

spawn|TB
2004-05-25, 15:54:38
Damit meine ich das Ati einen erneuten Gegenschlöag plant der bereits mit der nächsten generation kommt

Gast
2004-05-25, 15:55:05
ich kann ihn ja nochmal fragen ob er mir nochn paar facts nennen kann...

betasilie
2004-05-25, 15:55:36
Original geschrieben von Vampire
Mensch...so. Jetzt bin ich da.

zum Topic (erneut):

ATi und nVidia nehmen sich zur Zeit nicht so viel was die Leistung angeht. Was nVidia da gemacht hat war doch nur ein Versuch sich bei der Presse (und nun bei der restlichen Audienz) hochzuschaukeln bzw. ATi etwas runterzudrücken. Den Tod bedeutet das doch für ATi nicht und Fans jener Firma werden auch bei ihr bleiben.
Weiß nicht, was sich manche Leute über "die Methoden von nVidia" so aufregen. Das nennt man Wettbewerb, Jungs und Mädels.
Ich denke nicht, dass das Groß der Konsumenten Fans irgendeiner Firma sind. Das sind imo eher einige Freaks in Foren, wie diesem hier.

Der Konsument kauft nach Reviews, manchmal nach guten, manchmal nach schlechten. Dann kommt das Marketing, was aber imho immer mehr an Kraft verliert, weil immer mehr Konsumenten nach Tests kaufen.

Also wird am Ende die Leistung entscheiden und ATI und NV können da mit ihrem 3Dc oder Sm3.0 angeben wie sie wollen. Die Mehrheit der Kosumenten werden erst durch Anwendungen überzeugt werden, die diese Technologien explizit nutzen.

Vampire
2004-05-25, 15:55:59
Original geschrieben von spawn|TB
Damit meine ich das Ati einen erneuten Gegenschlöag plant der bereits mit der nächsten generation kommt

Gegenschläge gibt es bei jeder Generation.
Neuerungen wohl meistens auch.
Schließe mich meinem anderem Vormann an:

Da liegt 0 Sinn hinter.

Winter[Raven]
2004-05-25, 15:56:02
Original geschrieben von spawn|TB
Damit meine ich das Ati einen erneuten Gegenschlöag plant der bereits mit der nächsten generation kommt

Damit meine ich das Nvidia einen erneuten Gegenschlag plant der bereits mit der nächsten generation kommt ...

Gast
2004-05-25, 15:57:30
Original geschrieben von spawn|TB
Damit meine ich das Ati einen erneuten Gegenschlöag plant der bereits mit der nächsten generation kommt

Wenn dann musst du schon genauer werden. Meinst du den Refreshchip des R420 oder den R500. Und wann soll der denn laut Planung kommen. Aber eigentlich gehört das ins Speku-Forum.

Exxtreme
2004-05-25, 15:58:39
OK Leute, jetzt beruhigt euch bitte wieder. Der Thread ist ja wieder ein einziges T[r]ollhaus.

Vampire
2004-05-25, 15:59:21
Original geschrieben von betareverse
Ich denke nicht, dass das Groß der Konsumenten Fans irgendeiner Firma sind. Das sind imo eher einige Freaks in Foren wie diesem hier.

Der Konsument kauft nach Reviews, manchmal nach guten, manchmal nach schlechten. Dann kommt das Marketing, was aber imho immer mehr an Kraft verlieert, weil immer mehr Konsumenten nach test kaufen.

Also wird am Ende die Leistung entscheiden und ATI und NV können da mit ihrem 3Dc oder Sm3.0 angeben wie sie wollen. Die Mehrheit der Kosumenten werden erst durch Anwendungen überzeugt werden, die diese Technologien explizit nutzen.

Dem will ich nicht widersprechen.
Deswegen wird nVidia sowas auch besonders in der Presse gezeigt haben.
Welcher Test wird denn zu 100% objektiv bewertet?
Ich glaube nicht, dass es sowas gibt.
Benchmarks, etc. sind davon ausgeschlossen, aber ein Testbericht à la THG...
Da sitzt ein Mensch, der etwas schreibt...
Ist das nicht ein Propagandamittel, was nVidia nutzt?
Ich bleib dabei:
In der grundlegenen Architektur sind ATi und nVidia nicht weit voneinander entfernt. Es ist ein Versuch durch Marketing/Propaganda/wie auch immer, etwas nach vorne zu schieben (seitens nVidia natürlich)

Mr. Lolman
2004-05-25, 16:00:10
Original geschrieben von LovesuckZ
:rofl:


Im gegensatz zu scheinbar vielen anderen hier, ist es mir wurscht, ob meine Karte Superhypercineshadingdingszeug unterstützt. Die Grafik soll möglichst gut, bei bestmöglicher Geschwindigeit laufen. Wie das erreicht wird, ist mir egal...

Wurde beim NV30 Launch nicht auch immer die technische Überlegenheit propagiert. Viele die sich tatsächlich eine Fx gekauft haben (und seis schon ne NV35) sind auf Ati gewechselt, vgielleicht einfach aufgrund dessen, dass trotz der viellen tollen Features, die Shadergeschwindigket tw. armselig war.

Gut NV hat (etwas) aufgeholt.



Ist es doch schon. Technisch unterlegen und "nur" leicht schneller bei vergleichbaren Optimierungen sind kein Grund zur ATi Karte zu greifen.



Je nach Review, ist der R420 aber tw. nicht nur leicht schneller, sondern verbläst nen NV40 gehörig. Alles eine Sache der Sichtweise ;)



Und wie sollte SM3.0 bei der nächsten Generation Wunder bewirken, wenn man genauso argumentieren koennte?
Ahso, CineFX(II) hilft den FX Karten Ruby wiederzugeben.


Wenn die Speed da ist, ists sicher toll. Aber CineFX erlaubt einer 6800GT kaum schneller zu sein als meine R300 mit Multipassshader (anhand des NV40 Powah Screenshot), und die NV3x Karten erreichen ja damit auch ~3-4fps. (Die Highendmodelle wohlgemerkt)

Aussehen tuts fast gleich, wies erreicht wird, ist mir (fast*) wurscht, also zählt die Geschwindigkeit. Und hier kann sich NV bei shaderintensiven Spielen tw. garnicht mal so stark von der Vorgängergeneration der Konkurrenz (z.B. Farcry mit R300 Pfad) absetzen, bzw, liegen sie Leistungsmässig tw. deutlich hiner den neuen ATi Pendants....

Aber alte Spiele wie Q3 laufen mit dem NV40 gleich schnell, bis schneller, nur wer braucht da die fps?


*nur deswegen fast, weil Faktoren wie Stromverbrauch un Lautstärke natürlich auch eine Rolle spielen

Vampire
2004-05-25, 16:00:21
Original geschrieben von Winter[Raven]
Damit meine ich das Nvidia einen erneuten Gegenschlag plant der bereits mit der nächsten generation kommt ...

Wie ich gesagt habe...stimme dir zu.
Das ist nunmal Wettbewerb.

DrumDub
2004-05-25, 16:03:22
Original geschrieben von ow
Auf einer R350 wurde AFAIK bislang kein funktionierender F-Buffer gesichtet. Auch unter OpenGL nicht.

hängt das nicht damit zusammen, dass opengl 2.0 immer noch nicht verabschiedet ist? kann man unter opengl 1.5 denn überhaupt ps 2.x ähnliche effekte realisieren? zumindest hab ich das so verstanden.

siehe auch: http://www.techreport.com/etc/2004q2/nalasco/index.x?pg=3

betasilie
2004-05-25, 16:03:45
Original geschrieben von Vampire
Dem will ich nicht widersprechen.
Deswegen wird nVidia sowas auch besonders in der Presse gezeigt haben.
Welcher Test wird denn zu 100% objektiv bewertet?
Ich glaube nicht, dass es sowas gibt.
Benchmarks, etc. sind davon ausgeschlossen, aber ein Testbericht à la THG...
Da sitzt ein Mensch, der etwas schreibt...
Ist das nicht ein Propagandamittel, was nVidia nutzt?
Ich bleib dabei:
In der grundlegenen Architektur sind ATi und nVidia nicht weit voneinander entfernt. Es ist ein Versuch durch Marketing/Propaganda/wie auch immer, etwas nach vorne zu schieben (seitens nVidia natürlich)
Da kann ich dir auch nur recht geben. NV versucht sich durch solche Mittel einen Vorteil zu verschaffen, weil sie es durch den quasi Gleichstand als notwendig erachten..

Wenn der NV40 wirklich soviel besser wäre, bräuchten sie so unsaubere Marketingaktionen garnicht erst einzusetzen.

Und natürlich gibt es keinen absolut objektiven test, aber es gibt trotzdem hochwertige Tests und wirklich schlechte, auch ganz unabhängig vom Ergebniss betrachtet.

Gast
2004-05-25, 16:05:01
Original geschrieben von Winter[Raven]
Damit meine ich das Nvidia einen erneuten Gegenschlag plant der bereits mit der nächsten generation kommt ...

Immer her damit, meinst du, Ihr bei R420 war SCHLUSS??

Blutgrätsche
2004-05-25, 16:05:16
Original geschrieben von Exxtreme
Also für mich sind die Folien zu "professionell" gemacht worden als daß ich an einen Fake glaube.
Zu kleingeistig, zu kindisch, zu bauernschlau, zu trivial, zu unlogisch (Press Conference Call und Slides), zu unprofessionell, zu kurz, unsinnige Überbewertung von Webseiten, unsinnige Thematik usw.

DrumDub
2004-05-25, 16:07:10
Original geschrieben von Blutgrätsche
Zu kleingeistig, zu kindisch, zu bauernschlau, zu trivial, zu unlogisch (Press Conference Call und Slides), zu unprofessionell, zu kurz, unsinnige Überbewertung von Webseiten, unsinnige Thematik usw.

genau das ist marketing. ne prima definition. :up:

guck dir doch mal den marketing-schwachsinn von ati an bezüglich der testurfilterung. das ist doch der gleiche mist.

Vampire
2004-05-25, 16:07:25
Original geschrieben von betareverse
[...]
Und natürlich gibt es keinen absolut objektiven test, aber es gibt trotzdem hochwertige Tests und wirklich schlechte, auch ganz unabhängig vom Ergebniss betrachtet.

Alle Leser können zwischen hochwertigen Tests und wirklich schlechten unterscheiden?
Glaube nicht wirklich. Nicht jeder ist Geek und kennt das Hardware 1 mal 1. Ich bin der Meinung, dass nVidia gerade das Segment der Newcomer (wir waren auch mal welche) trifft, die sich beim Begriff PS3.0 am Kopf kratzen, und nicht nur das...sondern einen Volltreffer landet.
Klingt PS3.0 nicht viel besser als PS2.0? Was es im Endeffekt bewirkt ist natürlich die andere Seite.
Denkweise vieler Leute ist nunmal:
- größere Versionen = 100% besser
- teurer = besser (stimmt zwar ab und zu, aber nicht immer)
- was drauf steht, ist auch drin

Exxtreme
2004-05-25, 16:08:49
Original geschrieben von Blutgrätsche
Zu kleingeistig, zu kindisch, zu bauernschlau, zu trivial, zu unlogisch (Press Conference Call und Slides), zu unprofessionell, zu kurz, unsinnige Überbewertung von Webseiten, unsinnige Thematik usw.
Naja, das dachte man vom Kyro-Dokument auch. Nvidia hat es aber zugegeben, daß es echt war.

aths
2004-05-25, 16:09:00
Original geschrieben von ow
Marketing-ueblich oder meinst du nicht? Jedenfalls halte ich "nichts ausser der ungeschoenten Wahrheit" nicht für marketingüblich.

deekey777
2004-05-25, 16:10:16
Original geschrieben von DrumDub
hängt das nicht damit zusammen, dass opengl 2.0 immer noch nicht verabschiedet ist? kann man unter opengl 1.5 denn überhaupt ps 2.x ähnliche effekte realisieren? zumindest hab ich das so verstanden.

siehe auch: http://www.techreport.com/etc/2004q2/nalasco/index.x?pg=3



Original geschrieben von ow
Auf einer R350 wurde AFAIK bislang kein funktionierender F-Buffer gesichtet. Auch unter OpenGL nicht.

Daraus folgt:
Der F-Buffer sollte eigentlich zumindest unter DX9.0 funktionieren - tut er aber nicht. Und wieso nicht? Weil die Kommunikation bei ATi zw. den Entwicklern und der PR-Abteilung scheinbar nicht sehr gut funktioniert. ;)

F-Buffer ist mal wieder so ein PR-Gag.

Gast
2004-05-25, 16:12:07
Original geschrieben von Vampire
Dem will ich nicht widersprechen.
Deswegen wird nVidia sowas auch besonders in der Presse gezeigt haben.
Welcher Test wird denn zu 100% objektiv bewertet?
Ich glaube nicht, dass es sowas gibt.
Benchmarks, etc. sind davon ausgeschlossen, aber ein Testbericht à la THG...
Da sitzt ein Mensch, der etwas schreibt...
Ist das nicht ein Propagandamittel, was nVidia nutzt?
Ich bleib dabei:
In der grundlegenen Architektur sind ATi und nVidia nicht weit voneinander entfernt. Es ist ein Versuch durch Marketing/Propaganda/wie auch immer, etwas nach vorne zu schieben (seitens nVidia natürlich)

Frage 1: Dann frage ich mich warum es ATI geschafft den Leistungsverlust und die Stromaufnahme zu reduzieren???

Der NV40 ist nichts anderes als 2*NV35 plus eine SM 3.0 Einheit und der R420 2*R360 plus 3DC Einheit.

Die Leistungsunterschiede haben sich in keinster zur Lage mit FX5950 und 9800XT geändert! Somit ist ATI wieder in PS 2.0, PS 1.4 und FP*.* vorne! nv ist bei OPEN GL und Highendgamen ohne Detaileinstellunge wie AA/AF vorne.

Meine Antwort zur Frage 1: Die besseren Tech-Freaks bei ATI und die besseren Marketing Freaks bei nv, nv arbeitet gerade an einer Kooperation mit RWE ;)
Thats all!

Tigerchen
2004-05-25, 16:12:16
Original geschrieben von LovesuckZ
Man zitiert das, was für den angesprochend Punkt von Bedeutung ist. Durch den Quellen Nachweiß kann man sich den Text selbst durchlesen und sein eigenes Urteil bilden.
Ich sehe daran nicht verwerfliches, macht dies doch jeder...

Lovesuckz!
Es wird soviel dummes Zeug von den Maketingfritzen gelabert. Meinst du wirklich es wäre so schwierig Falschaussagen zu x-beliebigen Dingen von nV-Leuten zusammenzusuchen eventuell ein wenig aus dem Zusammenhang zu reißen um das ganze dann im BiLD-Stil im Internet zu veröffentlichen?
Maketing ist, wie immer, eine grausige Sache. Brauchen wir das wirklich?

DrumDub
2004-05-25, 16:13:22
Original geschrieben von deekey777
Daraus folgt:
Der F-Buffer sollte eigentlich zumindest unter DX9.0 funktionieren - tut er aber nicht. Und wieso nicht? Weil die Kommunikation bei ATi zw. den Entwicklern und der PR-Abteilung scheinbar nicht sehr gut funktioniert. ;)

F-Buffer ist mal wieder so ein PR-Gag.

nope. unter dx9 kann er nicht funtkionieren. siehe der link oben. wenn m$ denn f-buffer net will, dann gibts ihn auch net in dx9. abgesehen davon ist er für spiele eh unsinnig, da zu langsam.

Mmmmmh
2004-05-25, 16:13:50
Kurz und knapp!
Marketing ist eingedeutscht, bedeutet Vermarktung, oder wie bringe ich mein Produkt am besten an den potentiellen Käufer!

Wir sind täglich davon nur so umzingelt, also was man sich hier deswegen so hochschaukelt, dass soll einer verstehen!

:)

Vampire
2004-05-25, 16:15:03
Original geschrieben von Gast
Frage 1: Dann frage ich mich warum es ATI geschafft den Leistungsverlust und die Stromaufnahme zu reduzieren???

Der NV40 ist nichts anderes als 2*NV35 plus eine SM 3.0 Einheit und der R420 2*R360 plus 3DC Einheit.

Die Leistungsunterschiede haben sich in keinster zur Lage mit FX5950 und 9800XT geändert! Somit ist ATI wieder in PS 2.0, PS 1.4 und FP*.* vorne! nv ist bei OPEN GL und Highendgamen ohne Detaileinstellunge wie AA/AF vorne.

Meine Antwort zur Frage 1: Die besseren Tech-Freaks bei ATI und die besseren Marketing Freaks bei nv, nv arbeitet gerade an einer Kooperation mit RWE ;)
Thats all!

Meine Antwort lautet: Ja.
Aber auch nur, weil ich nicht weiß worauf du dich bei meinem Text beziehst. :-(

LovesuckZ
2004-05-25, 16:15:18
Original geschrieben von Mr. Lolman
Wurde beim NV30 Launch nicht auch immer die technische Überlegenheit propagiert. Viele die sich tatsächlich eine Fx gekauft haben (und seis schon ne NV35) sind auf Ati gewechselt, vgielleicht einfach aufgrund dessen, dass trotz der viellen tollen Features, die Shadergeschwindigket tw. armselig war.

Wer sich jetzt eine NV40 kauft, werde wohl kaum wegen einer angeblichen armseligen "Shadergeschwindigkeit" wechseln.


Gut NV hat (etwas) aufgeholt.

Nvidia hat nicht nur aufgeholt, sie haben ATi einfach mal überholt und das sogar deutlich.

Je nach Review, ist der R420 aber tw. nicht nur leicht schneller, sondern verbläst nen NV40 gehörig. Alles eine Sache der Sichtweise ;)/Size]

Ich kenne nur Farcry. Und mit "full trilinear on default" kann man den NV40 ja nicht mit dem "full trilinear on default" des r420 vergleichen.


[size=1]Wenn die Speed da ist, ists sicher toll. Aber CineFX erlaubt einer 6800GT kaum schneller zu sein als meine R300 mit Multipassshader (anhand des NV40 Powah Screenshot), und die NV3x Karten erreichen ja damit auch ~3-4fps. (Die Highendmodelle wohlgemerkt)

Du vergleichst doch jetzt nicht die Geschwindigkeit in der ATI Demo?
Vergleiche doch mal Shadermark2.0. Dort ist eine 6800GT in vielen test schneller als eine x800Pro mit dem offiziellen CAT4.5.

Aussehen tuts fast gleich, wies erreicht wird, ist mir (fast*) wurscht, also zählt die Geschwindigkeit. Und hier kann sich NV bei shaderintensiven Spielen tw. garnicht mal so stark von der Vorgängergeneration der Konkurrenz (z.B. Farcry mit R300 Pfad) absetzen, bzw, liegen sie Leistungsmässig tw. deutlich hiner den neuen ATi Pendants....


Warum eigentlich immer Farcry? Wieso nichtmal TR:6 oder Halo?
Nun, wenn du meinst, dass /edit: sich der NV40 in Shaderintensiven Anwendungen nicht vom r360 absetzen koenne, muss ich sagen: Muss ich das ernst nehmen?
Oder anders: Setzt sich der r420 auch nicht ab? Nach dir: nein. Denn beim Takt zu Takt - Vergleich herrscht ein Gleichstand.

Vampire
2004-05-25, 16:16:37
Original geschrieben von Mmmmmh
Kurz und knapp!
Marketing ist eingedeutscht, bedeutet Vermarktung, oder wie bringe ich mein Produkt am besten an den potentiellen Käufer!

Wir sind täglich davon nur so umzingelt, also was man sich hier deswegen so hochschaukelt, dass soll einer verstehen!

:)

you've got the point, man! :)

Gast
2004-05-25, 16:16:56
Original geschrieben von Vampire
Alle Leser können zwischen hochwertigen Tests und wirklich schlechten unterscheiden?
Glaube nicht wirklich. Nicht jeder ist Geek und kennt das Hardware 1 mal 1. Ich bin der Meinung, dass nVidia gerade das Segment der Newcomer (wir waren auch mal welche) trifft, die sich beim Begriff PS3.0 am Kopf kratzen, und nicht nur das...sondern einen Volltreffer landet.
Klingt PS3.0 nicht viel besser als PS2.0? Was es im Endeffekt bewirkt ist natürlich die andere Seite.
Denkweise vieler Leute ist nunmal:
- größere Versionen = 100% besser
- teurer = besser (stimmt zwar ab und zu, aber nicht immer)
- was drauf steht, ist auch drin

Ha Ha Ha, keiner aus meiner Klicke is so plond auf diese PS3.0 Karre abzufahren, wir sind ja nicht ganz blöde wenn es um 400 Bucks geht !

Denkweise vieler Highendgamer!
- größere Version = nicht mehr Features als PS 2.0
- teurer = schlechter
- was drauf steht ist nicht drin, FX5200 ala DX9

Tigerchen
2004-05-25, 16:18:06
Original geschrieben von Winter[Raven]
Und wenn dann demnächst Spiele durch Shader 3.0 große Vorteile haben, dann wird ATI wohl richtig blöd aus der Wäsche gucken.

Das werden wir sehen wenn es soweit ist. Wird wohl darauf ankommen wie groß der Speedvorteil von PS 3.0 wirklich ist. Und ATI's 2er sind ja recht flott. Obs wirklich soooo einfach wird?

Gast
2004-05-25, 16:18:16
Original geschrieben von Vampire
Meine Antwort lautet: Ja.
Aber auch nur, weil ich nicht weiß worauf du dich bei meinem Text beziehst. :-(

Du warss gerade da zum anklicken :)

Vampire
2004-05-25, 16:18:26
Original geschrieben von Gast
Ha Ha Ha, keiner aus meiner Klicke is so plond auf diese PS3.0 Karre abzufahren, wir sind ja nicht ganz blöde wenn es um 400 Bucks geht !

Denkweise vieler Highendgamer!
- größere Version = nicht mehr Features als PS 2.0
- teurer = schlechter
- was drauf steht ist nicht drin, FX5200 ala DX9

Highendgamer = Jemand der mit dem Begriff PixelShader nichts anzufangen weiß?

Falls das "haha" sich auf meinen Kommentar bezieht, hast meine Intention nicht gefunden bzw. dann habe ich mich falsch ausgedrückt.

aths
2004-05-25, 16:19:17
Original geschrieben von Gast
Frage 1: Dann frage ich mich warum es ATI geschafft den Leistungsverlust und die Stromaufnahme zu reduzieren???

Der NV40 ist nichts anderes als 2*NV35 plus eine SM 3.0 Einheit und der R420 2*R360 plus 3DC Einheit.Darf man fragen, ob du den 3DCenter-Artikel zum Thema NV40 gelesen hast?

Vampire
2004-05-25, 16:19:27
Original geschrieben von Gast
Du warss gerade da zum anklicken :)

Ick liep dick och! :bäh:

deekey777
2004-05-25, 16:19:32
Original geschrieben von DrumDub
nope. unter dx9 kann er nicht funtkionieren. siehe der link oben. wenn m$ denn f-buffer net will, dann gibts ihn auch net in dx9. abgesehen davon ist er für spiele eh unsinnig, da zu langsam.

Du hast es erfasst: Der F-Buffer kann unter DX9 gar nicht funktionieren, nur hiess am Anfang, der F-Buffer soll unter DX9&OpenGl funktionieren, dann nur unter OpenGl, und dann nur :ups: . Und jetzt heisst es, es gibt nur deswegen keinen F-Buffer Support, weil es kein OpenGl 2.0 gibt.

Gast
2004-05-25, 16:22:36
Original geschrieben von Vampire
Highendgamer = Jemand der mit dem Begriff PixelShader nichts anzufangen weiß?

Falls das "haha" sich auf meinen Kommentar bezieht, hast meine Intention nicht gefunden bzw. dann habe ich mich falsch ausgedrückt.

Ein dreimaliges HA, hat nichts mit deinem Beitrag zu tun, sondern nur mit dem Aufschrei in mir wenn ich die Produktbeschreibungen im Marketing sehe & höre.

Es wird Zeit....

ow
2004-05-25, 16:22:49
Original geschrieben von Gas3t
Ich habe auch nicht geschrieben, dass ich das von einem IHV erwarte, sondern nur, dass die gewählte Form nicht die feine Art ist. Da musst du wohl zustimmen.


Ja, dem stimme ich zu.


Aber vielleicht könnte ein kleines (vielleicht auch nur klitzekleines) Zugeständnis, dass die Karten der Konkurrenz nicht schlecht ist, dem Image durchaus förderlich sein. Das bedeutet ja nicht, dass sie gleich die Vorteile der Konkurrenz herausstellen, sondern eben nur ein allgemeines "gut" (um dann zu sagen: Hier und dort sind wir weiter/besser ...).

Dieses Posting bezieht sich allgemein auf alle IHVs.

Da glaube ich nicht daran.
Es wird keiner (der IHVs) sagen, "die Konkurrenz ist gut aber wir sind besser". Das wird gekuerzt auf "wir sind besser als die Konkurrenz".

ow
2004-05-25, 16:24:18
Original geschrieben von aths
Sollten die IHVs darauf verzichten, Features die absehbar nicht sofort relevant werden, einzubauen?


Natuerlich, was denn sonst. Nichts anderes predigen doch einige hier. Und das nicht erst seit heute.

Gast
2004-05-25, 16:24:31
Original geschrieben von aths
Darf man fragen, ob du den 3DCenter-Artikel zum Thema NV40 gelesen hast?

Ja klar, ich finde den sehr gut sogar!

Meine Meinung ist mehr "bildlich" gemeint wenn du verstehst!

Mr. Lolman
2004-05-25, 16:25:58
Original geschrieben von LovesuckZ
Wer sich jetzt eine NV40 kauft, werde wohl kaum wegen einer angeblichen armseligen "Shadergeschwindigkeit" wechseln.


Damals wusste auch nnoch niemand was von ner armseligen Shadergeschwindigkeit ;)

Ne stimmt schon. Die Ausgangssitauation im Vergleich zu damals ist leicht unterschiedlich. Nur die Fanboys verhalten sich genau gleich...


Nvidia hat nicht nur aufgeholt, sie haben ATi einfach mal überholt und das sogar deutlich.


Ich hab mit meinem getunten Golf heut auch schon ein paar blöde Opelfahrer deutlich überholt..



Ich kenne nur Farcry. Und mit "full trilinear on default" kann man den NV40 ja nicht mit dem "full trilinear on default" des r420 vergleichen.


Warum?
Weil NV Karten nur mehr 2xAF für TS>0 nur Verfügung stellen (warte aths Artikel ab)


Du vergleichst doch jetzt nicht die Geschwindigkeit in der ATI Demo?
Vergleiche doch mal Shadermark2.0. Dort ist eine 6800GT in vielen test schneller als eine x800Pro mit dem offiziellen CAT4.5.



Stimmt. SM2.0 wurde schon optimiert. Rubydemo noch nicht. Vielleicht kann ich mich einfach nicht mit dem Gedanken anfreubnden, dass meinGraKatreiber immer erst optimiert werden muss, bevor was ordentlich läuft

BTW:

Painkiller, ColinMcrae Rally, rthdribl, und Tombraider fallen mir jetzt mal als Gegenargument ein. Wenn dir das nicht reicht, such ich dir vielleicht sogar ein paar Benchmarks raus.. (solltest du aber eh kennen. Bei anandtech und bei x-bitlabs/digit-life findet man so einige)



Warum eigentlich immer Farcry? Wieso nichtmal TR:6 oder Halo?
Nun, wenn du meinst, dass ATi sich in Shaderintensiven Anwendungen nicht vom r360 absetzen koenne, muss ich sagen: Muss ich das ernst nehmen?
Oder anders: Setzt sich der r420 auch nicht ab? Nach dir: nein. Denn beim Takt zu Takt - Vergleich herrscht ein Gleichstand.

Takt zu takt vergleich. Ein Golf (nicht meiner, denn ich hab ja eigentlich garkeinen ;)) hat genauso 4 Zylinder wie ein Honda s2000, und wär mit gleicbviel PS sicher min. genauso gut...

BTW: Warum kaufen die Leute eigentlich noch Intelprozessoeren. Beim Takt zu Takt vergleich haben die ja keinen Meter...

Gast
2004-05-25, 16:26:40
Original geschrieben von Vampire
Ick liep dick och! :bäh:

Du hass mich gerade auf geniale Idee gebracht....

standy by für 20 min. Erklärung kommt gleich!

betasilie
2004-05-25, 16:27:23
Original geschrieben von Vampire
Alle Leser können zwischen hochwertigen Tests und wirklich schlechten unterscheiden?
Glaube nicht wirklich. Nicht jeder ist Geek und kennt das Hardware 1 mal 1. Ich bin der Meinung, dass nVidia gerade das Segment der Newcomer (wir waren auch mal welche) trifft, die sich beim Begriff PS3.0 am Kopf kratzen, und nicht nur das...sondern einen Volltreffer landet.
Klingt PS3.0 nicht viel besser als PS2.0? Was es im Endeffekt bewirkt ist natürlich die andere Seite.
Denkweise vieler Leute ist nunmal:
- größere Versionen = 100% besser
- teurer = besser (stimmt zwar ab und zu, aber nicht immer)
- was drauf steht, ist auch drin
natürlich kann der Normaluser gute nicht von schlechten Tests unterscheiden. ... Das steht wohl nicht zur Diskussion.

3Dc ist als Marketingfaktor im Vergleich zu SM3.0 auch nicht zu verachten.
Man muss sich nur mal anschauen wie viele Leute heute noch hoch beeindruckt von den S3TC-Texturen in diesen Unreal Maps reden. ;)

aths
2004-05-25, 16:27:52
Original geschrieben von ow
Natuerlich, was denn sonst. Nichts anderes predigen doch einige hier. Und das nicht erst seit heute. Nur wenn hier was einige predigen (mich eingeschlossen) muss das noch lange nicht stimmen.

aths
2004-05-25, 16:28:55
Original geschrieben von Gast
Ja klar, ich finde den sehr gut sogar!G00d :)
Original geschrieben von Gast
Meine Meinung ist mehr "bildlich" gemeint wenn du verstehst! Ehrlich gesagt, nein. SM 3.0 z. B. ist nicht nur eine 3.0-Einheit, sondern eine andere HW-Architektur. (Zumal NV40 alles andere als 2x NV35 ist.) X800 ist aber im wesentlichen wirklich nur 2x R360.

Gast
2004-05-25, 16:29:03
Original geschrieben von betareverse
natürlich kann der Normaluser gute nicht von schlechten Tests unterscheiden. ... Das steht wohl nicht zur Diskussion.

3Dc ist als Marketingfaktor im Vergleich zu SM3.0 auch nicht zu verachten.
Man muss sich nur mal anschauen wie viele Leute heute noch hoch beeindruckt von den S3TC-Texturen in diesen Unreal Maps reden. ;)


Stimmt betaverse, mein X800PRo rockt da voll ab!

ow
2004-05-25, 16:30:10
Original geschrieben von deekey777
Musst du unbedingt Salz in offende Wunden aller 9800 Besitzer streuen? :...(

:weg:

Hae??
Der F-Buffer kann doch nun wirklich allen egal sein.

Er hat zu keinem Zeitpunkt funktioniert und ist in seinen Anwendungsmoeglichekietne auch sehr beschraenkt.
Unter D3D kann er wohl generell nicht genutzt werden und eine OGL-Extension dafuer gibt es AFAIK auch nicht. Und selbst wenn es die gaebe muesset ein Programmierer diese Extension ja explizit unterstuetzen.

Mr. Lolman
2004-05-25, 16:31:21
Original geschrieben von ow
Hae??
Der F-Buffer kann doch nun wirklich allen egal sein.

Er hat zu keinem Zeitpunkt funktioniert und ist in seinen Anwendungsmoeglichekietne auch sehr beschraenkt.
Unter D3D kann er wohl generell nicht genutzt werden und eine OGL-Extension dafuer gibt es AFAIK auch nicht. Und selbst wenn es die gaebe muesset ein Programmierer diese Extension ja explizit unterstuetzen.

FullACK ! :)

Gast
2004-05-25, 16:34:28
Original geschrieben von aths
G00d :)
Ehrlich gesagt, nein. SM 3.0 z. B. ist nicht nur eine 3.0-Einheit, sondern eine andere HW-Architektur. (Zumal NV40 alles andere als 2x NV35 ist.) X800 ist aber im wesentlichen wirklich nur 2x R360.

Hi aths,

die SM 3.0 Architektur steht in meinem Schaubild vom Chip zwischen den beiden NV35-Radios*g* und oben druuf sind die V-P's und PS-P's. Dieses Problem ist bezüglich der Stromaufnahme auch schon längst belegt, wenn die Architektur tatsächlich völlig wäre hätte sie auf 0,13 mehr beim Watt und LE-Verlust erreicht.

Habt Ihr eigentlich gehört das Point o. V. NUR 10 6800'er Launchkarten erhalten hat! ;9

LovesuckZ
2004-05-25, 16:35:47
Original geschrieben von Mr. Lolman

Ne stimmt schon. Die Ausgangssitauation im Vergleich zu damals ist leicht unterschiedlich. Nur die Fanboys verhalten sich genau gleich...[/Size]

Blut ist dicker als Wasser *eg*

Warum?
Weil NV Karten nur mehr 2xAF für TS>0 nur Verfügung stellen (warte aths Artikel ab)


Haben wir das nicht schon geklaert? :(

Stimmt. SM2.0 wurde schon optimiert. Rubydemo noch nicht. Vielleicht kann ich mich einfach nicht mit dem Gedanken anfreubnden, dass meinGraKatreiber immer erst optimiert werden muss, bevor was ordentlich läuft

:bonk: <-- würde gerne etwas sagen, aber das verschlaegt gerade meine Sprache.

BTW:
Painkiller, ColinMcrae Rally, rthdribl, und Tombraider fallen mir jetzt mal als Gegenargument ein.

Mir faellt dazu nur ein: AF. Ohne AF liegt der NV40 komischerweise immer vorne...

Takt zu takt vergleich. Ein Golf (nicht meiner, denn ich hab ja eigentlich garkeinen ;)) hat genauso 4 Zylinder wie ein Honda s2000, und wär mit gleicbviel PS sicher min. genauso gut...

Wenn ich eine 6800GT mit einer X800pro vergleiche, komme ich fast auf ein 1:1 Verhaeltnis. Und dann sind beide Karten gleichschnell. nein, falsch: Mit dem aktuellsten CAT Treiber liegt die x800Pro Karte in shaderintensiven Anwendungen sogar hinter der Karte...
Aber ich lasse das Thema jetzt mal ruhen. Deine Argumente langweiligen mich, da das wie ein Gerede gegen die Wand ist...

Xmas
2004-05-25, 16:41:34
Zum F-Buffer, warum sind sich hier einige so sicher dass er nicht funktioniert?

deekey777
2004-05-25, 16:43:36
Original geschrieben von LovesuckZ
...

Warum eigentlich immer Farcry? Wieso nichtmal TR:6 oder Halo?
...

Seite 133 in der c't 11/04: Die NV40 ist in TR:AoD bei 1600x1200 (ohne AA&AF)im Vergleich zu der X800XT* vorne - 72 zu 69. Schaltet man aber Heat Haze dazu ein, ist die X800XT vorne (67 zu 65 - ein Minus von 2 (X800XT) bzw. 7 (6800 Ultra) FPS). Und wenn zusäzlich (zum Heat Haze) noch Glow/Depth of Field an sind, liegt die X800XT mit 51 FPS zu 41 FPS bei der 6800 Ultra nocht deutlicher vorn. Wenn man aber den Unterschied zw. mit allen und ohne alle Zusatzeffekte(-n) berechnet, ist auch zu sehen, dass die X800XT weniger empfindlich ist.
Und Halo? Da kenne ich mich nicht aus, aber irgendjemand meinte, dass die FXen mit FP16 rechnen würde... Ob Halo selbst die 6800 als eine NV40 erkennt, ist zu bezweifeln, da das letzte Halo Update etwas zurück liegt.


(*525/574MHz, die Verkaufsversion wird mit 520/560 MHz ausgeliefet)

aths
2004-05-25, 16:43:58
Original geschrieben von Gast
Hi aths,

die SM 3.0 Architektur steht in meinem Schaubild vom Chip zwischen den beiden NV35-Radios*g* und oben druuf sind die V-P's und PS-P's. Dieses Problem ist bezüglich der Stromaufnahme auch schon längst belegt, wenn die Architektur tatsächlich völlig wäre hätte sie auf 0,13 mehr beim Watt und LE-Verlust erreicht.Hm? Der NV40 zieht bei deutlich mehr Transis als der NV35 kaum mehr Strom. Ein Blick auf die Architektur zeigt, dass gewisse Aspekte vom NV35 inspiriert wurden, aber vieles neu ist.

Gast
2004-05-25, 16:45:41
Original geschrieben von aths
Hm? Der NV40 zieht bei deutlich mehr Transis als der NV35 kaum mehr Strom. Ein Blick auf die Architektur zeigt, dass gewisse Aspekte vom NV35 inspiriert wurden, aber vieles neu ist.

Hast du schon eine NV-40 am Messgerät selber gehabt ?
Ich habe da meine eigenen Erfahrungen!

ow
2004-05-25, 16:46:19
Original geschrieben von aths
Nur wenn hier was einige predigen (mich eingeschlossen) muss das noch lange nicht stimmen.

Natuerlich nicht.
Aber mach das mal den Fanboys klar.

Gast
2004-05-25, 16:47:28
...gibt es bald eine Webseite mit dem Thema - "was drauf steht ist nicht drin"

Dann wird es richtig lustisch, Grafikkarten ist ja ein Thema aber andere Klamotten sind viel härter, aber was ich erzähl ich da, in einigen Wochen mehr unter www........de

LovesuckZ
2004-05-25, 16:48:27
Original geschrieben von deekey777
- TR6 -

Danke. 25% Vorsprung bei 30% hoeherer Taktung und eventuellen Beta CAT4.5 Treiber.
Beim Vergleich 6800GT und X800pro sollte es dann einen Gleichstand kommen. Wodurch Mr.Lolman's These somit, dank dir, widerlegt ist.

Und Halo? Da kenne ich mich nicht aus, aber irgendjemand meinte, dass die FXen mit FP16 rechnen würde... Ob Halo selbst die 6800 als eine NV40 erkennt, ist zu bezweifeln, da das letzte Halo Update etwas zurück liegt.

Durchgaengig FP16 fordert Halo an.

(*525/574MHz, die Verkaufsversion wird mit 520/560 MHz ausgeliefet) [/SIZE]

Wahrscheinlich auch ein Schreibfehler von der c't...

Gast
2004-05-25, 16:48:39
Original geschrieben von ow
Natuerlich nicht.
Aber mach das mal den Fanboys klar.
Ach, ich bin kein Fanboy, ich habe da und dort gearbeitet, letztendlich ist alles gleich nur das einige etwas gleicher sind :)

ow
2004-05-25, 16:48:44
Original geschrieben von Xmas
Zum F-Buffer, warum sind sich hier einige so sicher dass er nicht funktioniert?


Weil es AFAIK bislang keinen Beweis gibt, dass er funktioniert. Und nach so langer Zeit die es den F-Buffer nun schon gibt....

aths
2004-05-25, 16:49:54
Original geschrieben von ow
Natuerlich nicht.
Aber mach das mal den Fanboys klar. Das wird kaum gelingen, denn die meisten Fanboys sehen sich nicht als solche.

Gast
2004-05-25, 16:54:14
Original geschrieben von aths
Das wird kaum gelingen, denn die meisten Fanboys sehen sich nicht als solche.

zum Thema Fanboys!

Wußtet Ihr eigentlich das der Gainward diesen völlig überzogenen Computerbase-Artikel an alle seine Kunden rausgeschickt hat!

Das gibt erstmal Fanboys ;) ;) ;)

deekey777
2004-05-25, 16:55:33
Original geschrieben von LovesuckZ
Danke. 25% Vorsprung bei 30% hoeherer Taktung und eventuellen Beta CAT4.5 Treiber.
Beim Vergleich 6800GT und X800pro sollte es dann einen Gleichstand kommen. Wodurch Mr.Lolman's These somit, dank dir, widerlegt ist. ...

Und? Die NV40 scheint es nicht zu mögen, wenn es zu einem sehr starken Einsatz der PS 2.0 kommt. Selbst wenn die X800XT mit 1000 MHz getaktet wäre - wieso bricht die NV40 bei eingeschalteten Zusatzgimmicks so stark ein? Das kein Grund zur Freude!

Original geschrieben von LovesuckZ
Wahrscheinlich auch ein Schreibfehler von der c't...

Hehe...

Original geschrieben von LovesuckZ
Vergleiche doch mal Shadermark2.0. Dort ist eine 6800GT in vielen test schneller als eine x800Pro mit dem offiziellen CAT4.5.


Shadermark... Die NV40 kann 6 Tests weniger als eine R300 bzw. eine R420, aber einen ganzen Test mehr als die NV38. Hurra!

LovesuckZ
2004-05-25, 17:00:23
Original geschrieben von deekey777
Und? Die NV40 scheint es nicht zu mögen, wenn es zu einem sehr starken Einsatz der PS 2.0 kommt. Selbst wenn die X800XT mit 1000 MHz getaktet wäre - wieso bricht die NV40 bei eingeschalteten Zusatzgimmicks so stark ein? Das kein Grund zur Freude!

Weil hier die Shaderleistung limitiert?
Somit es logisch ist, dass eine 30% hoeher getaktete Karte auch deutlich schneller ist (wobei, dem beta CAT4.5 wohl auch einiges zu verdanken).

Fadl
2004-05-25, 17:04:51
Original geschrieben von LovesuckZ
Weil hier die Shaderleistung limitiert?
Somit es logisch ist, dass eine 30% hoeher getaktete Karte auch deutlich schneller ist (wobei, dem beta CAT4.5 wohl auch einiges zu verdanken).

Nun lasst mal den beta CAT aussen vor. Von NVidia gibt es auch noch keinen finalen Treiber für ihre neuen Karten.

Riipa
2004-05-25, 17:04:51
Original geschrieben von Gast
zum Thema Fanboys!

Wußtet Ihr eigentlich das der Gainward diesen völlig überzogenen Computerbase-Artikel an alle seine Kunden rausgeschickt hat!

Das gibt erstmal Fanboys ;) ;) ;)

Gainward möchte gern Garfikkarten verkaufen. Wenn also Fakten auftauchen, die die Leistung bestimmter Konkurrenzprodukte betreffen, dann wird man die natürlich an alle Kunden verschicken, damit die dem Endabnehmer gegenüber besser argumentieren können. Da drin Fanboy-tum zu sehen lässt auf einen groben Mangel an Verständnis für wirtschaftliche Fragen schließen.

Dass der Artikel der Computerbase im übrigen durchaus begründet war, ist in diesem Forum ja schon ausgiebig besprochen worden. Wenn man den Artikel als völlig überzogen betrachtet, dann sollte man sich darüber Gedanken machen, wohin diese gegenseitige Cheatsspirale führen kann und wird, wenn nicht irgendwer hin und wieder mal etwas entdeckt.

LovesuckZ
2004-05-25, 17:07:27
Original geschrieben von Fadl
Nun lasst mal den beta CAT aussen vor. Von NVidia gibt es auch noch keinen finalen Treiber für ihre neuen Karten.

Du willst doch nicht sagen, dass man aktuelle r(v)3(4)xx User zu einem Betatreiber raten sollte?
Sollte der naechste offizielle Nvidiatreiber ebenfalls deutlich langsamer sein, dann gehoeren sich auch abgestraft.

Gast
2004-05-25, 17:08:18
Mal ne Frage: Wer denkt sich so einen bescheuerten Threadtitel aus?

DrumDub
2004-05-25, 17:09:11
Original geschrieben von deekey777
Du hast es erfasst: Der F-Buffer kann unter DX9 gar nicht funktionieren, nur hiess am Anfang, der F-Buffer soll unter DX9&OpenGl funktionieren, dann nur unter OpenGl, und dann nur :ups: . Und jetzt heisst es, es gibt nur deswegen keinen F-Buffer Support, weil es kein OpenGl 2.0 gibt.

mhh... na gut. beweisen kann ichs nicht, dass es funktioniert. wobei ich mich frage, warum ati immer noch bei r420 mit dem f-buffer wirbt:

2nd generation F-buffer technology accelerates multi-pass pixel shader programs with unlimited instructions
http://www.ati.com/products/radeonx800/specs.html

Winter[Raven]
2004-05-25, 17:10:09
Original geschrieben von LovesuckZ
Du willst doch nicht sagen, dass man aktuelle r(v)3(4)xx User zu einem Betatreiber raten sollte?
Sollte der naechste offizielle Nvidiatreiber ebenfalls deutlich langsamer sein, dann gehoeren sich auch abgestraft.

Nö ... bei Nvidia wird es wohl andersrum sein *eg*

ForceWare drivers just beginning to unleash the true power

Fadl
2004-05-25, 17:15:27
Original geschrieben von LovesuckZ
Du willst doch nicht sagen, dass man aktuelle r(v)3(4)xx User zu einem Betatreiber raten sollte?
Sollte der naechste offizielle Nvidiatreiber ebenfalls deutlich langsamer sein, dann gehoeren sich auch abgestraft.

Ich vermute mal das der 4.6 Treiber die Leistung vom beta 4.5 erreichen wird. Von daher wird wohl demnächst jeder davon profitieren der eine neuere ATI Karte besitzt.

Bei NVidia frage ich mich wann denn der neue finale Treiber released wird. Denn die Karten scheinen ja nun schon vereinzelnt auf dem Markt zu sein.
Und dann tritt dein erster Satz("Du willst doch nicht sagen, dass man aktuelle r(v)3(4)xx User zu einem Betatreiber raten sollte?") wieder in kraft.
Denn was sollen NV 6800 User anderes tun? ;)

deekey777
2004-05-25, 17:17:41
Original geschrieben von DrumDub
mhh... na gut. beweisen kann ichs nicht, dass es funktioniert. wobei ich mich frage, warum ati immer noch bei r420 mit dem f-buffer wirbt:


http://www.ati.com/products/radeonx800/specs.html

ATi wirbt auch noch mit dem F-Buffer der R350:
Smartshader 2.1 (http://www.ati.com/companyinfo/glossary/includes/list.html#smartshader21)

Is the second generation of cinematic shader technology from ATI, allowing users to experience complex, movie-quality effects in next-generation 3D games and applications. Key features include:
...
New F-buffer technology supports fragment shader programs of unlimited length
...
Multiple render targets
Shadow volume rendering acceleration
Complete feature set also supported in OpenGL ® via extensions

Hat doch nichts zu sagen. :D

Kann es sein, dass es zu einem Mißverständnis gekommen ist, da ich eher von F-Buffer der ersten Generation gesprochen habe und du von der zweiten Generation?

Gast
2004-05-25, 17:25:05
Original geschrieben von spawn|TB
So ich geb auch mal meinen senf dazu...
ATI ROXX

Einfach nur LOL!
Dasselbe Niveau wie "Ey, Alda, mein GTI is besa alz Dein Manta!" (Entschuldige bitte, spawn)



Also ich finde solche Präsentationen (ob echt oder nicht) doppelt lustig - einerseits, weil der Funken Wahrheit zum Schmunzeln einlädt, andererseits, weil die PR-Maschinerie das Ganze so sehr aufbläht, daß... hmm... mal bildlich gesehen:

Man nehme einen Luftballon mit Gesicht (Teil-Aspekt eines Fakts). PR-Mann kommt daher, sieht den Luftballon und bläst diesen weiter auf bis das Gesicht verzerrt ist. Fertig ist die PR-Meldung - immer noch dasselbe Gesicht, immer noch genauso richtig, aber vollkommen verzerrt und deshalb so lächerlich.

Gast
2004-05-25, 17:26:38
Original geschrieben von Riipa
Gainward möchte gern Garfikkarten verkaufen. Wenn also Fakten auftauchen, die die Leistung bestimmter Konkurrenzprodukte betreffen, dann wird man die natürlich an alle Kunden verschicken, damit die dem Endabnehmer gegenüber besser argumentieren können. Da drin Fanboy-tum zu sehen lässt auf einen groben Mangel an Verständnis für wirtschaftliche Fragen schließen.

Dass der Artikel der Computerbase im übrigen durchaus begründet war, ist in diesem Forum ja schon ausgiebig besprochen worden. Wenn man den Artikel als völlig überzogen betrachtet, dann sollte man sich darüber Gedanken machen, wohin diese gegenseitige Cheatsspirale führen kann und wird, wenn nicht irgendwer hin und wieder mal etwas entdeckt.

Naja, das sehe ich anders, aber egal, no comment!

Dunkeltier
2004-05-25, 17:28:16
Original geschrieben von LovesuckZ
Zeige uns doch bitte, wo nvidia lügt.

Wer ohne Sünde ist, der werfe bitte den ersten Stein. Man könnte genauso gut vieles gegen den NV40 interpretieren (was ich mir aber erspare). Zum Beispiel das er ein stark frisierter NV35 ist. Oder das in der Qualität gesenkte tri-aF. Oder, oder, oder... Beide Hersteller haben sich diesmal nicht gerade mit Ruhm bekleckert. Würde ich demnächst zu einer neuen Grafikkarte greifen, wäre es sicherlich trotz alledem eine NV40 (Geforce 6800 GT/ Ultra/ Ultra Extreme).

Tjell
2004-05-25, 17:34:37
[B]Also wird am Ende die Leistung entscheiden und ATI und NV können da mit ihrem 3Dc oder Sm3.0 angeben wie sie wollen. Die Mehrheit der Kosumenten werden erst durch Anwendungen überzeugt werden, die diese Technologien explizit nutzen.

Das glaubst Du doch nicht ernsthaft, oder? Warum glaubst liegt nVidia noch immer mit den Marktanteilen vor Ati?Doch nicht, weil die Gamer und Poweruser (die diese Techniken kennen) hauptsächlich nVidia kaufen? Nee!

Der unwissende Käufer mit dem PC aus dem Lebensmittelregal bringt den (Haupt-)Umsatz über das OEM-Geschäft, und das OEM-Geschäft wird größtenteils mit so "Technikkrachern" wie die FX5200 bedient. Ergo?

Ich sehe schon die Werbeflyer mit PCs mit nVidia-Grakas vor mir: "Schnellste Grafik dank PS3.0." Und drin steckt die langsamst Krücke, die nVidia dann gebastelt hat, aber das ist ja egal, weil ja die Graka dank PS3.0-Support ultraschnell ist. ROFL

Märkte gewinnt man eben (leider) durch Marketing.

Dunkeltier
2004-05-25, 17:38:32
Original geschrieben von Tjell
Das glaubst Du doch nicht ernsthaft, oder? Warum glaubst liegt nVidia noch immer mit den Marktanteilen vor Ati?Doch nicht, weil die Gamer und Poweruser (die diese Techniken kennen) hauptsächlich nVidia kaufen? Nee!

Der unwissende Käufer mit dem PC aus dem Lebensmittelregal bringt den (Haupt-)Umsatz über das OEM-Geschäft, und das OEM-Geschäft wird größtenteils mit so "Technikkrachern" wie die FX5200 bedient. Ergo?

Ich sehe schon die Werbeflyer mit PCs mit nVidia-Grakas vor mir: "Schnellste Grafik dank PS3.0." Und drin steckt die langsamst Krücke, die nVidia dann gebastelt hat, aber das ist ja egal, weil ja die Graka dank PS3.0-Support ultraschnell ist. ROFL

Märkte gewinnt man eben (leider) durch Marketing.

So siehts aus, genauso wie mit den Ghz der aktuellen Prozessoren. Das alle anderen Komponenten alles andere als ausgewogen zusammgestellt sind, wird dabei gerne unter den Tisch gekehrt. Aber eines Tages wirds sicherlich auch der letzte Computer Bild Leser verstanden haben. Spätestens, wenn er sich zum hundersten mal über seine "lahme Krücke" ärgert.

DrumDub
2004-05-25, 17:40:00
Original geschrieben von deekey777
Kann es sein, dass es zu einem Mißverständnis gekommen ist, da ich eher von F-Buffer der ersten Generation gesprochen habe und du von der zweiten Generation?

nene. ich meinte auch den der ersten generation. die begründung seitens ati, warums nicht in dx9 integriert wurde fand ich schon logisch.

meine logik kam eher daher, dass ati wohl nicht für dieses feature beim r420 wirbt, wenn es beim r350/360 nicht funktioniert. die beschränkung auf opengl zeigt imho nur, dass das feature nicht in realen spielen nutzbar sein wird und daher von m$ nicht in erwägung gezogen wurde es in dx9 zu integrieren.

siehe auch xmas aussage auf der vorigen seite. er hat sicherlich mehr ahnung von der technischen seite und opengl. vielleicht kann er ne definitive aussage dazu machen, um diese spekulationen zu beenden. ;)

Gast
2004-05-25, 17:43:28
Original geschrieben von Exxtreme
Naja, das dachte man vom Kyro-Dokument auch. Nvidia hat es aber zugegeben, daß es echt war.

nVidia benutzt offensichtlich solche Dokumente und Methoden um ihre Mitarbeiter anzustacheln und zu motivieren! Erninnert irgendwie an Steve Jobs und Apple...

Xmas
2004-05-25, 17:56:35
Original geschrieben von DrumDub
siehe auch xmas aussage auf der vorigen seite. er hat sicherlich mehr ahnung von der technischen seite und opengl. vielleicht kann er ne definitive aussage dazu machen, um diese spekulationen zu beenden. ;)
Ich kann keine definitive Aussage machen, allerdings habe ich die Vermutung dass der F-Buffer bei GLSlang verwendet wird.

dildo4u
2004-05-25, 17:57:44
Typisch US amerikanischer auffassung von wettbewerb Kapitalismuss über alles naja da sind mir Kanadier 100mal lieber ;-) diese wir können eh alles besser und die anderen ham kein plan einstellung geht mir bei den ammis sowieso mächtig auf den sack!

Demirug
2004-05-25, 18:01:51
Original geschrieben von Xmas
Ich kann keine definitive Aussage machen, allerdings habe ich die Vermutung dass der F-Buffer bei GLSlang verwendet wird.

Ich nicht. Schon mal die neuste Version von Rendermonkey angeschaut?

Xmas
2004-05-25, 18:04:27
Original geschrieben von Demirug
Ich nicht. Schon mal die neuste Version von Rendermonkey angeschaut?
Nein, ist lange her dass ich mir RM angeschaut hab. Bekommt man bei langen Shadern zu viele Fehlermeldungen? ;)

DrumDub
2004-05-25, 18:05:45
Original geschrieben von Xmas
Ich kann keine definitive Aussage machen, allerdings habe ich die Vermutung dass der F-Buffer bei GLSlang verwendet wird.

so hab ichs auch interpretiert. also harren wir da der dinge, die noch kommen. ati hat hier sicherlich die bringschuld. ich glaube aber nicht an ne luftnummer, sonst würden sie sicherlich nicht mehr bei r420 dafür werben.

wie es mit dem praktischen nutzen aussieht, wird man dann ja sehen. für spieler tendiert er eher gegen null, da sich shader mit solch langen instruktionen sicher nicht in spielen einsetzen lassen. abgesehen davon natürlich, dass erstmal jemand ein spiel programmieren müsste, welches glsl nutzt.

Demirug
2004-05-25, 18:12:03
Original geschrieben von Xmas
Nein, ist lange her dass ich mir RM angeschaut hab. Bekommt man bei langen Shadern zu viele Fehlermeldungen? ;)

Nein, die neuste Version zerlegt diese einfach in viele kleine und gibt an wie viele Zwischenspeicher in Form von FP-Texturen man braucht.

ow
2004-05-25, 18:22:40
Original geschrieben von Gast
nVidia benutzt offensichtlich solche Dokumente und Methoden um ihre Mitarbeiter anzustacheln und zu motivieren! Erninnert irgendwie an Steve Jobs und Apple...

...oder auch an ATi und andere. Die machen sowas nämlich auch. :D

Riipa
2004-05-25, 18:33:20
Das würde ATI doch NIE tun ow. ATI ist doch ein Hort des Anstands und der Moral, eine reine Quelle des Guten. Die bösen, bösen Kapitalistenschweine von Nvidia zwingen den Leuten ja alles nur auf. Und außerdem haben die auch noch die unglaublich innovative Firma 3dfx gnadenlos platt gemacht (als diese riesig fette Summen von Nvidia einklagen wollte, um sich zu sanieren). Das MÜSSEN böse Menschen sein.

zeckensack
2004-05-25, 18:37:41
Falls es nicht schon gepostet wurde ... :|
Diese Folie (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1845416#post1845416) enthält eine Falschinformation. Das Instruktions-Limit des R420 wurde kräftig aufgebohrt, und zwar auf das Maximum mit dem DX9 für SM2 überhaupt umgehen kann (irgendwo zwischen 512 und 1536 Instruktionen, je nachdem wie man das interpretiert).

Die PS-"Version" ist infolgedessen 2.x, und nicht wie dort dargestellt 2.0, und in jedem Fall hat R420 mehr Features als R300, egal wie man dies nun im einzelnen bewerten mag.

Der maximale I-Count könnte genausogut "unendlich" sein. Eine künstliche Beschränkung wäre aufgrund des Versionsmodells von DX9 dann ohnehin erforderlich. Klarheit werden hier erst ausgiebige Experimente mit GLslang schaffen können.

Mr. Lolman
2004-05-25, 18:39:42
Original geschrieben von Riipa

Das würde ATI doch NIE tun ow. ATI ist doch ein Hort des Anstands und der Moral, eine reine Quelle des Guten. Die bösen, bösen Kapitalistenschweine von Nvidia zwingen den Leuten ja alles nur auf. Und außerdem haben die auch noch die unglaublich innovative Firma 3dfx gnadenlos platt gemacht (als diese riesig fette Summen von Nvidia einklagen wollte, um sich zu sanieren). Das MÜSSEN böse Menschen sein.


Das war eher Sarkasmus :|

Mr. Lolman
2004-05-25, 18:41:37
Original geschrieben von zeckensack
Falls es nicht schon gepostet wurde ... :|
Diese Folie (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1845416#post1845416) enthält eine Falschinformation. Das Instruktions-Limit des R420 wurde kräftig aufgebohrt, und zwar auf das Maximum mit dem DX9 für SM2 überhaupt umgehen kann (irgendwo zwischen 512 und 1536 Instruktionen, je nachdem wie man das interpretiert).

Die PS-"Version" ist infolgedessen 2.x, und nicht wie dort dargestellt 2.0, und in jedem Fall hat R420 mehr Features als R300, egal wie man dies nun im einzelnen bewerten mag.

Der maximale I-Count könnte genausogut "unendlich" sein. Eine künstliche Beschränkung wäre aufgrund des Versionsmodells von DX9 dann ohnehin erforderlich. Klarheit werden hier erst ausgiebige Experimente mit GLslang schaffen können.

Sie schreiben ja nur, dass der R420 auf SM 2.0 aufgebaut ist ;)

Demirug
2004-05-25, 18:45:35
Original geschrieben von zeckensack
Falls es nicht schon gepostet wurde ... :|
Diese Folie (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1845416#post1845416) enthält eine Falschinformation. Das Instruktions-Limit des R420 wurde kräftig aufgebohrt, und zwar auf das Maximum mit dem DX9 für SM2 überhaupt umgehen kann (irgendwo zwischen 512 und 1536 Instruktionen, je nachdem wie man das interpretiert).

Die PS-"Version" ist infolgedessen 2.x, und nicht wie dort dargestellt 2.0, und in jedem Fall hat R420 mehr Features als R300, egal wie man dies nun im einzelnen bewerten mag.

Der maximale I-Count könnte genausogut "unendlich" sein. Eine künstliche Beschränkung wäre aufgrund des Versionsmodells von DX9 dann ohnehin erforderlich. Klarheit werden hier erst ausgiebige Experimente mit GLslang schaffen können.

Es sind 512 (Slots) unter DX9 und damit das Maximum.

Die Folie ist deswegen aber trotzedem nicht falsch sondern nur sehr creative geschrieben.

Dort steht ja nur das der R420 auf der R300 Architektur aus dem letzten Jahr aufbaut welche 2.0 unterstützt hat.

Dort steht nicht das der R420 nur 2.0 kann denn zum Shadermodel des R420 sagt man ja gar nichts.

Man möchte natürlich erreichen das dieser Schluss gezogen wird aber am Ende kann ihnen deswegen keiner was wollen den Sie haben ja nie gesagt das R420 nur 2.0 kann.

Gast
2004-05-25, 18:56:05
Original geschrieben von Tjell
Das glaubst Du doch nicht ernsthaft, oder? Warum glaubst liegt nVidia noch immer mit den Marktanteilen vor Ati?Doch nicht, weil die Gamer und Poweruser (die diese Techniken kennen) hauptsächlich nVidia kaufen? Nee!

Der unwissende Käufer mit dem PC aus dem Lebensmittelregal bringt den (Haupt-)Umsatz über das OEM-Geschäft, und das OEM-Geschäft wird größtenteils mit so "Technikkrachern" wie die FX5200 bedient. Ergo?

Ich sehe schon die Werbeflyer mit PCs mit nVidia-Grakas vor mir: "Schnellste Grafik dank PS3.0." Und drin steckt die langsamst Krücke, die nVidia dann gebastelt hat, aber das ist ja egal, weil ja die Graka dank PS3.0-Support ultraschnell ist. ROFL

Märkte gewinnt man eben (leider) durch Marketing.

Naja, das du nicht aus der Branche kommt merkt mann sofort.

1. Hat ATI im Highend einen Anteil von 80%
2. Hat nvidia im Entry, sprich MX440 einen Anteil von 60%
3. Ist das OEM-Geschäft mit der FX5200 nicht besser als das OEM-Geschäft mit der 9200SE.

Das Volumen wird im untersten Level gemacht.

zeckensack
2004-05-25, 19:06:01
Original geschrieben von Demirug
Es sind 512 (Slots) unter DX9 und damit das Maximum.

Die Folie ist deswegen aber trotzedem nicht falsch sondern nur sehr creative geschrieben.

Dort steht ja nur das der R420 auf der R300 Architektur aus dem letzten Jahr aufbaut welche 2.0 unterstützt hat.

Dort steht nicht das der R420 nur 2.0 kann denn zum Shadermodel des R420 sagt man ja gar nichts.

Man möchte natürlich erreichen das dieser Schluss gezogen wird aber am Ende kann ihnen deswegen keiner was wollen den Sie haben ja nie gesagt das R420 nur 2.0 kann. Bastards! :freak:

DanMan
2004-05-25, 19:10:39
Original geschrieben von Gast
Das Volumen wird im untersten Level gemacht.
Und da ist Intel Marktführer. :bäh:

Leonidas
2004-05-25, 19:13:15
Original geschrieben von Gast
Mal ne Frage: Wer denkt sich so einen bescheuerten Threadtitel aus?



Ich nicht. Aber ich habs gefixt.

Leonidas
2004-05-25, 19:13:46
HardOCP bestätigt Echtheit

http://www.hardocp.com/
Ronald Gasch, the main man over at 3DCenter, sent me a link to what is supposed to be an internal document from NVIDIA that is criticizing the ATi X800. Obviously all of this has to be taken with a few really big grains of salt because the “document” has several flaws in it which draw its authenticity into question. We are contacting NVIDIA for their comments and will update you as soon as we hear back from them.

Kyle's Update: I just got off the phone with NVIDIA PR front man Derek Perez. He did confirm that the slides linked above are NVIDIA's creation. The slide are just a few from a set of "20 or 30" that were developed by NVIDIA's USA Product Marketing team that were to be used only as a sales tool internally. Derek did say, "I am not going to apologize for them." He went on to explain how they need to outfit their sales teams as they see fit. Now that we are through that, we are hoping to see retail GeForce 6 hardware soon.

dildo4u
2004-05-25, 19:17:47
Original geschrieben von Leonidas
HardOCP bestätigt Echtheit

http://www.hardocp.com/
Ronald Gasch, the main man over at 3DCenter, sent me a link to what is supposed to be an internal document from NVIDIA that is criticizing the ATi X800. Obviously all of this has to be taken with a few really big grains of salt because the “document” has several flaws in it which draw its authenticity into question. We are contacting NVIDIA for their comments and will update you as soon as we hear back from them.

Kyle's Update: I just got off the phone with NVIDIA PR front man Derek Perez. He did confirm that the slides linked above are NVIDIA's creation. The slide are just a few from a set of "20 or 30" that were developed by NVIDIA's USA Product Marketing team that were to be used only as a sales tool internally. Derek did say, "I am not going to apologize for them." He went on to explain how they need to outfit their sales teams as they see fit. Now that we are through that, we are hoping to see retail GeForce 6 hardware soon. Also doch nicht für die öffentlichkeit gedacht wie manche hier behauptet haben

Mr. Lolman
2004-05-25, 19:19:13
Hm, wie langs wohl dauert, bis ATi zurückbasht? :schlag:

deekey777
2004-05-25, 19:29:34
Original geschrieben von Leonidas
Ich nicht. Aber ich habs gefixt.

Der neue Titel ist geil. ;D

Sphinx
2004-05-25, 19:29:57
Original geschrieben von LovesuckZ
Nein, dass will ich nicht. Wer aber zwischen diesen überzogenden und einen gelogenden "Konkurentenverarsche" keinen Unterschied sieht, sollte dies doch mal erklaeren.


Du bist die Zielgruppe die sie haben wollen ,)

Exxtreme
2004-05-25, 19:44:53
Naja, nach allem was ich über den R420 weiss, lege ich das Teil erstmal auf Eis. Der NV40 ist in vielen Belangen interessanter.

</teaser>

:D

Winter[Raven]
2004-05-25, 19:48:59
Original geschrieben von Mr. Lolman
Hm, wie langs wohl dauert, bis ATi zurückbasht? :schlag:

Wohl garnicht es gibt keine nennenswerte "Schwächen" bein NV40 wie beim R420.

Und nein Exxtreme, ich sitze nicht vor dem Monitor mit einer Luppe und schau ob es nun gammekorekt ist oder nicht.

Und ob das 8x AA von NV nun langsamm oder nicht ist, spielt keine Rolle da es durch SS besser aussieht ^^.

//EDIT:

Exxtreme ... antworte bitte auf meine PM von gestern ... please*

Crushinator
2004-05-25, 19:50:07
Original geschrieben von Exxtreme
Naja, nach allem was ich über den R420 weiss, lege ich das Teil erstmal auf Eis. Der NV40 ist in vielen Belangen interessanter. </teaser> ...und ich erst. :D

dildo4u
2004-05-25, 19:50:45
Original geschrieben von Exxtreme
Naja, nach allem was ich über den R420 weiss, lege ich das Teil erstmal auf Eis. Der NV40 ist in vielen Belangen interessanter.

</teaser>

:D wann gibts den endlich den artikel? Habe vor mir am samstag eine X800 zu holen meine 9700pro ist schon so gut wie verkauft :zweifel:

Dunkeltier
2004-05-25, 19:53:06
Original geschrieben von Winter[Raven]
[...]
Und ob das 8x AA von NV nun langsamm oder nicht ist, spielt keine Rolle da es durch SS besser aussieht ^^.
[...]


Ja super. Aber was hast du davon, wenn damit gleichzeitig jedes aktuellere Spiel unspielbar wird? Du kannst mir nicht erzählen, das du keinen Unterschied zwischen 30 FPS und 100 FPS siehst.

Exxtreme
2004-05-25, 19:58:41
Original geschrieben von Dunkeltier
Ja super. Aber was hast du davon, wenn damit gleichzeitig jedes aktuellere Spiel unspielbar wird? Du kannst mir nicht erzählen, das du keinen Unterschied zwischen 30 FPS und 100 FPS siehst.
In der Praxis ist das nicht so schlimm. Eine hohe Framerate brauchste eh' nur bei Shootern oder vielleicht auch Autorenn-Spielen. Und da reicht 4x RGMSAA IMHO vollkommen aus. Für Rollenspiele kann man SSAA nehmen. Da braucht man aber auch keine 100 fps.

Fadl
2004-05-25, 19:59:34
Original geschrieben von Exxtreme
Naja, nach allem was ich über den R420 weiss, lege ich das Teil erstmal auf Eis. Der NV40 ist in vielen Belangen interessanter.

</teaser>

:D

Um was für einen Artikel soll es sich eigentlich handeln?
Ich scheine da was überlesen zu haben ;)

Exxtreme
2004-05-25, 20:00:20
Original geschrieben von Winter[Raven]
Und ob das 8x AA von NV nun langsamm oder nicht ist, spielt keine Rolle da es durch SS besser aussieht ^^.

Naja, besser aussehen tut es nur dann, wenn es Situationen gibt, bei denen MSAA aussteigt. Ansonsten ist MSAA + AF die effektivere Kombination.

BlackArchon
2004-05-25, 20:06:35
Original geschrieben von Exxtreme
Naja, nach allem was ich über den R420 weiss, lege ich das Teil erstmal auf Eis. Der NV40 ist in vielen Belangen interessanter.

</teaser>

:D Hm, wenn du das als Ati-freundlicher Mensch sagst, dann muss der NV40 ja wirklich das gewisse Etwas haben.

Uller
2004-05-25, 20:07:20
@Exxtreme: wann erscheinen denn diese Artikel auf die du dauernd "hinteast"? So ungefähr? ;)

Exxtreme
2004-05-25, 20:11:30
Original geschrieben von Uller

@Exxtreme: wann erscheinen denn diese Artikel auf die du dauernd "hinteast"? So ungefähr? ;)
Von 3DC-Artikeln weiss ich nichts. ;(

BlackArchon
2004-05-25, 20:13:08
Original geschrieben von Exxtreme
Von 3DC-Artikeln weiss ich nichts. ;( Bitte werde doch mal konkret!!!!!!!!!!!!!!11111111111eintausendeinhundertelf :D

Gast
2004-05-25, 20:13:55
Original geschrieben von dildo4u
Typisch US amerikanischer auffassung von wettbewerb Kapitalismuss über alles naja da sind mir Kanadier 100mal lieber ;-) diese wir können eh alles besser und die anderen ham kein plan einstellung geht mir bei den ammis sowieso mächtig auf den sack!

Die Kanadier habens doch auch nicht anders gemacht.
Alleine die ATI Folien die hier in der Nvidia Präsentation zitiert werden sind das selbe Level.
Vor allem das nice Comment für Richard Huddy bzgl. SM3.0 Branching etc...
Eigentlich ist ATI doch selber Schuld an der Nvidia Präsentation. Die Munition haben sie ja dafür selber geliefert. Ich glaube der Trillinear Cheat Skandal bei ATI ist noch zu frisch. Der findet meiner Ansicht nach gar nicht richtig Beachtung in dieser Präsentation. Ich nehme mal an, dass man sich das für später aufhebt.

Ist doch alles in allem sehr unterhaltsam.

dildo4u
2004-05-25, 20:15:25
Original geschrieben von Gast
Die Kanadier habens doch auch nicht anders gemacht.
Alleine die ATI Folien die hier in der Nvidia Präsentation zitiert werden sind das selbe Level.
Vor allem das nice Comment für Richard Huddy bzgl. SM3.0 Branching etc...
Eigentlich ist ATI doch selber Schuld an der Nvidia Präsentation. Die Munition haben sie ja dafür selber geliefert. Ich glaube der Trillinear Cheat Skandal bei ATI ist noch zu frisch. Der findet meiner Ansicht nach gar nicht richtig Beachtung in dieser Präsentation. Ich nehme mal an, dass man sich das für später aufhebt.

Ist doch alles in allem sehr unterhaltsam.
ui naja wenn das so ist dann hätte ATI beim FX ja ein richtiges Faß aufmachen können und das mit recht!

Exxtreme
2004-05-25, 20:21:33
Original geschrieben von BlackArchon
Bitte werde doch mal konkret!!!!!!!!!!!!!!11111111111eintausendeinhundertelf :D
Kann ich nicht. ;( Und wie gesagt, irgendwelche Artikel habe ich niemals erwähnt. :D Da hat wieder jemand zu viel reininterpretiert. :D

x5
2004-05-25, 20:23:39
Was für eine sinnlose Diskussion.

Uller
2004-05-25, 20:24:12
Ich habe ja gar nicht von 3DC Artikeln geredet. Von Computerbase steht noch ein Artikel aus, Quasuar ist nicht mehr im Board unterwegs -> da ist doch was im Busch.
Warum "darfst" du aber nichtmal sagen ob es da einen Artikel geben wird?
Wenn es keinen Artikel gäbe, wäre es besser, wenn du nichts sagst, da du dann nur Verwirrung stiften würdest, aber das weißt du glaube ich selber.
Du kannst doch zumindest zu geben: ja, es wird demnächst einen Artikel geben.

Wenn es keinen Artikel geben wird, was hält dich dann davon ab deine Erkentnisse mit dem Pöbel zu teilen?

Gast
2004-05-25, 20:26:39
Haben se nicht, Zug verpasst :P
Im Verkauf wird halt mit harten Bandagen gekämpft, und wer sich nicht wehren bzw. es verkraften kann, der wird nunmal überrollt.
Ziel ist es doch seine Produke so gut wie möglich aussehen zu lassen, da wird auf jeder kleinen Schwäche rumgehaun, die "Dau´s" glauben ja dem Marketing... die "Interessierten" hingegen wissen sicher wie sie solche Folien zu nehmen haben, meist sind die ja Überzogen und gut Ausbaldobert damit man keine juristischen Angriffsfläche bietet.

Also abwarten, Tee rauchen und auf "echte" Karten warten, dann erst wieder die Trolle ausm Stall lassen...

Quasar
2004-05-25, 20:38:13
Original geschrieben von Uller
Quasuar ist nicht mehr im Board unterwegs

Das wäre mir ja ganz neu. :) Nur weil ich heute mal ein paar Stunden RL zwischengeschoben habe? =)

Uller
2004-05-25, 20:42:13
;D
Hätte ja sein können.
Die Frage bleibt trotzdem offen und es wäre doch ganz nett zu wissen, ob was kommt. Als Grafikkartenloser MUSS man sich nämlich was kaufen, und die neue Generation ist doch reizend ;)

BerndJazz
2004-05-25, 20:48:55
Hmm, jetzt weiß ich auch wieder nicht.....
Eine Zeitlang hab ich gedacht Exxtreme wird den R420-Usern bald unoptimiertes Full-Triliniar präsentieren.
Aber wenn er für sich den R420 auf Eis legt wird es das wohl auch nicht sein. Ausserdem, warum sollte er darüber nicht reden können?
Tja, bin wieder ratlos

MfG

BerndJazz

Hauwech
2004-05-25, 20:51:30
ATI basht NV, NV basht ATI. Wo ist das Problem? Eine schoene Zusammenfassung fuer NV-Anhaenger, ATI wird vielleicht bald so nachziehen. Beide Produkte haben ihre Schwachpunkte.
Technisch finde ich den NV40 interessanter und in diesem Fall glaube ich NV einfach mal das sie mit neuen Treibern noch ein oder zwei Kohlen nachlegen koennen (speziell bei Farcry). Wie schnell SM3 eingesetzt wird werden wir sehen, genauso 3Dc.

Wuerde mich mal interessieren ob und wann man etwas ueber denjenigen zu hoeren bekommt, der die Folien "verloren" hat. :D

Wie sieht es eigentlich mit dem AF bei den Quadro-Karten aus? Die sind ja eigentlich fuer "Proffeschinaels" gedacht. Stoeren die sich nicht an dem haesslichen AF oder kriegen die was anderes, besseres vorgesetzt? So aehnlich wie es SS bei ATI nur fuer Macintosher exklusiv ist (nur als hinkender Vergleich gedacht).

AlfredENeumann
2004-05-25, 21:10:32
Original geschrieben von DanMan
Und da ist Intel Marktführer. :bäh:

Hab noch keine Intel-Grafikkarte gesehen.

dildo4u
2004-05-25, 21:12:17
Original geschrieben von AlfredENeumann
Hab noch keine Intel-Grafikkarte gesehen.
Intel is marktführer(Onboard chip!)

BlackArchon
2004-05-25, 21:15:38
Original geschrieben von AlfredENeumann
Hab noch keine Intel-Grafikkarte gesehen. Ich schon. Die gute alte Intel i740. :D

AlfredENeumann
2004-05-25, 21:16:00
Original geschrieben von dildo4u
Intel is marktführer(Onboard chip!)

Wie bekomme ich ein AMD XP auf ein Intel-Borad?
Onboardchips sind so dermaßen uninteressant und eigentlich ne gefakte statistik, weil sie einfach auf dem Mainboard mit drauf sind.
Ich kenne keinen, auch keine Firma die diese Onboarddinger wirklich nutzt. Die haben alle ne extra Karte drin.

reunion
2004-05-25, 21:23:44
Naja, eine einseitig darstellung aller Nachteile des r420 mit ein paar aus den Zusammenhängen gerissenen Reviews die die Überlegenheit des NV40 zeigen sollen. ATI wird vermutlich Kontern und ebenfalls eine NV40-"Präsentation" rausbringen und die Schlammschlacht geht in die nächste Runde...

SKYNET
2004-05-25, 21:34:11
Original geschrieben von betareverse
Vielleicht damit, dass die ATI die schnelleren Karten baut. ;)

tun sie janicht, ohne den cheat bei den x800 karten sind sie ja DEUTLICH langsamer ;D

SKYNET
2004-05-25, 21:41:35
Original geschrieben von Mr. Lolman
:bonk: Man, wenn du mich schon an einzelnen Argumenten aufhängen willst, bitteschön:


"X800 ist just a 9800 on Stereoids"

Diese Aussage ist technisch genauso unkorrekt, wie unnötig. Wenn die x800 tatsächlich nur so eine gedopte 9800 sein soll, warum kann braucht eine 9800 dann Multipassshader um die Rubydemo darstellen zu können?

Oder erweitern Stereoide auch die technischen Fähigkeiten einer Grafikkarte :balla:




/edit: Ich weiss, es ist im Grunde genommen idiotisch, einzelne Marketingaussagen auseinanderzupflücken.

Die 9800XT Anisocheatsache ist ja genauso undurchsichtig. Nur auf der 9800Xt, eigentlich begann das ja mit der 9700. Hat man aber nicht geschrieben, denn was intereissrt der Presse die HW von gestern.

warum ? stimmt doch das die x800 nur ne aufgebohrte 9800er ist nix neues an dem ding ausser mehr takt und mehr pipes, NV40 dagegen ist nen absolut neuer chip, der garnix von den alten karten hat(ausser den namen "geforce")

Winter[Raven]
2004-05-25, 21:56:22
Original geschrieben von SKYNET
warum ? stimmt doch das die x800 nur ne aufgebohrte 9800er ist nix neues an dem ding ausser mehr takt und mehr pipes, NV40 dagegen ist nen absolut neuer chip, der garnix von den alten karten hat(ausser den namen "geforce")

Naja ... Nvidia übernahm so einiges aus dem NV30+NV35 was Ideen angeht, aber hast schon recht es gibt schon sehr vieles was wirklich neue ist.

Mr. Lolman
2004-05-25, 22:01:30
Original geschrieben von SKYNET
tun sie janicht, ohne den cheat bei den x800 karten sind sie ja DEUTLICH langsamer ;D

Und zwar solang, bis man die Optimierungen seitens NVidia auch deaktiviert hat ;)

Mr. Lolman
2004-05-25, 22:02:00
Original geschrieben von SKYNET
warum ? stimmt doch das die x800 nur ne aufgebohrte 9800er ist nix neues an dem ding ausser mehr takt und mehr pipes, NV40 dagegen ist nen absolut neuer chip, der garnix von den alten karten hat(ausser den namen "geforce")

Hast du auch grad Giga gekuckt :???:

[dzp]Viper
2004-05-25, 22:03:05
Original geschrieben von SKYNET
tun sie janicht, ohne den cheat bei den x800 karten sind sie ja DEUTLICH langsamer ;D

ja 3-5%... WOHA.... :bonk:

ich finde die fanboys (egal ob ati oder nv) echt witzig

LovesuckZ
2004-05-25, 22:04:03
Original geschrieben von [dzp]Viper
ja 2-3%... WOHA.... :bonk:


/Besserwisser
20 - 30%

deekey777
2004-05-25, 22:06:31
Original geschrieben von LovesuckZ
/Besserwisser
20 - 30%

Das gilt auch für beide.

[dzp]Viper
2004-05-25, 22:07:41
Original geschrieben von deekey777
Das gilt auch für beide.

bingo

darum ist das rumreiten auf nur einem der IHV´s einfach nur Schwachsinn