PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R300 (P)review Sammelthread (war: R300 Review bei Anand online)


Seiten : 1 2 [3]

Piffan
2002-07-20, 19:09:19
Originally posted by Korak
Das hat nicht direkt was mit der Auflösung zu tun, sondern es kommt ganz einfach auf die Ablaufgeschwindigkeit der Demo an.

Das ist ja gerade der Quatsch: Wie zum Teufel kann die Soundkarte mehr Arbeit haben, wenn die Demo schneller läuft ??? Sind nun auch die Soundeffekte hochfrequenter oder was? Hallo, Aufwachen!!

Es nimmt lediglich die Last für den Proz/Speicher zu, die Soundkarte bremst nicht die Bohne! Was bremst, ist die Berechnung der Soundeffekte, aber die Ausführung nicht, da die Frequenzen gleichbleiben. Birdman hat Recht!

Falles ich irre, bitte ich um freundliche Korrektur, aber bitte verständlich! :D

Korak
2002-07-20, 19:19:26
Originally posted by Piffan


Das ist ja gerade der Quatsch: Wie zum Teufel kann die Soundkarte mehr Arbeit haben, wenn die Demo schneller läuft ??? Sind nun auch die Soundeffekte hochfrequenter oder was? Hallo, Aufwachen!!

Es nimmt lediglich die Last für den Proz/Speicher zu, die Soundkarte bremst nicht die Bohne! Was bremst, ist die Berechnung der Soundeffekte, aber die Ausführung nicht, da die Frequenzen gleichbleiben. Birdman hat Recht!

Falles ich irre, bitte ich um freundliche Korrektur, aber bitte verständlich! :D

Was meinst du mit hochfrequenter?
Die Frequenz der Töne ändert sich doch nicht. Aber die äh Sps (Sounds per Second ;D) sind höher.

HOT
2002-07-20, 19:25:03
Lieder wahr. Sound is ne echtzeitsache und der Rechner muss ungleich mehr Soundeffekte erzeugen, je schneller das Demo läuft

Piffan
2002-07-20, 19:32:42
Originally posted by Korak


Was meinst du mit hochfrequenter?
Die Frequenz der Töne ändert sich doch nicht. Aber die äh Sps (Sounds per Second ;D) sind höher.

Also könnte sich eine Bremsung doch nur ergeben, wenn der Soundprozessor tatsächlich bei der Soundberechnung eine Rolle spielt... Wenn ich einen Software- Sound habe, dann hat die Soundkarte nur die Aufgabe, eine digital- analog- Wandlung durchzuführen, berechnet wird alles vom Proz....

Angeblich sollen ja die EAX- Chips einen Teil der 3d- Berechnung übernehmen.... komisch nur, dass es bei Aktivierung des Hardware-3dSounds dann zu Frameverlusten kommt, bei Aktivierung des Softwaresounds hingegen kaum....

Na gut, je länger ich drüber grübele, um so eher kann ich mir eine Bremsung durch die Soundkarte vorstellen, aber auch nur dann, wenn ich Hardware- sound aktiviere, also EAX und Konsorten. Bei der Softwarelösung eigentlich nicht vorstellbar....Da arbeitet der Soundchip doch nur digitales Material in analoges um....Oder ???

Xmas
2002-07-20, 19:34:54
Originally posted by Nagelbrett
Originally posted by Leonidas
Unter 16x12 muß die Soundkarte ca. 5x so schnell den Sound liefern wie normal, unter 5x3 ca. 8x.
Mh, kann mir bitte einer erklären, weshalb die Soundkarte unter einer höheren Bildschirmauflösung *schneller* den Sound liefern muss? ich hab drüber nach gedacht doch es wollte mir einfach nicht klar werden...
1600x1200: 5x
512x384: 8x
Welches ist jetzt schneller?
"wie normal" bezieht sich hier auf die Geschwindigkeit, in der die Demo aufgenommen wurde.

Piffan,
je schneller die Demo läuft desto häufiger pro Zeiteinheit werden auch Sounds abgespielt. Also müssen mehr Daten an die Soundkarte geschickt werden und dann auch häufiger mehrere Sounds gemischt werden.
IMHO sind die Timedemos gar nicht geeignet, um CPU- oder GPU-Limitierung festzustellen, schließlich wird einfach nur eine Demo abgespielt, ganz ohne KI, Physik, Netzcode... ob das Spiel eher CPU-limitiert ist, kann man nur feststellen wenn man wirklich spielt und die fps vergleicht. Ich gehe aber ziemlich stark davon aus dass Q3A auf heutigen High-End-Karten (und insbesondere R300) bis mindestens 1280x960 eher CPU-limitiert ist.

MadManniMan
2002-07-20, 19:34:55
was bitte hat DAS nun mit der auflösung zu tun? wenn man das so erklärt, müßte man davon ausgehen, daß höhere auflösungen mit dem sound weniger probs haben, da zumeist die graka bremst und so schon gar nicht mehr so viele sps entstehen können...

nagus
2002-07-20, 19:37:17
euer gelaber geht mir langsam aber sicher gewaltig auf den keks...

alle die glauben, die Radeon 9700 sei keine große weiterentwicklung oder zu langsam, bzw von einer höher getakteten GF4 einzuholen (hallo "ow".. ich sag nur GF4@400Mhz... :bonk: :bonk: :bonk: )

.. der sollte sich mal das:

"UT2003 - 1600x1200x32; 4XAA; 16XAF – The Radeon 9700 doused the Ti4600 by about 25%. Now get a load of this, that is with the GF4 running without AA or AF. With 4XAA turned on the Ti4600 was crushed by nearly 300%"

( quelle Hardocp Radeon 9700 review )

....auf der zuge zergehen lassen!

es gibt keinen zweifel, dass die R300 der größte performance-sprung seit der einführung der voodoo - grafikkarten ist!

dass teilweise kein soooo gewaltiger vorsprung drinn ist, liegt daran , dass die karte mit heutigen CPU und AGPX4 hoffnungslos cpu-limitiert ist.

wieviel schneller ist denn die schnellste GF4 gegenüber einer GF3 ?? im besten fall vielleicht 100% schneller.... wenn überhaupt ( bei FSAA selbstverständlich )

die beta (!!!) R300 ist nahezu 300% ( 4X so schnell ) als eine GF4 4600 !!! verdammt nochmal!

ohne zu übertreiben: eine weitere steigerung um ca. 10-20% (min.!!) mit final board und final treibern sind SICHER noch drin.


und wenn jetzt irgend jemand sagt ... " dass braucht keiner " ist dass für mich der beste beweis für "nvidiotie"

an alle Nvidioten: ich hört lieber auf zu meckern. ATI war diesmal leider schneller. wilde spekulationen über die NV30 ( monate vor der vorstellung ) sind reichlich fehl am platz. KEINE SAU weis kann mit sicherheit sagen, wie schnell die nächste NV generetion ist. wahrscheinlich ist sie schneller.... aber ATI hat mit der R300 bewiesen, was mit 0,15µm technik möglich ist. anzunehmen, dass ATI auch die 0,13µm technik viel besser ausnutzen kann als nvidia ( oder matrox)

btw, das test-board der R300 auf der Computex lief übrigends mit 700Mhz speichertakt und nicht mit mageren 310mhz ( so wie auf anand).

Piffan
2002-07-20, 19:39:13
Ich habs!! :D

Die Q3- Demo ist Müll als Bench, weil eben durch den schnelleren Ablauf nicht nur die Graka höher belastet wird, sondern das komplette System... für einen Bench wohl eher unpraktisch...

Ich will doch durch einen Grafikbench herausbekommen, wieviel die Graka kann........Dies erklärt auch, warum man bei Q3 keine Proz- Limitierung finden kann....Sie wäre aber da, wenn ich einen korrekten Bench fahren würde, imho.....

So wäre imho ein Bench besser: Reale Spielbedingungen (ohne Zeitraffer), also auch konstante Bedingungen für den Proz was Sound und Physik/Script betrifft, aber freie Leine für die Grafik.....

Bin ich schon wieder auf dem Holzweg oder watt ???

edit:
Tschuldigung an alle, war wieder zu langsam... Tja, Grübeln brauch Zeit :D

@xmas: Danke für die verständlich Erklärung :) Hier auf 3dconcept wird Sie geholfen ;)

MadManniMan
2002-07-20, 19:47:48
@nagus: keine 300% mehr sondern einfach nur 300% der gf4 leistung, also 3x und nicht 4x

@piffa: naja, fast. immerhin isses schon lange her, daß du den center mit dem concept verwechselt hast... respekt!

Xmas
2002-07-20, 19:48:55
Originally posted by Piffan
Hier auf 3dconcept wird Sie geholfen ;) ´
:eyes:

;D

Piffan
2002-07-20, 19:51:17
Werde diese peinlichen Überschneidungen vielleicht dadurch auffangen, dass ich zwei Fenster gleichzeitig öffne... Ist doch peinlich, wenn man denkt dass man einen guten Gedankengang hat und während des Tippens die Sache schon längst gegessen wurde.... gähn...

Werde jetzt Abendbrot essen..... :|

Demirug
2002-07-20, 19:52:09
Originally posted by nagus
alle die glauben, die Radeon 9700 sei keine große weiterentwicklung oder zu langsam, bzw von einer höher getakteten GF4 einzuholen (hallo "ow".. ich sag nur GF4@400Mhz... :bonk: :bonk: :bonk: )


Rein Technisch haben wir wirklich keine große Weiterentwicklung. Eine GF4 müsste man so hoch takten das sie wahrscheinlich ein Lock in das PCB brennen würde.


"UT2003 - 1600x1200x32; 4XAA; 16XAF – The Radeon 9700 doused the Ti4600 by about 25%. Now get a load of this, that is with the GF4 running without AA or AF. With 4XAA turned on the Ti4600 was crushed by nearly 300%"

( quelle Hardocp Radeon 9700 review )

....auf der zuge zergehen lassen!


Gefällt mir auch.


dass teilweise kein soooo gewaltiger vorsprung drinn ist, liegt daran , dass die karte mit heutigen CPU und AGPX4 hoffnungslos cpu-limitiert ist.


Ich sag nur generische Leistungstest.


wieviel schneller ist denn die schnellste GF4 gegenüber einer GF3 ?? im besten fall vielleicht 100% schneller.... wenn überhaupt ( bei FSAA selbstverständlich )

die beta (!!!) R300 ist nahezu 300% ( 4X so schnell ) als eine GF4 4600 !!! verdammt nochmal!

ohne zu übertreiben: eine weitere steigerung um ca. 10-20% (min.!!) mit final board und final treibern sind SICHER noch drin.


Und wann sind die Treiber Final? Ich habe bisher eigentlich noch nie finale Treiber gesehen bei keinem Hersteller.


btw, das test-board der R300 auf der Computex lief übrigends mit 700Mhz speichertakt und nicht mit mageren 310mhz ( so wie auf anand).

Verwechselt du da nicht Takt und Transferrate???

Frank
2002-07-20, 20:04:51
Wie lange wollen wir hier eigentlich noch die selben "Argumente" von vorne bis hinten durchkauen? Das hat man alles vorher schonmal in über mehreren Tausend Postings in 100 anderen Threads gelesen. Also können wir bitte mal wieder auf den Boden der Tatsachen zurückkommen und einfach warten, bis es Tests von Leuten gibt, die sich die Karte käuflich erworben haben.

Unregistered
2002-07-20, 20:08:53
Razor soweit ich weis wurde der extra Stromanschluss nur zur Vorsorge eingebaut, falls es Probleme geben könnte...

von dem abgesehen ist dies völlig uninteressant ob sie nun einen extra Stromanchluss braucht oder nicht...... das ändert nichts daran dass es eine sehr schnelle Graka ist. Ausserdem sorgt es Problemen vor die damals die Geforce 1 Modelle (die hatten doch probs oder? wars gf2??) hatten :)

Unregistered
2002-07-20, 21:27:15
Originally posted by nagus
ohne zu übertreiben: eine weitere steigerung um ca. 10-20% (min.!!) mit final board und final treibern sind SICHER noch drin.
Die endgültige Version der Karte wird wegen der niedrigeren Taktraten ohnehin erst einmal mind. 10% langsamer sein.
Und wenn die Treiber auf Stabilität statt auf Speed getrimmt werden, wird es auch in dieser Hinsicht Geschwindigkeitseinbußen geben.

HiddenGhost
2002-07-20, 21:35:30
Originally posted by Unregistered

Die endgültige Version der Karte wird wegen der niedrigeren Taktraten ohnehin erst einmal mind. 10% langsamer sein.
Und wenn die Treiber auf Stabilität statt auf Speed getrimmt werden, wird es auch in dieser Hinsicht Geschwindigkeitseinbußen geben.

OHne aus der Kristalkugel zu lesen, vermute ich eher, dass die Versionen die du meinst wohl eher als 9500 verkauft werden um das MidRangesegment wieder aufzufüllen, gerade die Lücke,die die mitlerweile auslaufende 8500 hinterläßt...

300MHz+ werden IMO garantiert von der 9700 vertreten werden... das alles scheint wohl auch eine Frage der Rohausbeute von den Wavern zu werden... in 150nm werden wohl eher wenige absolute HighEndchips das Taktniveau einer 9700 erreichen, mehr 9500 (Pro) und der Rest dann wohl so ein spekulatives 9500LE Niveau, o.ä.

Quasar
2002-07-20, 22:46:09
Originally posted by nagus
euer gelaber geht mir langsam aber sicher gewaltig auf den keks...

Du schreist geradezu nach Streit, oder? Hat deine Mutter dir gar keine Manieren beigebracht?


alle die glauben, die Radeon 9700 sei keine große weiterentwicklung oder zu langsam, bzw von einer höher getakteten GF4 einzuholen (hallo "ow".. ich sag nur GF4@400Mhz... :bonk: :bonk: :bonk: )
.. der sollte sich mal das:
"UT2003 - 1600x1200x32; 4XAA; 16XAF – The Radeon 9700 doused the Ti4600 by about 25%. Now get a load of this, that is with the GF4 running without AA or AF. With 4XAA turned on the Ti4600 was crushed by nearly 300%" ( quelle Hardocp Radeon 9700 review )....auf der zuge zergehen lassen!

Kein Wunder, bei den Specs sollte man das auch erwarten. Eher überraschend fand ich das hier (http://www.anandtech.com/video/showdoc.html?i=1656&p=20)! Du siehst, man beinahe jedes Szenario konstruieren, weswegen ich nicht a priori davon ausgehen würde, R300 sei durch die Bank 4x so schnell wie die GF4. 1,5-2x ist da realistischer.


es gibt keinen zweifel, dass die R300 der größte performance-sprung seit der einführung der voodoo - grafikkarten ist!

Keinen Zweifel? Na, wenn du das sagst, muss es ja wohl stimmen.


dass teilweise kein soooo gewaltiger vorsprung drinn ist, liegt daran , dass die karte mit heutigen CPU und AGPX4 hoffnungslos cpu-limitiert ist.

Richtig.


wieviel schneller ist denn die schnellste GF4 gegenüber einer GF3 ?? im besten fall vielleicht 100% schneller.... wenn überhaupt ( bei FSAA selbstverständlich )

Nö, ich würde mal von 300-400% ausgehen. Wie gesagt, man kann viele Szenarien konstruieren.


die beta (!!!) R300 ist nahezu 300% ( 4X so schnell ) als eine GF4 4600 !!! verdammt nochmal! ohne zu übertreiben: eine weitere steigerung um ca. 10-20% (min.!!) mit final board und final treibern sind SICHER noch drin.

Sollst du fluchen?
Schau mal weiter unten, da widersprichst du dir noch selber....


und wenn jetzt irgend jemand sagt ... " dass braucht keiner " ist dass für mich der beste beweis für "nvidiotie"

Oh doch, überschüssige Grafikleistung kann man immer gebrauchen!


an alle Nvidioten: ich hört lieber auf zu meckern. ATI war diesmal leider schneller. wilde spekulationen über die NV30 ( monate vor der vorstellung ) sind reichlich fehl am platz. KEINE SAU weis kann mit sicherheit sagen, wie schnell die nächste NV generetion ist. wahrscheinlich ist sie schneller.... aber ATI hat mit der R300 bewiesen, was mit 0,15µm technik möglich ist. anzunehmen, dass ATI auch die 0,13µm technik viel besser ausnutzen kann als nvidia ( oder matrox)

Ich fühle mich einfach mal angesprochen (im Vergleich zu dir ist wohl selbst Exxtreme ein nVidiot): ATi war schneller, korrekt :). Und das ist auch gut so, denn nun haben sie vorgelegt und werden sich einholen lassen müssen, denn den Bonus von ArtX gibt's nur einmal. Ähnlich wie beim TBDR, wenn alle einmal auf diesem Zug sind, geht's mit Brute-Force weiter.


btw, das test-board der R300 auf der Computex lief übrigends mit 700Mhz speichertakt und nicht mit mageren 310mhz ( so wie auf anand).

Siehst du, hier widersprichst du dir. Erst sagst du, die final wird "10-20% min." schneller sein, und nun ist sogar die Beta schon wieder langsamer als die alpha. Und wir alle wissen, daß es vor der Doom3-Präsentation noch "Issues" gab, die mit niedrigerem Takt auf einmal nicht mehr von der ausgewählten Fachpresse bemängelt wurden.
Wie weit muss man den 0,15µ-Godzilla wohl runtertakten, damit er auch in normal belüfteten Midi-Tower Gehäusen stabil läuft?

AlfredENeumann
2002-07-20, 23:45:35
Originally posted by Quasar


Hm, irgendwie folge ich dir nicht ganz. Wer hat jetzt denn schon einen Chip vorgestellt, und wer könnte in der Zwischenzeit aufm Markt sein, wie damals?

Entweder dein Argument ist pro-nV oder du verdrehst hier irgendwie was....

BTW, ATi's "Animusic-Video" r0x0rzzz. Ich schau's grade bestimmt zum zehnten mal. Coole Animation, cooler Sound und ober-coole Choreographie.

Yo, das ist echt cool. Hast du natural lights schon gesehen. Echt geil. Sehr realitätsnah würde ich sagen.

Frank
2002-07-21, 00:11:22
Es wurde gerade ein Posting gelöscht, welches nur dazu dar war, um zu flamen und provozieren. Ich hoffe dass die Diskussion endlich mal zu einem ordentlichem Niveau findet und hier nicht im ständigen runterblabbern von ständig den selben Sinnlosigkeiten verkommt.

Quasar
2002-07-21, 00:23:11
Originally posted by AlfredENeumann
Yo, das ist echt cool. Hast du natural lights schon gesehen. Echt geil. Sehr realitätsnah würde ich sagen.

Ja, bis auf den Bären finde ich alle drei Techdemos sehr erstaunlich, ok, die Karre sieht nur "sehr gut" aus, aber die Lichter sind schon sehr fein anzusehen.

Animusic fand ich so genial, da hab ich mir heute erstmal die DVD von bestellt, auch wenn's auf der nur vorgerendert ist :)

aths
2002-07-21, 00:59:35
Originally posted by nagus
"UT2003 - 1600x1200x32; 4XAA; 16XAF – The Radeon 9700 doused the Ti4600 by about 25%. Now get a load of this, that is with the GF4 running without AA or AF. With 4XAA turned on the Ti4600 was crushed by nearly 300%" 4x AA interessiert mich nicht, wenn es nur OGAA ist. 2x RG sieht kaum schlechter aus, und ist (zumindest bei GeForce4) viel schneller. Vergleicht man die praxisnahe 2x-Einstellung, wird der Radeon9700-Vorteil nicht so drastisch ausfallen. (Kann die Radeon 2x RGAA? Anzunehmen wäre es, der Beweis steht allerdings noch aus.)
Originally posted by nagus
es gibt keinen zweifel, dass die R300 der größte performance-sprung seit der einführung der voodoo - grafikkarten ist! Also ich bezweifle das :)
Originally posted by nagus
dass teilweise kein soooo gewaltiger vorsprung drinn ist, liegt daran , dass die karte mit heutigen CPU und AGPX4 hoffnungslos cpu-limitiert ist.Das ist so wie es da steht, Unsinn.

Radeon9700 und GeForce4 Ti4600 verfügen beide über 8 TMUs und haben in erster Näherung die gleiche pro-MHz-MT-Füllratenleistung
Originally posted by nagus
die beta (!!!) R300 ist nahezu 300% ( 4X so schnell ) als eine GF4 4600 !!! verdammt nochmal! Das gilt nur für einige, wenige Benchmarks mit FSAA.
Originally posted by nagus
ohne zu übertreiben: eine weitere steigerung um ca. 10-20% (min.!!) mit final board und final treibern sind SICHER noch drin. Das denke ich auch.
Originally posted by nagus
und wenn jetzt irgend jemand sagt ... " dass braucht keiner " ist dass für mich der beste beweis für "nvidiotie" Es stimmt, dass man Leistung immer brauchen kann. Es ist ebenso wahr, dass NV30 schneller sein wird, und ebenso stimmt, dass ATI einen Chip bringen wird, der dann wieder NV30 deklassiert.
Originally posted by nagus
aber ATI hat mit der R300 bewiesen, was mit 0,15µm technik möglich ist. Noch ist gar nichts bewiesen. Es gibt keine unabhängingen, verifizierbaren Benchmarks, es gibt keine Screenshots, es gibt fast nichts außer die Lobhudelei einiger Seiten die exklusiv testen durften.

aths
2002-07-21, 01:12:46
Originally posted by ow
Och, aths.
Es ist nicht flüssig spielbar, insofern der Wert bedeutungslos.
Warum wurde AA denn nicht in 1280x1024 gebencht? 50 fps sind nicht flüssig? Na in 1280x1024 wurde wohl deshalb nicht gebencht, weil der Radeon-Vorteil dann nicht so wuchtig ausgefallen wäre.

ow
2002-07-21, 01:54:25
Originally posted by aths
50 fps sind nicht flüssig? Na in 1280x1024 wurde wohl deshalb nicht gebencht, weil der Radeon-Vorteil dann nicht so wuchtig ausgefallen wäre.


Ob 50 fps im Durchschnitt in der Praxes immer flüsssig sind??
Ausser dem waren die 50fps ja nur eine Annahme meinerseits. Könnten ja auch weniger sein.

Im 2. Punkt sind wir uns ja einig.

MadManniMan
2002-07-21, 02:14:46
Originally posted by aths
4x AA interessiert mich nicht, wenn es nur OGAA ist. 2x RG sieht kaum schlechter aus, und ist (zumindest bei GeForce4) viel schneller. Vergleicht man die praxisnahe 2x-Einstellung, wird der Radeon9700-Vorteil nicht so drastisch ausfallen. (Kann die Radeon 2x RGAA? Anzunehmen wäre es, der Beweis steht allerdings noch aus.)


ich meine, dich da beruhigen zu können. ich hab absolut keinen plan mehr, wo ich das gesehen habe(sys vor der lan neu aufgesetzt :zunge: ...zwangsweise :...( ), aber da gibts son feines diagramm, wo das 6fach grid aufgezeigt wird.

diesmal ists offensichtlich nicht peusdozufällig, sondern feststehend, allerdings auf den ersten blick recht unmotiviert reingeklatscht... wenn mans sich allerdings genauer anschaut, so erkennt man, dass sich 6*6 effektive abstufungen(wie war nochmal der begriff, den du dafür gebraucht hattest?) ergeben, die wohl aus nem großen erfahrungsschatz an die glättungsoffensichtlichsten stellen gesetzt wurden... sah in etwa so aus, wie auf dem bild unten.

daher kann man davon ausgehen, daß es sich beim 2* um ein simplen rg und beim 4* wohl auch um ein rg(vsa-äquivalent?) handelt. allerdings kann ichs auch nicht 100%ig belegen, weil mir wie gesagt der link abhanden gekommen ist.

Razor
2002-07-21, 02:49:59
Originally posted by Unregistered
Razor soweit ich weis wurde der extra Stromanschluss nur zur Vorsorge eingebaut, falls es Probleme geben könnte...

von dem abgesehen ist dies völlig uninteressant ob sie nun einen extra Stromanchluss braucht oder nicht...... das ändert nichts daran dass es eine sehr schnelle Graka ist. Ausserdem sorgt es Problemen vor die damals die Geforce 1 Modelle (die hatten doch probs oder? wars gf2??) hatten :)
Mit 100+ Mio Transistoren und 0.15µ Fertigung bei 300+ MHz Takt ist ein Limit der Technik erreicht, dem man nur noch mit roher Gewalt entgegen treten kann...

Und deswegen der externe Stromanschluß, weil der AGP-Port dafür nicht ausgelegt ist. Meine gfddr läuft übrigens ganz hervorragend in heutigen boards (nicht zuletzt in meinem 1,5V-only nForce420). Lediglich alte Board's (wie mein gutes altes MVP3 von ABit) hatten Prob's damit.

ATI geht über die AGP2.0 Spezifikation und deswegen der externe Stromanschluß.
That's it !

Razor

P.S.: Ich hab' nie behauptet, daß der R300 nicht schnell ist, sondern lediglich, dass es kein großer Technologie-Sprung - wie damals mit der gf3 - ist...

aths
2002-07-21, 03:00:46
Originally posted by MadManniMan
wenn mans sich allerdings genauer anschaut, so erkennt man, dass sich 6*6 effektive abstufungen(wie war nochmal der begriff, den du dafür gebraucht hattest?)Der Fachbegriff lautet EER (Edge Equivalent Resolution). Ein Muster, welches die EER um 6x6 anhebt, würde eine extrem geile AA-Qualität schaffen, welche sogar die vom Parhelia übertrumpft.

MadManniMan
2002-07-21, 03:50:15
ein solches wäre das von meiner skizze... ich denke, wir sollten uns vorfreuen ! :)

MadManniMan
2002-07-21, 04:17:13
mir fällt grad auf, daß das wirklich KRASS sein muß... s ist ja immerhin schon schwerlich vorstellbar, daß es was krasseres als die vertikale eer von 4*s(i.e. 4) geben soll...

Unregistered
2002-07-21, 08:20:49
Originally posted by Razor

Mit 100+ Mio Transistoren und 0.15µ Fertigung bei 300+ MHz Takt ist ein Limit der Technik erreicht, dem man nur noch mit roher Gewalt entgegen treten kann...

Und deswegen der externe Stromanschluß, weil der AGP-Port dafür nicht ausgelegt ist. Meine gfddr läuft übrigens ganz hervorragend in heutigen boards (nicht zuletzt in meinem 1,5V-only nForce420). Lediglich alte Board's (wie mein gutes altes MVP3 von ABit) hatten Prob's damit.

ATI geht über die AGP2.0 Spezifikation und deswegen der externe Stromanschluß.
That's it !

Razor

P.S.: Ich hab' nie behauptet, daß der R300 nicht schnell ist, sondern lediglich, dass es kein großer Technologie-Sprung - wie damals mit der gf3 - ist...

in 3-4 jahren wird man wohl den exterene stromanschluss der R300 auch nicht mehr brauchen :)

Naja für mich hörte es sich so an als ob der externe stromanschluss eine negtive eigenschaft des r300 ist und ich empfinde das einfach nicht so....

Ich könnte jetzt ja auch sagen dass der r300 auch für agp3.0 designt wurde. allerdings habe ich keinen plan was die ausser agp8 voraussetzt *gg

Allerdings sollten wir auch hier abwarten ob der externe Stromanschluss benötigt wird oder nicht. :)


Hm ich würde sagen er ist dsehalb ein technoloischer Fortschritt weil er ps2.0 und vs 2.0 enthält, wovon jeder sagt dass er noch um einiges besser ist als die alten Versionen. Auch dass es wohl die erste Graka ist die Fsaa und Af in vollstem umfang nutzen kann...

Tarkin
2002-07-21, 10:23:52
Originally posted by Unregistered

Die endgültige Version der Karte wird wegen der niedrigeren Taktraten ohnehin erst einmal mind. 10% langsamer sein.
Und wenn die Treiber auf Stabilität statt auf Speed getrimmt werden, wird es auch in dieser Hinsicht Geschwindigkeitseinbußen geben.



was bist du für ein Nvidiot?

hast du dir das Preview auf Anandtech mal komplett durchgelesen? das steht klipp und klar, dass sie 325Mhz fur den Core anpeilen und auch mehr als 310Mhz für den speichertakt!

btw, wurden die Radeon 8500 auch HÖHER getaktet! kurz vor dem releas haben die ATI-typen den Takt jeweils um 25Mhz ( auf 275/275) angehoben.

langsam frage ich mich wirklich welche DEPPEN in diesem forum herumgeistern und wirklich NUR SCH**** posten und :bonk::bonk::bonk:

nagus
2002-07-21, 10:39:56
Originally posted by Quasar


Du schreist geradezu nach Streit, oder? Hat deine Mutter dir gar keine Manieren beigebracht?



Kein Wunder, bei den Specs sollte man das auch erwarten. Eher überraschend fand ich das hier (http://www.anandtech.com/video/showdoc.html?i=1656&p=20)! Du siehst, man beinahe jedes Szenario konstruieren, weswegen ich nicht a priori davon ausgehen würde, R300 sei durch die Bank 4x so schnell wie die GF4. 1,5-2x ist da realistischer.



Keinen Zweifel? Na, wenn du das sagst, muss es ja wohl stimmen.



Richtig.



Nö, ich würde mal von 300-400% ausgehen. Wie gesagt, man kann viele Szenarien konstruieren.



Sollst du fluchen?
Schau mal weiter unten, da widersprichst du dir noch selber....



Oh doch, überschüssige Grafikleistung kann man immer gebrauchen!



Ich fühle mich einfach mal angesprochen (im Vergleich zu dir ist wohl selbst Exxtreme ein nVidiot): ATi war schneller, korrekt :). Und das ist auch gut so, denn nun haben sie vorgelegt und werden sich einholen lassen müssen, denn den Bonus von ArtX gibt's nur einmal. Ähnlich wie beim TBDR, wenn alle einmal auf diesem Zug sind, geht's mit Brute-Force weiter.



Siehst du, hier widersprichst du dir. Erst sagst du, die final wird "10-20% min." schneller sein, und nun ist sogar die Beta schon wieder langsamer als die alpha. Und wir alle wissen, daß es vor der Doom3-Präsentation noch "Issues" gab, die mit niedrigerem Takt auf einmal nicht mehr von der ausgewählten Fachpresse bemängelt wurden.
Wie weit muss man den 0,15µ-Godzilla wohl runtertakten, damit er auch in normal belüfteten Midi-Tower Gehäusen stabil läuft?


:bawling:

bravo, hast du das am meisten CPU-limitierte Spiel herausgepickt. und den letztden absatz von dir hab ich ehrlich gesagt auch nicht ganz verstanden ( den rest finde ich auch lächerlich... aber bitte, jedem dass seine und dir Nvidia ;)

nagus
2002-07-21, 10:49:28
Originally posted by Razor

Mit 100+ Mio Transistoren und 0.15µ Fertigung bei 300+ MHz Takt ist ein Limit der Technik erreicht, dem man nur noch mit roher Gewalt entgegen treten kann...

jetzt geht dass schon wieder los. einfach zum :kotz:
ist hier jeder Chipdesigner bei Nvidia ?


P.S.: Ich hab' nie behauptet, daß der R300 nicht schnell ist, sondern lediglich, dass es kein großer Technologie-Sprung - wie damals mit der gf3 - ist...


NEIN... 128bit color rendering, DX9, Pixelshader2.0 / DisplacementBumpMapping, .... sind natürlich KEINE gewaltigen entwicklungen. :bonk::bonk:

wo sind die innovationen bei GF4 und GF3TI 500 etc., etc... bei Nvidia hat sich außer DX8 fähigkeit seit Jahren nicht wirklich was verändert. immerhin war ATI immer einen schritt mit technik und features voraus. jetzt sogar 2 schritte

Razor
2002-07-21, 11:45:47
Originally posted by Unregistered
Allerdings sollten wir auch hier abwarten ob der externe Stromanschluss benötigt wird oder nicht. :)
Klar werden wir abwarten...
Was bleibt uns auch sonst, solange keine definitiven Info's vorliegen ?
;-)
Originally posted by Unregistered
Hm ich würde sagen er ist dsehalb ein technoloischer Fortschritt weil er ps2.0 und vs 2.0 enthält, wovon jeder sagt dass er noch um einiges besser ist als die alten Versionen. Auch dass es wohl die erste Graka ist die Fsaa und Af in vollstem umfang nutzen kann...
Wieder die alte Diskussion...
Bei Dingen, die von M$ kommen, würde ich nicht zwangsläufig von 'Fortschritt' sprechen...
(steht aber auf einem anderen Blatt)

Die Spezifikationen für DX9(.1) stehen schon seit über einem Jahr fest und jedem Chip-Hersteller steht es frei, diese zu realisieren, oder eben nicht... Warum P10/Parhelia keine volle Unterstützung bieten ? Keine Ahnung... zu doof ? (nicht ernst gemeint ;-). Der NV30 wird mit Sicherheit ein DX9(.1)-Chip und deswegen sehe ich das, was da von ATI kommt, noch nicht als technlogischen Fortschritt (schliesslich könnte ja jeder...).

Der Chip (R300) selber aber bietet (zumindest bisher) überhaupt keinen 'fortschrittlichen' Ansatz, sondern eben nur Bandbreite satt und Funktionalität mit roher Gewalt (100Mio+ Trans. bei 0.15µ - mit erternem Strom ;-). DAS nenne ich keinen Fortschritt...

Das Ding dürfte mächtig heiss werden und dürfte für unsere OC-Freunde auch keine geeignete Basis liefern.

-

Und inwieweit man AA und AF im vollen Umfang bei Titeln wie U2 oder Doom3 (oder auch Kreed etc.pp) wird nutzen können, steht noch in den Sternen. Dies ist immer nur eine temporäre Angelegenheit, die sich mit der Zeit gibt. Bei meiner gf3 war's etwa ein Jahr, bei der ich IMMER 2xAA und 4xAF nutzen konnte (1024'er Aufl.). Bei Dingen wie UT2003 werd' ich wohl zumindest auf AA verzichten müssen oder eben wieder (wie damals bei der gfddr) eine Auflösungsstufe herunter gehen müssen.

Egal, mit meiner nächsten Anschaffung werd' ich mir auf jeden Fall bis Ende des Jahres Zeit lassen, denn ich hab' keine Lust Geld aus dem Fenster zu werfen (auch wenn ich es mir leisten könnte). Insofern wird es wohl R300 oder eben NV30 werden, denn Parhelia und P10 konnten mich Leistungsseitig nicht überzeugen (P10 war schon interessant, nur.... ;-).

Ergo warte ich, bis ALLE Info's auf dem Tisch liegen und beide Chips zumindest einen Monat zu kaufen sind. Erst dann werde ich eine endgültige Entscheidung treffen !

In diesem Sinne

Razor

Labberlippe
2002-07-21, 11:52:09
Originally posted by Razor

Klar werden wir abwarten...
Was bleibt uns auch sonst, solange keine definitiven Info's vorliegen ?
;-)

Wieder die alte Diskussion...
Bei Dingen, die von M$ kommen, würde ich nicht zwangsläufig von 'Fortschritt' sprechen...
(steht aber auf einem anderen Blatt)

Die Spezifikationen für DX9(.1) stehen schon seit über einem Jahr fest und jedem Chip-Hersteller steht es frei, diese zu realisieren, oder eben nicht... Warum P10/Parhelia keine volle Unterstützung bieten ? Keine Ahnung... zu doof ? (nicht ernst gemeint ;-). Der NV30 wird mit Sicherheit ein DX9(.1)-Chip und deswegen sehe ich das, was da von ATI kommt, noch nicht als technlogischen Fortschritt (schliesslich könnte ja jeder...).

Der Chip (R300) selber aber bietet (zumindest bisher) überhaupt keinen 'fortschrittlichen' Ansatz, sondern eben nur Bandbreite satt und Funktionalität mit roher Gewalt (100Mio+ Trans. bei 0.15µ - mit erternem Strom ;-). DAS nenne ich keinen Fortschritt...

Das Ding dürfte mächtig heiss werden und dürfte für unsere OC-Freunde auch keine geeignete Basis liefern.

-

Und inwieweit man AA und AF im vollen Umfang bei Titeln wie U2 oder Doom3 (oder auch Kreed etc.pp) wird nutzen können, steht noch in den Sternen. Dies ist immer nur eine temporäre Angelegenheit, die sich mit der Zeit gibt. Bei meiner gf3 war's etwa ein Jahr, bei der ich IMMER 2xAA und 4xAF nutzen konnte (1024'er Aufl.). Bei Dingen wie UT2003 werd' ich wohl zumindest auf AA verzichten müssen oder eben wieder (wie damals bei der gfddr) eine Auflösungsstufe herunter gehen müssen.

Egal, mit meiner nächsten Anschaffung werd' ich mir auf jeden Fall bis Ende des Jahres Zeit lassen, denn ich hab' keine Lust Geld aus dem Fenster zu werfen (auch wenn ich es mir leisten könnte). Insofern wird es wohl R300 oder eben NV30 werden, denn Parhelia und P10 konnten mich Leistungsseitig nicht überzeugen (P10 war schon interessant, nur.... ;-).

Ergo warte ich, bis ALLE Info's auf dem Tisch liegen und beide Chips zumindest einen Monat zu kaufen sind. Erst dann werde ich eine endgültige Entscheidung treffen !

In diesem Sinne

Razor

Aha Razor.

Bei der R8500 war DX8.1 ein Feature die keiner brauchte und bei nVIDIA ist DX9.1 plötzlich ein technologischer Fortschritt. :bonk:

Gruss Labberlippe

Labberlippe
2002-07-21, 11:53:56
Originally posted by ow


???

Genau DEN Anandtech Test (UPT mit AA in 1600x1200x32) hab ich doch oben zitiert.

Was genau der R9700 leistet, wird sich erst zeigen, wenn er auf dem Markt ist und unabhängige Benches existieren.


3x die Leistung einer GF4 nützt nix, wenn´s sich dabei zB. um 5 zu 15fps handelt.

Komisch bei der GeForce3Ti500 wurde von einen überwältigen Sieg gesprochen weil diese um 2-3 fps schneller war. *eg*

Gruss Labberlippe

Razor
2002-07-21, 11:56:14
Originally posted by nagus
jetzt geht dass schon wieder los. einfach zum :kotz:
ist hier jeder Chipdesigner bei Nvidia ?
Sicher nicht...
Aber nicht jeder hat Deinen geistigen Horizont !
Ein wenig zu überlegen tut einfach nicht weh' und wenn man sieht, welch schlüssigen Argemente von Dir kommen...
Beeindruckend !
Warte, ich muss :kotz:
;-)
Originally posted by nagus
NEIN... 128bit color rendering, DX9, Pixelshader2.0 / DisplacementBumpMapping, .... sind natürlich KEINE gewaltigen entwicklungen. :bonk::bonk:
Kann jeder, wenn er will...
Was ist daran 'gewaltig' ?
Wie lang stehen die Specs und Definitionen für DX9 schon fest ?
Schon seit über einem Jahr ?
Hochacht ATI !
;-)
Originally posted by nagus
wo sind die innovationen bei GF4 und GF3TI 500 etc., etc... bei Nvidia hat sich außer DX8 fähigkeit seit Jahren nicht wirklich was verändert. immerhin war ATI immer einen schritt mit technik und features voraus. jetzt sogar 2 schritte
Die letzte Innovation von nVidia war die gf3 (NV20) und die nächste wird der NV30 sein...
Auch nichts weltbewegendes, wenn man ein wenig nachdenkt.
Alle 2 Jahre (ca.) ein wirklich neuer Chip.

Und wo ist Deine 'Innovation' beim RV250 ?
Bzw. beim Radeon 7000/7200/7500/8500LE/9000/9000'pro' ?
Ach was red' ich mit Dir ?
;-)

Der R300 tritt direkt gegen den NV30 an, der ebenfalls noch dieses kommt, insofern erfüllt der R300 jetzt nur (!) Marketing-Zwecke, mehr nicht. Und ATI täte gut daran, diesen Chip so schnell wie möglich auch an den Markt zu bringen, denn wenn nVidia mit dem Zielkonkurrenten kommt könnte es zu spät sein und ATI hat keine andere Möglichkeit, als Ihren Chip über den Preis in den Markt zu drücken (wie auch beim R200 geschehen). Und ob ATI dies eine weitere Runde durchhält, ist zumindest fraglich. nVidia könnte dies sicher !

Und ruhig blut, wenn man Dich so schreiben sieht, könnte man meinen, dass Du kurz vor einem Herzinfarkt stehst.
Locker bleiben und einfach Abwarten, bis 'richtige' Fakten vorliegen !
Schont das Herz und macht auch einen besseren Eindruck...
:D

In diesem Sinne

Razor

Labberlippe
2002-07-21, 11:57:51
Originally posted by Unregistered
@unregistered :)

Mensch, was ist denn das für Lowtech Quatsch. Das mag sein, das eine grosse Masse von Usern noch mit 17" 0.27 Lochmasken Monitoren zockt (die armen). Die werden sich auch keine TI4600 oder Radeon9700 zulegen. Völlig sinnlos.
Highend ist, wenn es sich nur eine gewisse Anzahl von Leuten leisten wollen/können.
Diese Tiefstapelei (ich weiss gar nicht, wie man das nennen soll) nervt manchmal schon. Immer schneller, das wollen wir doch alle, oder ?
Also, ich hab hier nen einigermassen guten 19" Moni der auf 16x12 läuft und kenne viele Kollegen mit noch grösseren Monitoren und Auflösungen. Die Grafikkarten können gar nicht schnell genug sein. 16x12 oder 12x10 mit AA/AF sieht einfach geil aus. 10x7 ist pippifatz, sorry. Das ist wie einlagiges Klopapier hehehe


@ow
da hast du leider recht, hab auch keinen AA Test gefunden. Aber die Karte wird bestimmt schnell :)

Ich zum Beispiel.
Mir ist 1280x1024 mit FSAA und AF lieber als 1600x1200.
Meinereiner reicht auch ein 17"er.
Die meisten User kaufen selten neue Monitore und wenn dann ein 19"er gekauft wird, dann wird meistens eine billige Krücke ausgewählt.



Gruss Labberlippe

Razor
2002-07-21, 11:59:24
Originally posted by Labberlippe
Aha Razor.

Bei der R8500 war DX8.1 ein Feature die keiner brauchte und bei nVIDIA ist DX9.1 plötzlich ein technologischer Fortschritt. :bonk:

Gruss Labberlippe
Sag mir doch mal Laberlippchen, wo ich das geschrieben haben soll !
Im von Dir zitierten Post konnte ich nichts darüber finden und in dem anderen Thread von Demirug hab' ich sogar genau das Gegenteil behauptet... "Was bringt mit DX9.1 ?"

Vielleicht solltest Du Dir nicht so oft auf den Kopf haun'...
:D

In diesem Sinne

Razor

Labberlippe
2002-07-21, 12:11:32
Originally posted by Razor

Sag mir doch mal Laberlippchen, wo ich das geschrieben haben soll !
Im von Dir zitierten Post konnte ich nichts darüber finden und in dem anderen Thread von Demirug hab' ich sogar genau das Gegenteil behauptet... "Was bringt mit DX9.1 ?"

Vielleicht solltest Du Dir nicht so oft auf den Kopf haun'...
:D

In diesem Sinne

Razor

Zitat von Dir.

Der NV30 wird mit Sicherheit ein DX9(.1)-Chip und deswegen sehe ich das, was da von ATI kommt, noch nicht als technlogischen Fortschritt (schliesslich könnte ja jeder...).

Zitat Ende.

Damals wie die R8500 mit DX8.1 Unterstützung kam wurde auch von Deiner Seite aus gewettert.
Smoothvison braucht noch keiner.
TruForm ist sinnlos.
DVD kann man auch per Software. u.s.w...

ATi hat jetzt
Smoothvison, Multisampling FSAA, AF Performance und Qualität, Truform, DM, PS 2.0 und Hardwarebeschleunigtes DVD+ das neue Verfahren gegen Blöckchenbildung.

Was hat momentan nVIDIA?
(Wie gesagt noch, nVIDIA wird auch nicht schlafen.)


Was mich zipft, es fangen schon wieder die sinnlosen Vergleiche und krampfhaftes schlechtreden an.

0,15 mirkon blabala nichts neues und scheiss Treiber.
nVIDIA kommt mit den NV30 und wird alles wegputezn hat von Start an die bessere Technologie und plötzlich wird 3dfx gehuldigt welche davor verpönnt waren.

Zuerst sollen mal die ersten ATi Karten kommen und dann sehen wir was nVIDIA bringen wird.
Erst dann können wir Vergleiche ziehen.

Gruss Labberlippe

Unregistered
2002-07-21, 12:13:34
Originally posted by Frank
Es wurde gerade ein Posting gelöscht, welches nur dazu dar war, um zu flamen und provozieren. Ich hoffe dass die Diskussion endlich mal zu einem ordentlichem Niveau findet und hier nicht im ständigen runterblabbern von ständig den selben Sinnlosigkeiten verkommt.

Der einzige, der was sinniges zu diesem Thema beizutragen hat...

-Payne

[edit] Grösse korrigiert.*g* (ow)

nggalai
2002-07-21, 12:16:51
Hi Tarkin,
Originally posted by Tarkin
was bist du für ein Nvidiot?

hast du dir das Preview auf Anandtech mal komplett durchgelesen? das steht klipp und klar, dass sie 325Mhz fur den Core anpeilen und auch mehr als 310Mhz für den speichertakt!

btw, wurden die Radeon 8500 auch HÖHER getaktet! kurz vor dem releas haben die ATI-typen den Takt jeweils um 25Mhz ( auf 275/275) angehoben.

langsam frage ich mich wirklich welche DEPPEN in diesem forum herumgeistern und wirklich NUR SCH**** posten und :bonk::bonk::bonk:
das kann man auch anders formulieren. Reiss dich ein wenig am Riemen.

Ach ja, und Du hast noch immer nicht meine Frage nach den Quellenangaben für deine FPS-Diagramme beantwortet.

ta,
-Sascha.rb

ow
2002-07-21, 12:34:16
Originally posted by Labberlippe


Zitat von Dir.

Der NV30 wird mit Sicherheit ein DX9(.1)-Chip und deswegen sehe ich das, was da von ATI kommt, noch nicht als technlogischen Fortschritt (schliesslich könnte ja jeder...).

Zitat Ende.


Gruss Labberlippe


Da interpretierst du was in Razors Aussage hinein, was er so nicht gemeint hat IMO.
War nur unglücklich formuliert.

Razor
2002-07-21, 12:39:40
Originally posted by Labberlippe
Zitat von Dir.

Der NV30 wird mit Sicherheit ein DX9(.1)-Chip und deswegen sehe ich das, was da von ATI kommt, noch nicht als technlogischen Fortschritt (schliesslich könnte ja jeder...).

Zitat Ende.
Sorry, Laberlippe, den Terminus DX9(.1) verwende ich von nun an immer...
Könnte auch schreiben DX9+ oder was auch immer..

Um es für Dich unmissverständlich auszudrücken:

DX9 (auch 9.1 ;-) sehe ich allein NICHT als technologischen Fortschritt !
(siehe auch mein Kommentar zu nagus oder den anderen Thread von Demirug)
Originally posted by Labberlippe
Damals wie die R8500 mit DX8.1 Unterstützung kam wurde auch von Deiner Seite aus gewettert.
Smoothvison braucht noch keiner.
TruForm ist sinnlos.
DVD kann man auch per Software. u.s.w...
Daran hat sich bis heute auch nichts geändert !
:D
Originally posted by Labberlippe
ATi hat jetzt Smoothvison, Multisampling FSAA, AF Performance und Qualität, Truform, DM, PS 2.0 und Hardwarebeschleunigtes DVD+ das neue Verfahren gegen Blöckchenbildung.
Und ?

Smoothvision beim R300 ? Wo ?
Multisamling ? Bei nVidia angekupfert, aber gut...
AF Performance ? hatte nVidia schon immer und besser ausgeschaut hat's bisher auch
Truform ? Noch immer überflüssig !
DM/VS2.0/PS2.0 ? Wird JEDER DX9-Chip haben...
DVD+ ? Schaun' wir mal...
Originally posted by Labberlippe
Was hat momentan nVIDIA?
(Wie gesagt noch, nVIDIA wird auch nicht schlafen.)
Alles was die Konkurrenz auch hat !
(bei DVD schon mal den NVDVD angeschaut = besser als ATI DVD ;-)

Und mit dem NV30 (=R300 und hoffentlich auch mehr - ich wiederhole mich ;-), also dem eigentlichen Zielkonkurrenten des R300 wird sich auch der Rest einstellen, da bin ich ziemlich zuversichtlich.

Originally posted by Labberlippe
Was mich zipft, es fangen schon wieder die sinnlosen Vergleiche und krampfhaftes schlechtreden an.
Wenn ich sage, dass ich keine technische (!) Innovation sehe, ist das noch lange kein Schlechtreden.
Schnell ist das Ding ja, macht aber irgendwie einen 'unfertigen' Eindruck auf mich...
(kann man auch als Schlechtreden sehen ;-)
Originally posted by Labberlippe
0,15 mirkon blabala nichts neues und scheiss Treiber.
nVIDIA kommt mit den NV30 und wird alles wegputezn hat von Start an die bessere Technologie und plötzlich wird 3dfx gehuldigt welche davor verpönnt waren.
Ich sage lediglich, dass ich warte, bis der NV30 da ist...
Erst dann werde ich ein Urteil fällen !

Ich finde die Leute nur lustig, die jetzt schon ein Urteil fällen, obwohl ja nicht einmal alle Info's oder gar Tests des R300 vorliegen. Sorry, aber das ist ziemlich arm...
;-)
Originally posted by Labberlippe
Zuerst sollen mal die ersten ATi Karten kommen und dann sehen wir was nVIDIA bringen wird.
Erst dann können wir Vergleiche ziehen.
Korrekt !
Und für nichts anderes plädiere ich hier...
Du aber wiedersprichst Dir in diesem Punkt selbst.

Bis denne

Razor

Razor
2002-07-21, 12:40:56
Originally posted by ow
Da interpretierst du was in Razors Aussage hinein, was er so nicht gemeint hat IMO.
War nur unglücklich formuliert.
Korrekt !
Danke, ow...

Razor

Unregistered
2002-07-21, 13:09:22
"
Based on the current specs of NV30, believe it or not, it will be faster than the Radeon 9700
"

Das Ganze bei Anand und noch Fett gedruckt in den Final Words zum R300 Preview.

Nunja mir wird das warten einfach fallen.
Man kann sich das beste aussuchen oder nen billigen R300 kaufen.
Ob der für ATI bei 0.15 dann aber noch billig ist.... naja kann sich ja jeder selber denken.

BTW wird der 0.13 R300 nicht vor Ende Q1 2003 kommen eher später.

Mr Lolman
2002-07-21, 13:22:45
@Unregistered:
Natürlich - nvidia ist gut, und die nv30 ist schneller als die R300.
Schön dass Anandtech das jetzt schon weiss.

Achja: Ich weiss auch schon, dass der R400 schneller sein wird als NV30., und der R500 schneller als nv40....

Was soll diese unsinnige Diskussion? Freuen wir uns doch, dass es nach langer Zeit wieder wirklichen Konkurrenzkampf am Grafikkartenmarkt gibt. Das drückt die Preise und der User ist der Gewinner.


Selbst ihr seid Gewinner, ihr nvidioten, kapiert ???
(jeder hat für sich selbst zu entscheiden ob er ein nvidiot ist, oder nicht)

Tarkin
2002-07-21, 13:40:25
Originally posted by nggalai
Hi Tarkin,

das kann man auch anders formulieren. Reiss dich ein wenig am Riemen.

Ach ja, und Du hast noch immer nicht meine Frage nach den Quellenangaben für deine FPS-Diagramme beantwortet.

ta,
-Sascha.rb


http://www.rage3d.com/board/showthread.php?threadid=33627292

Quasar
2002-07-21, 13:55:46
from Rage3D-Board

These are only the results from Anand, as he used the same system and benchmarks for both the Radeon 9000 pro and 9700 reviews. The numbers for the GF4's framerates under anti-aliasing are my best estimate. I couldn't find any numbers for the Ti4600's performance under 1600 x 1200 resolution with those particular benchmarks, let alone that test system. Therefore, I looked at representative losses the Ti4600 takes under similar conditions in other benchmarks. In any case, the percentage difference between the GF4 and Radeon 9700 are straight from Anand.

Ah-ha.....

Quasar
2002-07-21, 14:01:30
Originally posted by nagus
:bawling:
bravo, hast du das am meisten CPU-limitierte Spiel herausgepickt. und den letztden absatz von dir hab ich ehrlich gesagt auch nicht ganz verstanden ( den rest finde ich auch lächerlich... aber bitte, jedem dass seine und dir Nvidia ;)

Ja, hab' ich. Und du das mit den am wenigsten bekannten Umständen, mit den Settings, die der R300 am meisten entgegenkommen, so what?

Der letzte Absatz war doch nicht soo schwer, oder? Erst sagst du, von Beta zu final wird's 10-20% schneller, vergisst aber, das es von alpha zu beta erstmal einige % langsamer wurde, weil's bei dem hohen Takt Probleme gab....nun klarer, wo der Widerspruch liegt?

"Jedem das Seine"...du weisst, wo dieser Spruch stand?
Mir entweder nVidia, Matrox, ATi, PowerVR, Bitboys, Trident, SiS, VIA oder Intel.....ist mir doch völlig wurscht, von wem ich die Graka kaufe, die das beste Paket bietet.

Tarkin
2002-07-21, 14:26:08
Originally posted by Razor

Sicher nicht...
Aber nicht jeder hat Deinen geistigen Horizont !
Ein wenig zu überlegen tut einfach nicht weh' und wenn man sieht, welch schlüssigen Argemente von Dir kommen...
Beeindruckend !
Warte, ich muss :kotz:
;-)

Kann jeder, wenn er will...
Was ist daran 'gewaltig' ?
Wie lang stehen die Specs und Definitionen für DX9 schon fest ?
Schon seit über einem Jahr ?
Hochacht ATI !
;-)

Die letzte Innovation von nVidia war die gf3 (NV20) und die nächste wird der NV30 sein...
Auch nichts weltbewegendes, wenn man ein wenig nachdenkt.
Alle 2 Jahre (ca.) ein wirklich neuer Chip.

Und wo ist Deine 'Innovation' beim RV250 ?
Bzw. beim Radeon 7000/7200/7500/8500LE/9000/9000'pro' ?
Ach was red' ich mit Dir ?
;-)

Der R300 tritt direkt gegen den NV30 an, der ebenfalls noch dieses kommt, insofern erfüllt der R300 jetzt nur (!) Marketing-Zwecke, mehr nicht. Und ATI täte gut daran, diesen Chip so schnell wie möglich auch an den Markt zu bringen, denn wenn nVidia mit dem Zielkonkurrenten kommt könnte es zu spät sein und ATI hat keine andere Möglichkeit, als Ihren Chip über den Preis in den Markt zu drücken (wie auch beim R200 geschehen). Und ob ATI dies eine weitere Runde durchhält, ist zumindest fraglich. nVidia könnte dies sicher !

Und ruhig blut, wenn man Dich so schreiben sieht, könnte man meinen, dass Du kurz vor einem Herzinfarkt stehst.
Locker bleiben und einfach Abwarten, bis 'richtige' Fakten vorliegen !
Schont das Herz und macht auch einen besseren Eindruck...
:D

In diesem Sinne

Razor

1. Ich finde, die R300 ist das beste Argument.
... aber Du kannst (willst) das einfach nicht begreifen. Weil Dein geistiger Horizont anscheinend nicht über nVidia hinausgeht. Alles was Du hier (krankhaft) versuchst, ist die 9700er schlechtzureden ... was willst Du eigentlich damit erreichen? Bist Du ein nVidia Shareholder oder was?

2. Wo is denn nVidias DX9 Chip, Hm?? Wieviel Transis hat ne GF4? In welchem Prozess hergestellt? Welcher Takt ???? Wie groß ist eine GF4 (Gesamtfläche der Karte) ... Hochachtung nVidia

3. DX8.1, Truform, Hydravision, ...

4. Wenn das Wörtchen "wenn" nicht wär, ...
Diesesmal hat ATI nVidia gezeigt, wo der Hammer hängt. Nun, alle Spekulationen über den möglicherweise schnelleenr, möglicherweise vor Weihnachten, möglicherweise 0.13, möglicherweise was weiß ich Chip nv30 sind absolut fehl am Platze (und außerdem ziemlich kindisch). Da könnte ich jetzt genausogut mit dem R400 anfangen und blah, blah, blah posten.

PS: IMO gibts hier etwas zuviele möchtegern Marketingexperten, Volkswirte, Chipdesigner, Klugscheisser usw .... da frag ich micht echt manchmal,

mfg

Tarkin
2002-07-21, 14:37:51
Originally posted by Quasar


Ah-ha.....

Der prozentuale Leistungsunterschied (von Anand) ist korrekt dargestellt ...

auch sehr aufschlussreich:

http://www.hardocp.com/article.html?art=MzMw

... wennst dir das nicht reicht, dann vergiss es.

Quasar
2002-07-21, 14:42:37
Originally posted by Tarkin
was bist du für ein Nvidiot?
hast du dir das Preview auf Anandtech mal komplett durchgelesen? das steht klipp und klar, dass sie 325Mhz fur den Core anpeilen und auch mehr als 310Mhz für den speichertakt!
btw, wurden die Radeon 8500 auch HÖHER getaktet! kurz vor dem releas haben die ATI-typen den Takt jeweils um 25Mhz ( auf 275/275) angehoben.
langsam frage ich mich wirklich welche DEPPEN in diesem forum herumgeistern und wirklich NUR SCH**** posten und :bonk::bonk::bonk:

Werden wir mal wieder ein wenig ausfallend? Nein, doch wohl nicht, oder?

Klipp und klar, daß 325MHz angepeilt sind....so wie 300MHz für den R200 angepeilt wurden (oder 125MHz für den TNT, bevor hier jemand den auch wieder ausgräbt..)?

Kurz vor dem Release haben die ATi-Typen dann ein paar Samples nur auf 275MHz stabil hinbekommen und an Reviewer versandt und das Gros der Karten, und besonders die, die man 2001 vorwiegend kaufen konnte, nochmals um 25MHz heruntergetaktet als "LE-Version" vertrieben. FYI.

Quasar
2002-07-21, 14:51:32
Originally posted by Tarkin
... wennst dir das nicht reicht, dann vergiss es.

Für einen ersten Eindruck (nämlich, daß der R300 deutlich schneller ist) reicht mir das. Dafür hätte ich aber eigentlich keine Benchmarks gebraucht.

Wieviel schneller, das wird sich in exakt 26Tagen zeigen, wenn ATi die ersten Karten ausgeliefert haben wird und jeder sich selbst ein Bild machen kann und etliche Hardware-Sites unabhängige Benchmarks unter kontrollierten Bedingungen veröffentlich haben werden.

Das reicht mir dann auch. :)

Unregistered
2002-07-21, 14:52:57
Originally posted by Quasar
"Jedem das Seine"...du weisst, wo dieser Spruch stand?Wo soll er denn gestanden haben? ???
Das ist schon in der Antike die Definition von Gerechtigkeit (suum cuique).
Der Zusammenhang mit der R300 will mir nicht einleuchten.

askibo
2002-07-21, 15:10:45
Originally posted by Unregistered
Wo soll er denn gestanden haben? ???
Das ist schon in der Antike die Definition von Gerechtigkeit (suum cuique).
Der Zusammenhang mit der R300 will mir nicht einleuchten.

Steht am Eingangstor zum KZ Buchenwald. Ähnlich dem "Arbeit macht frei" beim KZ Auschwitz.

Was das allerdings hier in diesm Thread zu suchen hat ist mir auch unklar.

Quasar
2002-07-21, 15:16:24
Ich wollte nur auf die jüngere historische Bedeutung hinweisen, nicht den Ausspruch verdammen. Man sollte imho nur wissen, was für Assoziationen man mit seinen Aussprüchen wecken könnte (ohne jetzt irgendeinen Vorwurf erheben zu wollen!!). Nur ein bißchen das Bewußtsein schärfen.

nggalai
2002-07-21, 16:15:20
Hi Tarkin,Originally posted by Tarkin


Der prozentuale Leistungsunterschied (von Anand) ist korrekt dargestellt ...

auch sehr aufschlussreich:

http://www.hardocp.com/article.html?art=MzMw

... wennst dir das nicht reicht, dann vergiss es. Danke für deine Quellenangabe, in deinem anderen Posting auf dieser Seite. Damit sind die "Benchmarks" definitiv für nichts weiteres als einen grobe Leistungseinschätzung zu gebrauchen, was aber, wie Quasar schon sagte, nicht weiter schlimm ist.

Zum Thema "prozentualer Leistungsunterschied korrekt dargestellt" zitiere ich da gleich mal deine Quelle:

"The numbers for the GF4's framerates under anti-aliasing are my best estimate. I couldn't find any numbers for the Ti4600's performance under 1600 x 1200 resolution with those particular benchmarks, let alone that test system."

Also bitte diese Nummern mit Vorsicht geniessen, und nicht kommentarlos wo reinkopieren. Der Kommentar des Urhebers ist da doch recht wichtig . . .

Hi Quasar,Originally posted by Quasar


Für einen ersten Eindruck (nämlich, daß der R300 deutlich schneller ist) reicht mir das. Dafür hätte ich aber eigentlich keine Benchmarks gebraucht.

Wieviel schneller, das wird sich in exakt 26Tagen zeigen, wenn ATi die ersten Karten ausgeliefert haben wird und jeder sich selbst ein Bild machen kann und etliche Hardware-Sites unabhängige Benchmarks unter kontrollierten Bedingungen veröffentlich haben werden.

Das reicht mir dann auch. :) full ACK. :)

ta,
-Sascha.rb

Simon Moon
2002-07-21, 16:27:20
Originally posted by Tarkin


1. Ich finde, die R300 ist das beste Argument.
... aber Du kannst (willst) das einfach nicht begreifen. Weil Dein geistiger Horizont anscheinend nicht über nVidia hinausgeht. Alles was Du hier (krankhaft) versuchst, ist die 9700er schlechtzureden ... was willst Du eigentlich damit erreichen? Bist Du ein nVidia Shareholder oder was?

mfg

Imho seh ich das anders. Er sieht sie wirklich objektiv und hier haben viele ein Fest, das nVidia entrohnt. Mir persönlich gefällt das ja auch, da ich nVidia nicht mag. Aber das hat hier nix verloren.
Zurück zum Thema, hier gibt es 3 Gruppen. Solche die ihr Pro ATi reinbringen (u.a. du wie ich finde), solche die ihr Pro nVidia reinbringen und solche die ihre objektivität zuoberst stellen. Razor macht das so. Nur ist eben Objektivität nicht gleich Objektivität. Die Objektivität die ich hier meine ist, dass man nach dem Chip bewertet und nicht nach der Firma.
Das ATi wohl für einen gewissen Zeitraum das (mit abstand) beste Produkt auf dem Markt haben wird ist Fakt.
Das nVidia aber auch nicht schläft ist auch Fakt.
Es bringt keinem was, wenn er krampfhaft versucht ein Produkt gut zu reden.

@ Razor: das ist kein Eindruck, dass ATis R300 unfertig wirkt. Das ist ne Tatsache ;)

Demirug
2002-07-21, 16:34:47
Originally posted by El-Diablo
@ Razor: das ist kein Eindruck, dass ATis R300 unfertig wirkt. Das ist ne Tatsache ;)

Na ja ganz so eng würde ich das nicht sehen.

Er erfüllt scheinbar so ziemlich die gesamte DX9 Spec. Bevor jetzt wieder Einsprüche kommen. Es gibt Teile in der Spec über die in keinem der Previews gesprochen wurde. Sind zwar nur Kleiningkeiten die aber durchaus in Zukunft auswirkungen auf die Performance haben könnten.

Ansonsten stellt der Chip wohl so ziemlich das derzeit im Grafikbereich technisch machbare dar.

Razor
2002-07-21, 17:31:39
Originally posted by Tarkin
1. Ich finde, die R300 ist das beste Argument.
... aber Du kannst (willst) das einfach nicht begreifen. Weil Dein geistiger Horizont anscheinend nicht über nVidia hinausgeht. Alles was Du hier (krankhaft) versuchst, ist die 9700er schlechtzureden ... was willst Du eigentlich damit erreichen? Bist Du ein nVidia Shareholder oder was?
Hey, klasse Argumentation !
Schon wieder ein Beweis für geistige Reife !
:D
Originally posted by Tarkin
2. Wo is denn nVidias DX9 Chip, Hm?? Wieviel Transis hat ne GF4? In welchem Prozess hergestellt? Welcher Takt ???? Wie groß ist eine GF4 (Gesamtfläche der Karte) ... Hochachtung nVidia
Tja und gerade weil wir das alles nicht wissen, würde ich etwas vorsichtig damit sein, hier vorzeitig einen Sieger zu küren... abwarten und irgendwas trinken, gell ?
(und nicht aufregen, ist nicht gesund !)
;-)
Originally posted by Tarkin
3. DX8.1, Truform, Hydravision, ...
???

Offesichtlich scheinst Du in diesem Fall nicht einmal des lesens mächtig gewesen zu sein, oder ?

Die Radeon8500 hab' ich nicht vergessen, sondern absichtlich aussen vor gelassen...
Du hast darauf angespielt, dass gf3ti200/500 und alle gf4 keine Innovation bieten (die gf3 explizit nicht !) und ich habe einfach nur dagegen gehalten und wohl aufgezeigt, dass dies bei ATI nicht anders ist.
Originally posted by Tarkin
4. Wenn das Wörtchen "wenn" nicht wär, ...
Diesesmal hat ATI nVidia gezeigt, wo der Hammer hängt. Nun, alle Spekulationen über den möglicherweise schnelleenr, möglicherweise vor Weihnachten, möglicherweise 0.13, möglicherweise was weiß ich Chip nv30 sind absolut fehl am Platze (und außerdem ziemlich kindisch). Da könnte ich jetzt genausogut mit dem R400 anfangen und blah, blah, blah posten.
Noch hat ATI gar nichts 'gezeigt', das wird erst noch kommen !
(hoffentlich bald)

Und das mit dem 'blah, blah, blah' tust Du doch schon die ganze Zeit, oder ist vor Dir auch nur irgendetwas 'vernünftiges' gekommen ?
???
Originally posted by Tarkin
PS: IMO gibts hier etwas zuviele möchtegern Marketingexperten, Volkswirte, Chipdesigner, Klugscheisser usw .... da frag ich micht echt manchmal,
Korrekt, solltest Dich mal wirklich fragen, zu welcher Gruppe Du gehörst !

Hier gibt es tatsächlich Leute mit Hintergrund, wie echte Entwickler, sehr gut informierte Leute mit 3D-Hintergrundwissen, Menschen mit hohem Sachverstand, was Marketing- und Marktmechanismen angeht, aber all das scheint Dir ja völlig egal zu sein...

Schönen Tag noch

Razor

MadManniMan
2002-07-21, 17:31:42
@quasar: hier irgendwie den anstoß für fehlinterpretationen zu geben, finde ich nicht so passend von dir. sicherlich sagst du, daß du nur selbiges verhindern willst, schaffst aber gerade dadurch unstimmigkeit... aber absicht unterstellen möchte ich dir da auch nicht :)

@razor:

so razorle, jetzt üben wir mal was: schreib 10x hintereinander in schönschrift "Was ich von einer Sache denke, allerdings nicht anhand von Fakten belegen kann, ist meine eigene subjektive Einschätzung und muß weder zwangsläufig deckungsgleich mit der Realität, noch mit der Betrachutngsweise Anderer sein." auf ein weißes blatt papier, tackere dir selbiges an die decke über dein bett und geh vor jedem forenbesuch eine runde schlafen...

Unregistered
2002-07-21, 17:36:17
@ Exxtreme

hab gerad die fernsehnkanäle eingestellt und wollt nur sagen, es gibt doch noch tele5 :) Astra 11.553 Horizontal also viel spass beim schauen ;-)

MadManniMan
2002-07-21, 17:36:29
Originally posted by Razor

Tja und gerade weil wir das alles nicht wissen, würde ich etwas vorsichtig damit sein, hier vorzeitig einen Sieger zu küren... abwarten und irgendwas trinken, gell ?
(und nicht aufregen, ist nicht gesund !)
;-)



ämm, könnetst du mal bitte damit aufhören, den r300 als ABSOLUT direkten konkurrenten vom nv30 zu sehen? das ati ding ist grob geschätzt ein viertal jahr früher draußen und damit hat ati "für ein quartal gewonnen". obs dir nun paß oder nicht!

Razor
2002-07-21, 17:43:20
Originally posted by El-Diablo
@ Razor: das ist kein Eindruck, dass ATis R300 unfertig wirkt. Das ist ne Tatsache ;)
Da ist zwar ein Smilie, aber so ganz unkommentiert möchte ich das nicht lassen !
:D

Alles was ich bisher sagte gilt auch im umgekehrten Fall: Es ist lediglich mein Eindruck, der die R300 unfertig erscheinen lässt (meinetwegen auch wieder übereilt an den Markt gebracht, wie damals die R200). Aber das ist nur ein Eindruck und muss sich erst bestätigen !

Schliesse mich da Quasars Meinung an und sage Abwarten...
In einem knappen Monat, wenn ATI sein Versprechen wahr macht und wirklich echte Tests zulässt und wir umfassend über reale Performance auf unterschiedlichsten Systemen nebst extensiven Quali-Checks informiert werden, werde ich unter umstänen meinen jetzigen Eindruck revidieren... oder eben auch nicht.

Auch dann werde ich den NV30 abwarten, um dann ein wirklich abschliessendes Ureteil zu fällen. Denn da über den NV30 noch so gut wie nix bekannt ist, kann es auch sehr gut sein, dass er floppt und dann wird meine Wahl auf den R300 fallen (vorausgesetzt er übersteht die ersten Praxiserfahrungen und dann sicher zahlreichen, intensiven Tests ;-).

Aber danke für die Blumen und ich bin mir sicher, dass Du den von mir zitierten Spruch nicht wiklich ernst gemeint hat.
:D

Bis denne

Razor

P.S.: Spannend ist das Ganze allemal !

aths
2002-07-21, 17:47:03
Originally posted by nagus
NEIN... 128bit color renderingDas mit den 128 Bit möchte ich bezweifeln, sofern ich das richtig verstanden habe wird mit 64 Bit Genauigkeit gerechnet.

aths
2002-07-21, 17:48:53
Originally posted by MadManniMan
mir fällt grad auf, daß das wirklich KRASS sein muß... s ist ja immerhin schon schwerlich vorstellbar, daß es was krasseres als die vertikale eer von 4*s(i.e. 4) geben soll... Voodoo5 hat die gleiche Qualität auch horizontal und liefert dadurch insgesamt ein deutlich besseres Bild :) Wenn Radeon9x00 (x>0) 4x AA mit einem RG-Raster macht wäre es allerdings höchst unfair, das mit der dann vergleichsweise schlechten 4x-GeForce-Qualität zu vergleichen.

Simon Moon
2002-07-21, 17:51:53
Originally posted by Demirug


Na ja ganz so eng würde ich das nicht sehen.

Er erfüllt scheinbar so ziemlich die gesamte DX9 Spec. Bevor jetzt wieder Einsprüche kommen. Es gibt Teile in der Spec über die in keinem der Previews gesprochen wurde. Sind zwar nur Kleiningkeiten die aber durchaus in Zukunft auswirkungen auf die Performance haben könnten.

Ansonsten stellt der Chip wohl so ziemlich das derzeit im Grafikbereich technisch machbare dar.

Ich bezog es eher darauf, das sie noch keine genauen Takte nennen können -> Nicht fertig. Das der Chip selbst so fertig ist, das sie ihn wohl ausliefern könnten ist mir auch klar.

Razor
2002-07-21, 17:54:16
Originally posted by MadManniMan
ämm, könnetst du mal bitte damit aufhören, den r300 als ABSOLUT direkten konkurrenten vom nv30 zu sehen? das ati ding ist grob geschätzt ein viertal jahr früher draußen und damit hat ati "für ein quartal gewonnen". obs dir nun paß oder nicht!
Du siehst Dich gerne selber schreiben, was Manni ?
(deswegen lasse ich auch Deinen ersten an mich gerichteten Post unkommentiert=
:D

Und ich werde keinesfalls aufhören, den R300 als DIREKTE Konkurrenz zum NV30 zu sehen und nicht als etwas Eigenständiges. Auch ist der R300 keinesfalls sicher 3 Monate früher draussen, als der nVidia-Chip, oder gehörst Du auch zu den Hellsehern hier ?

Fakt ist, dass ATI unter synthetischen Bedingen einen ersten Eindruck zugelassen hat und mehr auch nicht. Es waren weder extensive eigene Tests möglich, noch konnte die BQ dokumentiert werden, was sicher seinen Grund hatte. Auch sollten einiger der gegebenen Informationen zum Nachdenken anregen und nicht unbedingt zur absoluten Lobhudelei auffordern.

Wenn es Dir darum geht, den R300 für ca. 1-3 Monate zum König zu küren, bitte !
Dann sag uns bitte aber auch mal, aufgrund welcher greifbaren Belege Du das machen möchtest.

Wenn es Dir nichts ausmacht, werde ich auch weiterhin berechtigte Zwiefel anbringen, wenn mir das passend erscheint... bis ich eines besseren belehrt werde.

Also warten wir doch einfach noch diesen einen Monat ab und küren den R300 dann zum König, OK ?
Und wenn er dann noch die ersten Praxiserfahrungen übersteht (ein weiterer Monat !) dann kommt er auch für mich ernsthaft in Frage.

Also von jetzt an ca. 2 Monate ! Vorher sicher nicht...

Daran wird auch ein Manni nichts ändern können...
:D

In diesem Sinne

Razor

Simon Moon
2002-07-21, 17:59:17
Originally posted by aths
Voodoo5 hat die gleiche Qualität auch horizontal und liefert dadurch insgesamt ein deutlich besseres Bild :) Wenn Radeon9x00 (x>0) 4x AA mit einem RG-Raster macht wäre es allerdings höchst unfair, das mit der dann vergleichsweise schlechten 4x-GeForce-Qualität zu vergleichen.

Wenn das wirklich der Fall wäre, würd ich den gleich auf der Stelle kaufen. Egal ob 200Mhz oder 300Mhz Takt, sowas würd ich mir bei so geringem Performance Verlust nicht entgehen lassen.
Aber ich denk nicht, dass er das so gut beherrscht. Erscheint mir irgendwie zu schön um Wahr zu sein. (ok Subjektiv...)

Aber imho würde dann Trotzdem verglichen, war schon zu Voodoo5 Zeiten so.

Btw. schreib doch einfach R300, das impliziert sowohl R9500 als auch 9700... ;)

MadManniMan
2002-07-21, 18:20:34
@aths: sehe ich das richtig, dass wir die beide noch nicht in aktion gesehen haben(v4 auf 2* beschränkt und mannis v1 und v3... naja ;) ) und das 4*s daher das beste ist, was uns vor augen war? :D


Originally posted by Razor

Wenn es Dir darum geht, den R300 für ca. 1-3 Monate zum König zu küren, bitte !
Dann sag uns bitte aber auch mal, aufgrund welcher greifbaren Belege Du das machen möchtest.


nun, belege insofern, daß die von tarkin geposteten benches durchaus die tendenz aufzeigen. oder eben das grid, von dem ich gerade geredet hatte. oder eben im allgemeinen die dx9-kompatibilität. oder einfach nur die bruteforce. sieh es wie du willst, wenn in einem monat nicht auf einmal 50mio transis fehlen, oder der takt auf 200 runtergeschraubt ist oder das memorysys auf 128bite reduziert wird... dann ist das ding de facto das beste, was du kriegen können wirst... für 3 bis 3 monate :)

es ist schon klar, daß du nur für dich die idealere lösung suchst, dann formilier das aber auch so, daß dein interesse nicht das der allgemeinheit sein muß!

*sichschonjetztdarüberfreuenddaßsichdasrazorleimmai2003dennv30holt(weilschneller alsr300)*

Razor
2002-07-21, 18:48:07
Im Mai 2003 ?
Du beliebst zu scherzen !
:D

Und die 50Mio Tanserls werden schon nicht raus purzeln, da bin ich mir sicher !
(ob's das Beste wird, zeigt sich dann - aber schnell wird es sein !)
;D

Bis denne

Razor

aths
2002-07-21, 19:26:39
Originally posted by MadManniMan
@aths: sehe ich das richtig, dass wir die beide noch nicht in aktion gesehen haben(v4 auf 2* beschränkt und mannis v1 und v3... naja ;) ) und das 4*s daher das beste ist, was uns vor augen war? :DIn Aktion gesehen habe ich Voodoo5-Karten wohl... besessen das gute Stück leider nie.

skampi
2002-07-22, 22:25:29
@Razor, hab ich gerade auf computerbase bei den comments gefunden. Musste kurz lachen.


Lektion 1: Wie erkennt man ein nvidiot.

Suchen nach:
doublespeak(n.)
1. Bedeutungslose Rede, die aus sinnlosen, unvereinbaren Wörtern besteht; Kauderwelsch.
2. Absichtlich vieldeutige oder ausweichende Sprache.

Beispiel:
===========================================
Entsprechend unbestätigten Gerüchten und Spekulationen über NV30, es ist definitiv, ganz sicher, kein-zweifeln-daran, und absolut bestaetigt, daß Nvidia mit ihrer neuen Karte in den naechsten 4 bis 7 Monaten noch einmal an der Spitze zurueckkehren wird. Wenn man sich den enormen Leistungsvorteil des Radeon 9700 zur Auge fuehrt, scheint es mir selbstverstaendlich, daß die angebliche Leistung des NV30 weit überlegen ist, in einer Art und Weise die wir gar nicht anfangen können uns vorzustellen. Ich sag's euch, es ist einfach unerhoert! Gerade weil niemand darueber was gehört hat!

Obwohl der R9700 bei weitem die schnellste Videokarte ist die jemals fuer den PC entwickelt wurde, sollten wir niemals vergessen daß ATI nur schreckliche Treiber produziert (ich sag dies aus persönlicher Erfahrung, vielen Jahren zuvor mit dem rage128!). Deshalb ist es klar wie der blaue Himmel, daß das R9700 von schrecklichen 'Bugs' geplagt sein wird, obwohl ich bis jetzt in den Reviews keine Probleme gefunden habe. Ganz zum Gegenteil die NV30 Treiber, ich weiss daß die mehr als perfekt sein werden, obwohl es die bis jetzt gar nicht gibt.

Es ist sinnlos, die ATI Karte zu kaufen, da die gegenwärtigen CPUs zu langsam sind, den R9700 völlig auszunutzen, obwohl ich zugeben muss dass ab [ > 1200x1024 + FSAA ] die CPU nicht mehr das limitierende Faktor ist.

Obwohl es ueberhapt keine Quellen gibt, es ist sicher daß NV30 20.000 3DMarks(2001SE) schafft, und ich werde einfach mal die Tatsache ignorieren, daß dieses Benchmark aufwärts von 10.000 Punkten streng CPU limitiert ist.

NV30 wird schneller sein, mit hilfe des - und dies ist bestätigt und überprüft - höher getakteten, 256bittigen Controller, wobei ich bequemmerweise vergessen habe, daß die nvidia-eigenen Leute (D. Kirk) wiederholt angegeben haben, daß "wir keine Pläne zur Verwendung eines 256bittigen Controllers haben". Sollte es doch nur 128bit handeln, kann ich bestätigen daß es ueber eine viel groessere bandbreite als der R9700 verfuegt, weil ja Nvidia viele Tricks aus dem aermel zaubern kann.

Aus diesen Gruenden, werd ich bestimmt auf NV30 warten, da es schneller ist als der Radeon 9700. Obwohl ich keine Ahnung ueber Features und Specs eines nicht-existierendes NV30 habe, muss ich wieder sagen: es ist schneller als das Radeon 9700.

Ati soll sich die Aermel hochkrempeln, die muessen die schnellste Graka aller zeiten um einiges verbessern, es laeuft ihnen die Zeit davon Nvidias Antwort zum R9700 etwas entgegenzustellen.
========================================
Empfehlung: mit solch einer zu argumentieren ist sehr gefährlich, es koennte fuer die Gehirnaktivität tödlich sein. Ende von Lektion 1


PS:Dieses Forum ist manchmal so armseelig. Wer verteilt eigentlich die Sternchen an den Threads?!

Gruß

Doomtrain
2002-07-22, 22:31:30
Originally posted by skampi


PS:Dieses Forum ist manchmal so armseelig. Wer verteilt eigentlich die Sternchen an den Threads?!



Ganz ganz alt was du da postest!!!

PS: Schau mal am unteren rechetn Rand. Da steht: Rate this Tread!

Thowe
2002-07-22, 22:39:04
Originally posted by skampi

PS:Dieses Forum ist manchmal so armseelig. Wer verteilt eigentlich die Sternchen an den Threads?!

Gruß

Leider jeder der sich die Mühe macht den Thread zu bewerten, i.d.R. die Fans die am besten im Thread abschneiden, oder aber glauben das sie die sind die am besten abschneiden.

Ganz ab davon, macht der nächste PowerVR-Chip eh alles platt, keine Frage. Weiss gar nicht wie es sein kann, das jemand glaubt, das dies nicht so ist. Aber auch ein Irrglaube ist ja ein Glaube, wobei das Irr kommt nicht von irren im Sinne von vertun, sonder von irre im Sinne von verrückt. Da bin ich froh, das ich den nötigen Weitblick besitze so unvoreingenommen und korrekt den zukünftigen Markt und seine Produkte beurteilen zu können. Aber die "dummen" sollen ihren lächerlichen Irrglauben nachjagen, die Zukunft gibt mir so oder so recht. Sagt nicht ich hätte euch nicht gewarnt, also

In diesem Sinne

kreuzige ich eine Spinne, und die Moral von der Geschicht´ wer meint die Zukunft zu kennen, der spinnt sicherlich.




EDIT: Wegen des "In diesem Sinne", das soll keine Anspielung auf eine Person sein. Sondern dient einzig und alleine des Übergangs auf den "Schlusswirrquatsch" oder so.

nggalai
2002-07-22, 22:39:04
Hi skampi,Originally posted by skampi
PS:Dieses Forum ist manchmal so armseelig. Wer verteilt eigentlich die Sternchen an den Threads?!
z.B. Du, resp. die User hier.

Wenn Dir die Bewertung eines Threads nicht passt, einfach unten abstimmen.

ta,
-Sascha.rb

Piffan
2002-07-22, 22:44:36
Originally posted by skampi
@Razor, hab ich gerade auf computerbase bei den comments gefunden. Musste kurz lachen.



PS:Dieses Forum ist manchmal so armseelig. Wer verteilt eigentlich die Sternchen an den Threads?!

Gruß

So wie ich das sehe, haben einige tatsächlich Hirnfunktionsstörungen....Razor sicher nicht! Er ist zwar Nvidiot, argumentiert aber sehr nachvollziehbar.....ich kann mich auch nicht erinnern, dass er andere beleidigt.... Sollten sich viele FanATIker mal ein Beispiel nehmen....

Viele Post sind wirklich armselig, und immer von den "üblichen Verdächtigen"....

Unregistered
2002-07-22, 22:50:24
Originally posted by Piffan


Viele Post sind wirklich armselig, und immer von den "üblichen Verdächtigen"....

Bitte Namen nennen!

skampi
2002-07-22, 22:56:36
Originally posted by nggalai
Hi skampi,z.B. Du, resp. die User hier.

Wenn Dir die Bewertung eines Threads nicht passt, einfach unten abstimmen.

ta,
-Sascha.rb

hi nggalai, so war das nicht gemeint. Ich will auf keinen Fall diesen Thread hypen.

Thowe
2002-07-22, 22:59:31
Originally posted by skampi


hi nggalai, so war das nicht gemeint. Ich will auf keinen Fall diesen Thread hypen.

Dann einfach einen Punkt = worst vergeben. Dann dehypst du ihn.

skampi
2002-07-22, 23:11:48
@piffan

Kannst Du nicht drüber lachen...

HOT
2002-07-22, 23:12:30
@skampi, mit diesem Text triffst du GENAU den Nerv dieser vollkommen absurden Diskussionen in diesem Forum.

Fakt A
Der NV30 ist noch nicht draussen und wir wissen nichtmal ANNÄHERND wie er aussehen könnte. Siehe Demirugs Diskussion zu den technischen Details, da hab ich mich ja schon ausgelassen :D

Fakt B
Der Radeon9700 ist schon nach den ersten prozentualen Vergleichen von
www.extremetech.com und www.anandtech.com
EINDEUTIG schnellster Chip (und der hat auchnoch Potenzial). So eindeutig war der Abstand letztes Mal zwischen der Radeon8500 und dem Geforce4 Ti4600 (nur mal so als Vergleich). Wie GENAU dieser Vorsprung jedoch aussehen wird, werden wir dann in detaillierteren Reviews sehen können.

Ergo hat ATI den schnellsten Chip (da gibts auch vor lauter Wunschträumen nichts dran zu rütteln) und NVidia NICHT. OB NVidia wieder die Krone übernehmen wird, ist ABSOLUT NICHT KLAR. Um die Absourdität zu unterstreichen: Der Tridentchip wird ganz bestimmt mit der Geforce4 Ti4600 gleichziehen, denn das ist ein deferred Renderer.
Leute, So BESCHEUERT kann diskutierten über ungelegte Eier sein. Ich weiss, dass ich das zu K3 Spekulationszeiten genauso gemacht habe, aber ich denke, darüber bin ich hinweg.

HOT
2002-07-22, 23:24:08
@aths ich habe in vielen Reviews was über 128Bit FP Format gelesen, vieleicht arbeitet der Chip tatsächlich in diesem Format, beherrschat aber auch das 64Bit FP Format. Wie auch immer.

und nochwas:

I am Cornholio hehe hehe hehe yea hehe hehe hehe

HiddenGhost
2002-07-22, 23:50:02
Originally posted by HOT
I am Cornholio hehe hehe hehe yea hehe hehe hehe

Muss man das jetzt verstehn ,HOT ??? *stirnrunzel...*

Unregistered
2002-07-22, 23:56:41
Originally posted by HOT
@skampi, mit diesem Text triffst du GENAU den Nerv dieser vollkommen absurden Diskussionen in diesem Forum.

Fakt A
Der NV30 ist noch nicht draussen

Fakt B:

Der Radeon 9700 ist ebenfalls nicht draussen, die "Terminangaben" sind reines PR-Wunschdenken und ATI lässt noch nicht mal unabhängige und unbeaufsichtigte Tests zu. Weder sind Taktfrequenzen bekannt noch kann man sagen, ob ATI mal wieder die Treiber im ersten halben Jahr versaut. Hier wird eine Seifenblase gehypt, die extrem unfertig ist.

Fakt C:

Die Tatsache, dass die Radeon 9700 einen externen Stromanschluß bekommen wird, deutet auf eine Verzweiflungstat hin: Kriegt ATI innerhalb der AGP-Spezifikation nichts angemessenes hin, so dass man dieses 0.15µ-Monster so gnadenlos übertakten muss?

Fakt D:

Die schnellsten Grafikkarten, die man kaufen kann, haben nVidia-Chips drauf. Und das wird sich in den nächsten zwei Monaten nicht ändern. Und in zwei Monaten wird man von ganz anderen Grafikchips reden als vom R300.

zeckensack
2002-07-23, 00:19:19
Originally posted by Unregistered
Fakt B:

Der Radeon 9700 ist ebenfalls nicht draussen, die "Terminangaben" sind reines PR-Wunschdenken und ATI lässt noch nicht mal unabhängige und unbeaufsichtigte Tests zu. Weder sind Taktfrequenzen bekannt noch kann man sagen, ob ATI mal wieder die Treiber im ersten halben Jahr versaut.
Hier wird eine Seifenblase gehypt, die extrem unfertig ist.
Gibt's da einen logischen Zusammenhang zwischen 'ein paar Details unbekannt' und 'extrem unfertig', den du mir erläutern kannst? Hast du Indizien für deine Treiber-'Fakten'?

Fakt C:

Die Tatsache, dass die Radeon 9700 einen externen Stromanschluß bekommen wird, deutet auf eine Verzweiflungstat hin: Kriegt ATI innerhalb der AGP-Spezifikation nichts angemessenes hin, so dass man dieses 0.15µ-Monster so gnadenlos übertakten muss?Strom vorhanden, Karte läuft. Muß man über sowas reden?
Fakt: Mein Rechner läuft nur mit Netzteil. Was du da geschrieben hast, ist eine (IMO fragwürdige) Schlußfolgerung, kein Faktum.
Fakt D:

Die schnellsten Grafikkarten, die man kaufen kann, haben nVidia-Chips drauf. Und das wird sich in den nächsten zwei Monaten nicht ändern.Unterstellung. Ich behaupte, daß der nächste Grafikchip nach dem R300 erst im Jahre 2008 erscheinen wird, und er wird "NVIDIA Peter" heißen. Wollen wir auf diesem Niveau weitermachen?
Und in zwei Monaten wird man von ganz anderen Grafikchips reden als vom R300. Ich denke auch, daß dann (wie damals bei der Geforce4Ti) das Interesse an der Einsteigerversion die 'große' Variante etwas in den Hintergrund rücken wird.

RL300 darf ruhig kommen :)
Oder meintest du irgendwas anderes? :|
*eg*

Doomtrain
2002-07-23, 00:34:14
Originally posted by Unregistered


Fakt B:

Der Radeon 9700 ist ebenfalls nicht draussen, die "Terminangaben" sind reines PR-Wunschdenken und ATI lässt noch nicht mal unabhängige und unbeaufsichtigte Tests zu. Weder sind Taktfrequenzen bekannt noch kann man sagen, ob ATI mal wieder die Treiber im ersten halben Jahr versaut. Hier wird eine Seifenblase gehypt, die extrem unfertig ist.

Fakt C:

Die Tatsache, dass die Radeon 9700 einen externen Stromanschluß bekommen wird, deutet auf eine Verzweiflungstat hin: Kriegt ATI innerhalb der AGP-Spezifikation nichts angemessenes hin, so dass man dieses 0.15µ-Monster so gnadenlos übertakten muss?

Fakt D:

Die schnellsten Grafikkarten, die man kaufen kann, haben nVidia-Chips drauf. Und das wird sich in den nächsten zwei Monaten nicht ändern. Und in zwei Monaten wird man von ganz anderen Grafikchips reden als vom R300.

Antwort B: Woher willst du das denn alles wissen? Extrem unfertig, das Teil ist sicher schon in der Serienproduktion!!! Was du kannst kann ich schon lange!!

Antwort C: Ist doch scheiß egal woher die Karte den Saft bekommt! Das haben eher die Erfinder des AGP-Standards scheiße gemacht. Sie haben derart schneller Karten gar nicht eingeplant, tja *eg*

Was meinst du mit gnadenlos übertakten? :bonk:

Registrier dich mal, sonst nimmt dich eh keiner für voll!!

bambo
2002-07-23, 00:42:53
Originally posted by Doomtrain

Antwort B: Woher willst du das denn alles wissen? Extrem unfertig, das Teil ist sicher schon in der Serienproduktion!!! Was du kannst kann ich schon lange!!


Warum läßt ATI dann niemanden die Karte wirklich testen und verweigert die Angabe der Taktfrequenz?

Originally posted by Doomtrain

Antwort C: Ist doch scheiß egal woher die Karte den Saft bekommt! Das haben eher die Erfinder des AGP-Standards scheiße gemacht.

Wenn die Karte mehr Strom zieht als die AGP-Spezifikation erlaubt, dann erzeugt sie auch mehr Hitze als jede normale AGP-Karte. Freiwillig macht ATI so was nicht. So eine Entwicklung könnte man als Fehldesign bezeichnen.
:jump4:

Doomtrain
2002-07-23, 00:52:28
Originally posted by bambo


Warum läßt ATI dann niemanden die Karte wirklich testen und verweigert die Angabe der Taktfrequenz?



Wenn die Karte mehr Strom zieht als die AGP-Spezifikation erlaubt, dann erzeugt sie auch mehr Hitze als jede normale AGP-Karte. Freiwillig macht ATI so was nicht. So eine Entwicklung könnte man als Fehldesign bezeichnen.
:jump4:

1) Warum sollten sie? Stell dir einfach vor es wäre deine Endwicklung. ATI ist halt nicht die Wohlfahrt. Warte doch einfach ab. Früher oder später bekommen sie alle Reviewer in die Hände. Vielleicht sind die Treiber noch nicht ganz fertig....oder....

2) Sei dich nicht so hart mit den armen Endwicklern. Was heißt eigentlich erlaubt? Wenn der AGP nicht mehr hergibt, muß eben eine Alternative her. Hast du ein Problem mit diesem kleinen Stromsteckerchen?

Im Prinzip kann doch jeder Hersteller machen was er will, oder? Kauf das Teil oder nicht, so einfach sehe ich das!

Anárion
2002-07-23, 00:57:54
Originally posted by Doomtrain
Registrier dich mal, sonst nimmt dich eh keiner für voll!!

Da bildest du dir was ein ;)

zeckensack
2002-07-23, 00:57:58
Originally posted by bambo


Warum läßt ATI dann niemanden die Karte wirklich testen und verweigert die Angabe der Taktfrequenz?315MHz. Nachzulesen irgendwo ... entweder auf HardOCP, bei Anand, oder bei LostCircuits. Bei einem von den dreien habe ich das gelesen. Davon abgesehen ist die Karte wohl noch nicht ganz final, warum sollte man sie also aus der Hand geben? Die Serienkarten darf dann jeder testen, der will, sogar so *Hust*Deppen wie Darktweaker oder oc-workbench ...
Und das mit dem wirklich testen ... äh. War doch. Begrenzt auf ein paar Stunden.
Außerdem läßt man sich eben auch gerne mal hofieren. "Die Hardware-Tester pilgern in die heiligen Hallen von ATI" macht sich doch wesentlich besser als "Heute war 'ne Graka in der Post", oder nicht? ;)

Wenn die Karte mehr Strom zieht als die AGP-Spezifikation erlaubt, dann erzeugt sie auch mehr Hitze als jede normale AGP-Karte. Freiwillig macht ATI so was nicht. So eine Entwicklung könnte man als Fehldesign bezeichnen.
:jump4: Muß man aber nicht.

Man könnte es auch als großen Dienst am Kunden betrachten, schon so schnell eine derartig leistungsfähige Karte zu backen, ohne sich von kleineren Störfaktoren beirren zu lassen. Ob 30, 40 oder 50 Watt, ist mir doch egal.

StefanV
2002-07-23, 01:01:40
Originally posted by bambo
Warum läßt ATI dann niemanden die Karte wirklich testen und verweigert die Angabe der Taktfrequenz?

Weil sie noch keine Testkarten haben?
Und weil die Produktion vor ein paar Wochen erst angelaufen ist??

Wie wir ja alle wissen, dauert die Produktion eines Chips in etwa 12 Wochen...
Das heißt natürlich auch, daß die 9700 Boards, die existieren alles Engeneering Samples sind...

Originally posted by bambo
Wenn die Karte mehr Strom zieht als die AGP-Spezifikation erlaubt, dann erzeugt sie auch mehr Hitze als jede normale AGP-Karte. Freiwillig macht ATI so was nicht. So eine Entwicklung könnte man als Fehldesign bezeichnen.
:jump4:

Weil ATI meinte, es könnte einige Boards geben, die die 9700 nicht mögen könnten??

BTW: warum gibts dann Xabre 400 Karten mit 5,25" Stecker??

Ich find einen Anschluß für ein NT Stecker gut!
Hätte ich bei jeder karte!!
Mit Jumper für Internal (AGP) und External.

PS: daß die AIW 8500DV auch einen Anschluß für ein NT Kabel hat, ist wohl außer mir, keinem Aufgefallen...

Doomtrain
2002-07-23, 01:03:20
Originally posted by Anárion


Da bildest du dir was ein ;)

Ach weiß du, ich glaube der Unreg kann mir selber seine Meinung sagen, dazu braucht er er dich nicht.
Wenn man nicht registriert ist und dann Mist schreibt, braucht man sich nicht zu wundern wenn die Reaktionen "etwas" abwertend sind.

Nö, ich bilde mir nichts ein ;)

Doomtrain
2002-07-23, 01:05:31
Originally posted by Stefan Payne

Ich find einen Anschluß für ein NT Stecker gut!
Hätte ich bei jeder karte!!
Mit Jumper für Internal (AGP) und External.



Danke Stefan, du sprichst mir aus der Seele! ;)

Iceman346
2002-07-23, 01:06:19
Originally posted by zeckensack
315MHz. Nachzulesen irgendwo ... entweder auf HardOCP, bei Anand, oder bei LostCircuits. Bei einem von den dreien habe ich das gelesen.

/klugscheiss Modus on

Die Previewboards waren 325 Mhz Chip und 310 Mhz Speichertakt

/klugscheiss Modus off ;)

bambo
2002-07-23, 01:08:31
Z-Bag,

Eine Grafikkarte mit 0.15µ-Chip, die mehr Hitze in den Rechner bläst als eine 40W-Glühbirne, würde ich nicht als "Dienst am Kunden" bezeichnen, sondern als Notlösung, bei der die Entwicklung in die falsche Richtung geht.

Und das alles nur, weil ATI krampfhaft auch mal "Erster!" rufen möchte, und wenn es nur für kurze Zeit ist.

*ocl*

StefanV
2002-07-23, 01:13:10
Originally posted by bambo
Z-Bag,

Eine Grafikkarte mit 0.15µ-Chip, die mehr Hitze in den Rechner bläst als eine 40W-Glühbirne, würde ich nicht als "Dienst am Kunden" bezeichnen, sondern als Notlösung, bei der die Entwicklung in die falsche Richtung geht.

Und das alles nur, weil ATI krampfhaft auch mal "Erster!" rufen möchte, und wenn es nur für kurze Zeit ist.

*ocl*

Hm, seltsam...

Bei der GF4 TI4600 hats auch niemanden gestört...

Und wie weit die Verlustleistung von TI4600 und Radeon 9700 auseinander liegt, wissen wir leider nicht, vermutlich nicht sooo weit...

Doomtrain
2002-07-23, 01:14:30
Originally posted by bambo
Z-Bag,

Eine Grafikkarte mit 0.15µ-Chip, die mehr Hitze in den Rechner bläst als eine 40W-Glühbirne, würde ich nicht als "Dienst am Kunden" bezeichnen, sondern als Notlösung, bei der die Entwicklung in die falsche Richtung geht.

Und das alles nur, weil ATI krampfhaft auch mal "Erster!" rufen möchte, und wenn es nur für kurze Zeit ist.

*ocl*

Dann laß sie doch "erster" rufen. Keiner von uns kennt die eigenschaften dieser Karte. Spekulationen bringen doch keinen weiter. (Dann kauf halt einen Gehäuselüfter wenn sie wirklich so heiß werden sollte!) Woher hast du denn die 40W???

Und flamen bringt auch keinen weiter.

zeckensack
2002-07-23, 01:14:56
Wo wir gerade bei in rückständigen Fertigungsprozessen hergestellten Monsterchips sind ...
Wieviel Strom verbläst eigentlich eine Geforce4Ti4600? NVIDIA ist sich ja offensichtlich zu fein, dazu eine Angabe zu machen.

Klappt die auch auf jedem Board? Auf jedem? Oder gibt's da manchmal auch Probleme mit der Stromversorgung?

StefanV
2002-07-23, 01:16:00
Originally posted by Doomtrain
Danke Stefan, du sprichst mir aus der Seele! ;)

Ich sprach mal stellvertretend für die, die ein Board mit einer schlechten AGP Spannungsversorgung haben...

Eventuell wären das auch die MiliVolt, die den Enermax Usern gefehlt hat :)

Doomtrain
2002-07-23, 01:19:14
Originally posted by zeckensack

Klappt die auch auf jedem Board? Auf jedem? Oder gibt's da manchmal auch Probleme mit der Stromversorgung?

Auf jedem sicher nicht. Aber auf allen "neueren" Boards (3 Jahre und jünger) sollte sie schon funzen.

Ich hab ehrlich gesagt noch nie von Problemen gehört.

Doomtrain
2002-07-23, 01:21:56
Originally posted by Stefan Payne


Ich sprach mal stellvertretend für die, die ein Board mit einer schlechten AGP Spannungsversorgung haben...



Klar, ein solcher Stecker sollte zu Sicheheit immer dran sein. Könnte ja echt nicht schaden...

bambo
2002-07-23, 01:24:16
Originally posted by Doomtrain

Keiner von uns kennt die eigenschaften dieser Karte.

EBEN. ;) Und das gilt für vieles, für unabhängige Benchmarks, das tatsächliche Erscheinungsdatum ebenso wie die Treiberqualität.
Also ist der ganze Hype völlig verfrüht.

Originally posted by Doomtrain

Woher hast du denn die 40W???


Schon normale AGP-Karten können durch die Energie aus dem AGP-Port 40 W verheizen. Wenn eine Karte (über einen externen Stecker) noch mehr Strom zieht, dann heizt sie auch mehr.

zeckensack
2002-07-23, 01:45:33
[auchmalklugscheiß]
42W max
AGP2.0 (also AGP2x und 4x) sieht drei Stromversorgungsschienen vor.
3,3V mit 6A max
5V mit 2A max
12V mit 1A max
(seite 188, gibt's bei Intel als pdf)

Man erreicht den Maximalwert von 42W, indem man aus allen drei Quellen gleichmäßig 'mischt'.
[/auchmalklugscheiß]

GloomY
2002-07-23, 02:34:47
Wenn ich kurz noch mal was zu IMR - DFR Thema anmerken darf:
Originally posted by ow
Deine Meinung interessiert aber mal wieder nicht. Hier geht´s um Fakten. IMR und deferred renderer schliessen sich aus (wie der Name schon sagt).Meiner Meinung nach absolut richtig.
Entweder ein Dreieck nach dem anderen komplett rendern, oder alle Dreiecke Teil-bearbeiten und dann erst das eigentlich rendering.

DFR und IMR schliessen sich aus.

Daher kann man auch nicht von einem fliessendem Übergang sprechen.
Alerdings ist es richtig, dass aktuelle IMRs (GF3/4, R200/300) einige effizienzsteigernde Methoden von den Tilern übernommen (Ocullsion Culling). Das macht sie aber keineswegs zu DFRs.

Originally posted by El-Diablo
Der Flipper ist soviel ich weiss kein Defferend Renderer. Aber ein Tiler und dadurch kann er jeweils ein Tile immer gleich in den eDRAM speichern. Ein Tiler ist immer ein DFR (aber nicht jeder DFR ein Tiler).

@Demirug: Ein Kyro-Chip mit VS verhält sich genau so wie einer ohne (da macht's die CPU).
ERST werden alle Dreiecke transformiert/durch den VS gejagt ;), und DANN an die Graka gesendet.

Im Gegensatz dazu nimmt ein IMR immer nur ein Dreieck durch den VS und rendert es dann komplett. Wenn dies abgeschlossen ist, dann kommt das nächste Dreieck durch den VS und anschliessend zum Rendering. Usw.
Beim IMR geht es Dreieck für Dreieck, bei einem DFR erst ALLE Dreiecke, und dann das Rendering der gesamten "Dreiecksmasse".

Ich hoffe, damit konnte ich einige Unklarheiten aus dem Weg räumen.

Demirug
2002-07-23, 07:25:52
@GloomY:

Ist alles eine Frage der Definition. Wenn man deferred renderer so definiert das alle Dreiecke nach dem T&L zwischengespeichert werden hast du recht. Wenn man als Definition aber folgendens benutzt wären fast alle Chips deferred:

Die Daten eines kompletten Frames werden an einer beliebigen Stelle der Pipeline zwischengespeichert und in einem weiteren Schritt zum engültigen Bild fertig gerendert.

ow
2002-07-23, 09:00:35
Originally posted by bambo
Z-Bag,

Eine Grafikkarte mit 0.15µ-Chip, die mehr Hitze in den Rechner bläst als eine 40W-Glühbirne, würde ich nicht als "Dienst am Kunden" bezeichnen, sondern als Notlösung, bei der die Entwicklung in die falsche Richtung geht.

Und das alles nur, weil ATI krampfhaft auch mal "Erster!" rufen möchte, und wenn es nur für kurze Zeit ist.

*ocl*

Da stimmme ich dir zu.

ATi hat den R9700 sicher nicht als 0.15mue Chip geplant, aber ATi ist eben nun mal in der Situation, dass sie einmal vorlegen muessen, wenn sie jemals an NVs Thron kratzen wollen.
Notloesung trifft das ganz gut, aber Entwicklung in die falsche Richtung wuerde ich nicht sagen.
Sein volles Potential wird der (zweifelsohne recht gelungene) R9700 Chip erst in der 0.13mue Version zeigen.

ow
2002-07-23, 09:02:37
Originally posted by Stefan Payne


Hm, seltsam...

Bei der GF4 TI4600 hats auch niemanden gestört...

Und wie weit die Verlustleistung von TI4600 und Radeon 9700 auseinander liegt, wissen wir leider nicht, vermutlich nicht sooo weit...


:lol:@Stefan

Du kannst dir sicher sein, dass die Verlustleistung weit auseinander liegt.

ow
2002-07-23, 09:04:33
Originally posted by Doomtrain


Dann laß sie doch "erster" rufen. Keiner von uns kennt die eigenschaften dieser Karte. Spekulationen bringen doch keinen weiter. (Dann kauf halt einen Gehäuselüfter wenn sie wirklich so heiß werden sollte!) Woher hast du denn die 40W???



Die 40W stammen AFAIK aus irgendeinem der R9700 Previews, mir ist diese Zahl auch bekannt.

ow
2002-07-23, 09:07:28
Originally posted by zeckensack
Wo wir gerade bei in rückständigen Fertigungsprozessen hergestellten Monsterchips sind ...
Wieviel Strom verbläst eigentlich eine Geforce4Ti4600? NVIDIA ist sich ja offensichtlich zu fein, dazu eine Angabe zu machen.

Klappt die auch auf jedem Board? Auf jedem? Oder gibt's da manchmal auch Probleme mit der Stromversorgung?

AFAIK funzen die GF4 auf allen AGP2.0 Boards. Zumindest ist mir nichts gegenteiliges bekannt.

Einen Stromverbrauch fuer so komplexe Chips kann man nicht einfach errechnen und angeben.
Haengt ja ganz davon ab, wieviel Transis im zeitlichem Mittel schalten und wieviel maximal auf einmal schalten (Peak).

ow
2002-07-23, 09:12:52
Originally posted by zeckensack
[auchmalklugscheiß]
42W max
AGP2.0 (also AGP2x und 4x) sieht drei Stromversorgungsschienen vor.
3,3V mit 6A max
5V mit 2A max
12V mit 1A max
(seite 188, gibt's bei Intel als pdf)

Man erreicht den Maximalwert von 42W, indem man aus allen drei Quellen gleichmäßig 'mischt'.
[/auchmalklugscheiß]




du wirst IMO nie eine Karte finden, die alle 3 Spannungen nutzt, weil dafuer die Spannungsregelung auf der Karte evtl.(*) auch 3-fach ausgelegt sein muesste -> viel zuviel Aufwand = teuer.




(*) gibt auch regelungen, die aus mehreren Primaerquellen arbeiten, ist aber auch aufwendig.

ow
2002-07-23, 09:16:03
Originally posted by Demirug
@GloomY:

Ist alles eine Frage der Definition. Wenn man deferred renderer so definiert das alle Dreiecke nach dem T&L zwischengespeichert werden hast du recht. Wenn man als Definition aber folgendens benutzt wären fast alle Chips deferred:

Die Daten eines kompletten Frames werden an einer beliebigen Stelle der Pipeline zwischengespeichert und in einem weiteren Schritt zum engültigen Bild fertig gerendert.



Also mir ist nur die erste Definition bekannt, sie scheint mir auch einleuchtender.

Ein Puffern von IM gerenderten Daten wuerde ich nicht als DFR ansehen.

HOT
2002-07-23, 09:23:28
Originally posted by ow


Da stimmme ich dir zu.

ATi hat den R9700 sicher nicht als 0.15mue Chip geplant, aber ATi ist eben nun mal in der Situation, dass sie einmal vorlegen muessen, wenn sie jemals an NVs Thron kratzen wollen.
Notloesung trifft das ganz gut, aber Entwicklung in die falsche Richtung wuerde ich nicht sagen.
Sein volles Potential wird der (zweifelsohne recht gelungene) R9700 Chip erst in der 0.13mue Version zeigen.


Das wage ich doch mal sehr stark zu bezweifeln. ATI MUSS das schon lkänger gepülant haben, sonst wär der Chip noch nicht verkaufsfertig. wir reden hier nicht von einem x beliebigen 80mio Transistor Chip, sondern von einem 110Mio Transistoren Monster.
Die Fertigung hat sicherlich eine Zeit gebraucht, den Chip in der Form bei erträglichen Kosten herzustellen.
Meine Aussage dazu: dieser Chip ist extra für 150nm DESIGNT worden, ansosnten wäre der Chip garnicht HERSTELLBAR gewesen.

Demirug
2002-07-23, 09:25:40
Originally posted by ow




Also mir ist nur die erste Definition bekannt, sie scheint mir auch einleuchtender.

Ein Puffern von IM gerenderten Daten wuerde ich nicht als DFR ansehen.

Ich könnte dir aber auch einen DFR bauen der im ersten Schrit (IMR) Tileweise ermittelt welche Fragmente innerhalb der Tile gerendert werden müssen un welche nicht und das als Bitfeld zwischenspeichert. Das eigentliche Shadeing würde dann im zweiten Schrit durchgeführt.

Oder eine weitere Variante:

Der Rendere arbeitet ganz normal mit Z-Buffer. Im Framebuffer werden allerdings keine Farbwerte sondern verweise auf den zu verwenden Shaderalgo hinterlegt. Am Ende wird dann der gesamte Framebuffer noch einmal durchgegangen und jedes Fragement berechnet.

In beiden Fällen hat man einen DFR.

HOT
2002-07-23, 09:29:04
Originally posted by ow





du wirst IMO nie eine Karte finden, die alle 3 Spannungen nutzt, weil dafuer die Spannungsregelung auf der Karte evtl.(*) auch 3-fach ausgelegt sein muesste -> viel zuviel Aufwand = teuer.




(*) gibt auch regelungen, die aus mehreren Primaerquellen arbeiten, ist aber auch aufwendig.

Die Geforce4 Karten sind schon recht voll bebaut, jedenfalls mehr als der R300.
Wenn der R300 tatsächlich nur unwesentlich mehr als 40W brauchen SOLLTE wäre eine ähnliche Lösung wie bei NV sicherlich drin gewesen.
Doch da Bauteile im mom relativ teuer sind und das PCB auf problematische Ti4600 Grössen anwachsen würde, hat man sich bei ATI für die NT Lösung entschieden (finde ich auch gut so).
@ die Leute die sich hier über Abwärme beschweren: NVIDIA Karten würden bisher IMMER am Rande der AGP Specs betrieben! Aber sobald ein anderer Hersteller sowas versucht, wird gemeckert - typisch.

ow
2002-07-23, 09:29:13
HOT:

wer sagt denn, das der R300 mit ertraeglichen Kosten herzustellen ist? IMO wird ATi da keinen mueden Euro dran verdienen.

Es ging hier nur darum "Erster" zu sein. Zu zeigen, dass man vor NV releasen kann und nicht immer nur nachzieht.

Geplant war er sicher als 0.13 mit Option auf 0.15, falls der 0.13 Prozess nicht frueh genug verfuegbar.

egdusp
2002-07-23, 09:32:04
Originally posted by GloomY
Ein Tiler ist immer ein DFR (aber nicht jeder DFR ein Tiler).


Definitiv falsch. Ein Tiler kann auch ein IMR, siehe 3d labs P10. Siehe auch http://www17.tomshardware.com/graphic/02q2/020503/images/p10pipeline.jpg

Rechts oben in der Ecke steht Tiler.

mfg
egdusp

ow
2002-07-23, 09:34:50
Originally posted by HOT


Die Geforce4 Karten sind schon recht voll bebaut, jedenfalls mehr als der R300.

Zusammenhang?


Wenn der R300 tatsächlich nur unwesentlich mehr als 40W brauchen SOLLTE wäre eine ähnliche Lösung wie bei NV sicherlich drin gewesen.


Wichtigstes Wort: "Wenn.." IMO verbraucht der R300 ein gutes Stueck mehr als der GF4.


Doch da Bauteile im mom relativ teuer sind und das PCB auf problematische Ti4600 Grössen anwachsen würde, hat man sich bei ATI für die NT Lösung entschieden (finde ich auch gut so).


??? problematische Groesse? LOL. Wie gross ein Karte sein darf, schreibt die AGP Spec vor. Hast du schon mal ein Profi-OGL Board von 3Dlabs gesehen? Da sind die GF4 Karten regelrecht klein dagegen.


@ die Leute die sich hier über Abwärme beschweren: NVIDIA Karten würden bisher IMMER am Rande der AGP Specs betrieben! Aber sobald ein anderer Hersteller sowas versucht, wird gemeckert - typisch.

Verdreh hier nicht die Tatsachen! NV Karten laufen am Rande der AGP Spec (dagwegen ist gar nichts einzuwenden), die R300 liegt ausserhalb der Spec.

HOT
2002-07-23, 09:35:28
Es ist immer wieder zu beobachten, dass hier wirklich ALLES auf NVidia Niveau gesehen wird. Ich finde, man sollte sich generell mal von diesem von NV geprägten Bild der "perfekten" GraKa lösen. NV BAUT KEINE PERFEKTEN GRAKAS! Es ist langsam wie mit Intel Leuten, die AMD Prozessoren mit dem von Intel kreierten Bild des perfekten Prozessors vergleichen und sagen "oh der AMD ist aber scheisse" oder umgekehrt.
Wir sollten die Hardware so nehmen wie sie ist und OBJEKTIVE Vergleiche der bisher bekannten Fakten aufnehmen. Aber ich hab das dumpfe Gefühl das mein Posting eigentlich zeitverschwendung ist, weil es die angesprochenen Leute sowieso nicht ernstnehmen werden - wie immer.

ow
2002-07-23, 09:36:55
Originally posted by Demirug


Ich könnte dir aber auch einen DFR bauen der im ersten Schrit (IMR) Tileweise ermittelt welche Fragmente innerhalb der Tile gerendert werden müssen un welche nicht und das als Bitfeld zwischenspeichert. Das eigentliche Shadeing würde dann im zweiten Schrit durchgeführt.

Oder eine weitere Variante:

Der Rendere arbeitet ganz normal mit Z-Buffer. Im Framebuffer werden allerdings keine Farbwerte sondern verweise auf den zu verwenden Shaderalgo hinterlegt. Am Ende wird dann der gesamte Framebuffer noch einmal durchgegangen und jedes Fragement berechnet.

In beiden Fällen hat man einen DFR.

Au ja, bau mal. :D

Machbar ist sicher vieles, aber ob es auch sinnvoll ist??

ow
2002-07-23, 09:38:27
Originally posted by HOT
Es ist immer wieder zu beobachten, dass hier wirklich ALLES auf NVidia Niveau gesehen wird.


WO beobachtest du dies???

Demirug
2002-07-23, 09:41:33
Originally posted by ow


Au ja, bau mal. :D

Machbar ist sicher vieles, aber ob es auch sinnvoll ist??

Gibst du mir das Geld dafür?

Ich persönlich würde aber heute eher keinen DFR mehr bauen. Gerade wenn ich mir die CineFX Beschreibung anschaue wird das immer problematischer.

HOT
2002-07-23, 09:41:51
ow, ich möchte mich nicht weiter über diesen Schwachsinn mit dir streiten, ATI mag daran was verdienen oder nicht, das ist mir ehrlich gesagt furzegal.
Es ist nur so, dass ein Hersteller keine Ware zu dumpingpreisen produziert - es handelt sich hier um ein High End Produkt. Wenn die Produktion teuerer wär, wäre der veranschlagte Preis schlichtweg höher, so einfach ist das - das ist jetzt kein zwingender Aufhänger, es kann natürlich auch anders sein.
Fakt ist jedenfalls, dass gewisse Boards mit der Grösase der NV Karten Probleme hatten. Das mag jetzt die schuld der Boardhersteller sein, aber genau deswegen erlaubt sich ATI diesen Fehler nicht zu machen.
Desweiteren hat man bei ATI sicherlich den externen Stromanschluss schlichtweg aus Kostengründen eingebaut, das R300 PCB ist sicherlich billiger zu produzieren als ein Ti4xxx Board.

HOT
2002-07-23, 09:43:20
Originally posted by ow



WO beobachtest du dies???

von oben :D ;)

ow
2002-07-23, 09:47:25
Originally posted by Demirug


Gibst du mir das Geld dafür?


Reichen 100 Euro dafuer??? ;);)


Ich persönlich würde aber heute eher keinen DFR mehr bauen. Gerade wenn ich mir die CineFX Beschreibung anschaue wird das immer problematischer.


Hab ich nicht genug Ahnung davon, sage also nix dazu.:(

ow
2002-07-23, 09:53:45
Originally posted by HOT
ow, ich möchte mich nicht weiter über diesen Schwachsinn mit dir streiten, ATI mag daran was verdienen oder nicht, das ist mir ehrlich gesagt furzegal.
Es ist nur so, dass ein Hersteller keine Ware zu dumpingpreisen produziert - es handelt sich hier um ein High End Produkt. Wenn die Produktion teuerer wär, wäre der veranschlagte Preis schlichtweg höher, so einfach ist das - das ist jetzt kein zwingender Aufhänger, es kann natürlich auch anders sein.
Fakt ist jedenfalls, dass gewisse Boards mit der Grösase der NV Karten Probleme hatten. Das mag jetzt die schuld der Boardhersteller sein, aber genau deswegen erlaubt sich ATI diesen Fehler nicht zu machen.
Desweiteren hat man bei ATI sicherlich den externen Stromanschluss schlichtweg aus Kostengründen eingebaut, das R300 PCB ist sicherlich billiger zu produzieren als ein Ti4xxx Board.


Musst du jede Diskussion, in der jemand andere Meinung als du ist, als Streit auffassen?? Ich streite mich nicht, ich diskutiere.

Aus Kostengruenden ist er Stromanschluss sicher nicht auf der Karte, sondern wegen der Verlustleitung.
Ob das PCB der Radeon billiger ist, ist reine Spekulation. Das haengt nicht nur von der Groesse des PCB ab.

ATi muss mit der R9700 gar nichts verdienen. Die Highend-Produkte aller Kartenhersteller dienen nur als Aufhaenger um die mid-/lowrange Produkte besser absetzen zu koennen.
Der Marktanteil der highend-Produkte ist auch zu gering, um da viel dran zu verdienen.

Demirug
2002-07-23, 10:00:31
Originally posted by ow

Aus Kostengruenden ist er Stromanschluss sicher nicht auf der Karte, sondern wegen der Verlustleitung.
Ob das PCB der Radeon billiger ist, ist reine Spekulation. Das haengt nicht nur von der Groesse des PCB ab.


Die Anzahl der Layer ist noch viel entscheidender dabei. IMO braucht man auf der Radeon minimum einen Layer mehr als bei der GF4.


ATi muss mit der R9700 gar nichts verdienen. Die Highend-Produkte aller Kartenhersteller dienen nur als Aufhaenger um die mid-/lowrange Produkte besser absetzen zu koennen.
Der Marktanteil der highend-Produkte ist auch zu gering, um da viel dran zu verdienen.

Full ack. An den 4600 verdient NVIDIA wahrscheinlich auch nicht so viel. Das sie die 4600 Chips immer mit RAM ausliefern ist da schon verdächtig.

P.S. Nein 100€ reichen nicht

Labberlippe
2002-07-23, 12:25:46
Fakt B:

Der Radeon 9700 ist ebenfalls nicht draussen, die "Terminangaben" sind reines PR-Wunschdenken und ATI lässt noch nicht mal unabhängige und unbeaufsichtigte Tests zu. Weder sind Taktfrequenzen bekannt noch kann man sagen, ob ATI mal wieder die Treiber im ersten halben Jahr versaut. Hier wird eine Seifenblase gehypt, die extrem unfertig ist.

Wenn der NV30 am Markt ist, dann wird bald der R400 angekündigt und dann redet auch kaum einer über den NV30.
Dann ist der R400 am Markt und der NV wird angekündigt u.s.w...
Siehtse das Spiel geht auf beiden Seiten.
Wer sagt Dir das die Treiber schlecht sind ???
Die ATi Treiber haben immer gefunzt und das weiss ich ganeu denn ich habe seit der R100 die ATi Karten verbaut.
Taktfrequenzen muss ATi noch keine bekannt geben laut Anandt war die Sample Karte aber mit 315Mhz.
Das ist Fakt.


Fakt C:

Die Tatsache, dass die Radeon 9700 einen externen Stromanschluß bekommen wird, deutet auf eine Verzweiflungstat hin: Kriegt ATI innerhalb der AGP-Spezifikation nichts angemessenes hin, so dass man dieses 0.15µ-Monster so gnadenlos übertakten muss?


Anscheinend hast Du erst seit gestern eine Grafikkarte, ansonsten wüstest Du das die V5 auch einen exterenen Stromanschluss besitzt.
Die Karte ist in meinen Rechner von meiner Schwester verbaut.
Diese war zuerst bei meinen Schwager im System.
Weder auf System A noch B hatte die Karte jemals Trouble gemacht.
Weder Hitze noch Stabilitätsprobleme.

Das ist keine Verzweiflungstat sondern ein kluger Schachzug.
Lieber die Karte am Netzteil anhängen als Stromversorgungsproblme über den AGP Slot.
Auch hier müssten die Erfahrenen User zugeben das in der Vergangenheit massig Probleme mit der Stabilität gegeben hat.
TNT2, GeForce2, R8500 u.s.w.....

[/quote]
Fakt D:

Die schnellsten Grafikkarten, die man kaufen kann, haben nVidia-Chips drauf. Und das wird sich in den nächsten zwei Monaten nicht ändern. Und in zwei Monaten wird man von ganz anderen Grafikchips reden als vom R300. [/QUOTE]

Ein Widerspruch in Deiner eigenen Argumentation.
Wenn der R300 da ist, dann wird diese die schnellst sein.
Dann wird die gekauft.
Du sagst das die R300 quasi Vapoware ist, gleichzeitigt Hypst Du ein Produkt von den noch nichteinmal klar ist was für ein Interface kommt.

Gruss Labberlippe

AlfredENeumann
2002-07-23, 12:25:56
Originally posted by Demirug


Die Anzahl der Layer ist noch viel entscheidender dabei. IMO braucht man auf der Radeon minimum einen Layer mehr als bei der GF4.



Der 9700er hat eine 10-Layer PCB !!!

ow
2002-07-23, 12:33:50
Originally posted by AlfredENeumann


Der 9700er hat eine 10-Layer PCB !!!


Und die GF4? 8 Layer?

Wenn das so ist, dass ist das Radeon PCB das teuerste PCB, das bisher hergestellt wurde.

Labberlippe
2002-07-23, 12:34:47
Originally posted by ow



:lol:@Stefan

Du kannst dir sicher sein, dass die Verlustleistung weit auseinander liegt.

Aha wenn die R9700 mit 0,15mirkon nur 40 Watt braucht, dann braucht dieser Bolide gerade mal soviel wie die aktuelle GeForce4 Ti4600.
Dann kommt noch dazu das der NV30 120Mil. Transistoren hat in 0,13 wird dieser vermutlich auch wieder 40 W brauchen.

So jetzt nochmal wie weit werden die Chips wohl auseinander liegen.
Die einzigen Chips die Leistung verbraten haben waren die nVIDIA Chips.

Gruss Labberlippe

ow
2002-07-23, 12:38:26
Originally posted by Labberlippe


Aha wenn die R9700 mit 0,15mirkon nur 40 Watt braucht, dann braucht dieser Bolide gerade mal soviel wie die aktuelle GeForce4 Ti4600.
Dann kommt noch dazu das der NV30 120Mil. Transistoren hat in 0,13 wird dieser vermutlich auch wieder 40 W brauchen.

So jetzt nochmal wie weit werden die Chips wohl auseinander liegen.
Die einzigen Chips die Leistung verbraten haben waren die nVIDIA Chips.

Gruss Labberlippe


:rofl:

klar, die 4600 braucht auch bestimmt weniger als die 4400

:rofl:

vergiss solche "Messungen", das sind alles nur Schaetzwerte.
Und die gehen oft gruendlich daneben.

ow
2002-07-23, 12:45:52
Originally posted by Labberlippe

Anscheinend hast Du erst seit gestern eine Grafikkarte, ansonsten wüstest Du das die V5 auch einen exterenen Stromanschluss besitzt.
Die Karte ist in meinen Rechner von meiner Schwester verbaut.
Diese war zuerst bei meinen Schwager im System.
Weder auf System A noch B hatte die Karte jemals Trouble gemacht.
Weder Hitze noch Stabilitätsprobleme.

Das ist keine Verzweiflungstat sondern ein kluger Schachzug.
Lieber die Karte am Netzteil anhängen als Stromversorgungsproblme über den AGP Slot.
Auch hier müssten die Erfahrenen User zugeben das in der Vergangenheit massig Probleme mit der Stabilität gegeben hat.
TNT2, GeForce2, R8500 u.s.w.....

Gruss Labberlippe


Den R300 in 0.15 mue zu bringen ist ganz klar eine Verzweifelungstat.

ATi MUSS NV mal was vorlegen, wenn sie ernsthafte Konkurrenz sein wollen. Und das ging eben jetzt mal nur in 0.15 mue.

Wenn ATi auf 0.13 mue haette warten muessen, dasnn ware NV womoeglich wieder zuerst mit dem NV30 auf dem Markt gewesen. Dasselbe Spiel dann wie seit Jahren schon.

Labberlippe
2002-07-23, 12:46:39
Originally posted by ow



:rofl:

klar, die 4600 braucht auch bestimmt weniger als die 4400

:rofl:

vergiss solche "Messungen", das sind alles nur Schaetzwerte.
Und die gehen oft gruendlich daneben.

So Du sagst zu mir ich soll die Schätzungen vergessen und gleichzeitig behauptest Du Stur das die R9700 einen grossen Verlustwert hat.
Was jetzt, wenn die 40 Watt Gerüchte stimmen dann verbrät der Chip "relativ" wenig. (Relativ habe ich bewusst unter "" gesetzt)
PS: Messungenaukeit gibt es immer.

Bei A maulst und bei B ist plötzlich alles ok oder was???

Wartet mal ab bis die Karte in den Händen der Reviewer ist.

Die Massenpanik bei den nVIDIA Freaks beginnt jetzt anscheinend.
Die einzigen Panikargumente sind momentan (wie vorausgesagt) NV30, Treiber und 0,15mikron.

Gruss Labberlippe

ow
2002-07-23, 12:52:05
Labberlippe:

Der Kuehlkoerper auf dem R300 Board bzw. dem Chip sagt mehr als jede Messung.

40W kommt evtl. fuer den R300 hin, das ist dann aber NUR der Chip. Ohne RAMs und sonstige Bauelemente.

[edit]
btw. wo siehst du hier wen in Panik??

Labberlippe
2002-07-23, 12:53:21
Originally posted by ow



Den R300 in 0.15 mue zu bringen ist ganz klar eine Verzweifelungstat.

ATi MUSS NV mal was vorlegen, wenn sie ernsthafte Konkurrenz sein wollen. Und das ging eben jetzt mal nur in 0.15 mue.

Wenn ATi auf 0.13 mue haette warten muessen, dasnn ware NV womoeglich wieder zuerst mit dem NV30 auf dem Markt gewesen. Dasselbe Spiel dann wie seit Jahren schon.

Das glaubst Du aber wohl selbst nicht.
ATi kann dann jederzeit den R300 in 0,13 bringen wenn TMSC soweit ist.
Warum sollen Sie jetzt mit der R900,R8500 und R9700 kein Geld verdienen wollen.
ATi ist eine Firma.
Dann hat damls nVIDIA mit der GTS2 Pro und ultra auch eine Verzweiflungstat gegangen.
Dann gibt es noch Roadmaps und Hersteller die auch gerne Ihre Karten verkaufen möchten.
Somit kann ATI theoretisch jetzt und später Geld verdienen.
Desweiteren glaube ich das ATi die AGP Bridge schon hat, kurz eine Maxx wäre auch kein Problem.
Allerdings ist diese Variante auf alle Fälle die bessere als eine MAXX mit Smoothvision und Biliniearen Aniso rauszubringen.

Gruss Labberlippe

Labberlippe
2002-07-23, 12:55:36
Originally posted by ow
Labberlippe:

Der Kuehlkoerper auf dem R300 Board bzw. dem Chip sagt mehr als jede Messung.

40W kommt evtl. fuer den R300 hin, das ist dann aber NUR der Chip. Ohne RAMs und sonstige Bauelemente.

[edit]
btw. wo siehst du hier wen in Panik??



Dann sehe Dir mal die Kühlkörper auf der Leadtek an.
Sagt auch alles.

Gruss Labberlippe

Unregistered
2002-07-23, 12:57:21
Was ist realistischer das: http://service.madonion.com/compare?2k1=4007795

oder das: http://service.madonion.com/compare?2k1=4006732

ow
2002-07-23, 13:03:01
Originally posted by Labberlippe


Das glaubst Du aber wohl selbst nicht.\



Nein, ich bin sogar absolut ueberzeugt davon.


ATi kann dann jederzeit den R300 in 0,13 bringen wenn TMSC soweit ist.


Vorsicht mit Aussagen wie "jederzeit".

Aber dann frage ich jetzt mal: wieso hat ATi nicht auf den 0.15 mue R9700 verzichtet und spaeter gleich den in0.13 gebracht???


Warum sollen Sie jetzt mit der R900,R8500 und R9700 kein Geld verdienen wollen.
ATi ist eine Firma.
Dann hat damls nVIDIA mit der GTS2 Pro und ultra auch eine Verzweiflungstat gegangen.


??? Mit der jetzigen R9700 ist nichts zu verdieen fuer ATi. Ausser Lob und Anerkennung. Aber kein Geld. Mit der R9k wird ATi Geld verdienen.
Den Vergleich zu NV versteh ich nicht.


Dann gibt es noch Roadmaps und Hersteller die auch gerne Ihre Karten verkaufen möchten.
Somit kann ATI theoretisch jetzt und später Geld verdienen.
Desweiteren glaube ich das ATi die AGP Bridge schon hat, kurz eine Maxx wäre auch kein Problem.
Allerdings ist diese Variante auf alle Fälle die bessere als eine MAXX mit Smoothvision und Biliniearen Aniso rauszubringen.

Gruss Labberlippe


Wieviel ATi verdienen wird, werden ihre naechsten Wirtschaftzahlen zeigen.
Eine MAXX ist immer ein Problem, da unrentabel. Zu teuer in der Produktion, schwer beherrschbare Technik.

ow
2002-07-23, 13:09:31
Originally posted by Labberlippe


Dann sehe Dir mal die Kühlkörper auf der Leadtek an.
Sagt auch alles.

Gruss Labberlippe


???

Das ist kein Vergleich.

Serienboard sind "Show"boards, je dicker der Kuehler, desto besser verkaufen sich die Teile.
Bei einigen Karten ist der Luefter auch nur Show, ebenso auf den meisten Motherboard-Northbridges.

Das R300 Board ist Preproduktion, da wird keine Show betrieben.
Der Kuehler ist in dieser Groesse absolut notwendig zum stabilen Betrieb der Karte.

raibera
2002-07-23, 13:11:23
Originally posted by ow



:rofl:

klar, die 4600 braucht auch bestimmt weniger als die 4400

:rofl:

vergiss solche "Messungen", das sind alles nur Schaetzwerte.
Und die gehen oft gruendlich daneben.

also ich hab das mit den 40w bei den großen gf4´s schon öfter gelesen. auch wenn dieses diagramm nicht als der weissheit letzter schluss gilt, zeigt es doch wohl ne realistische richtung.

aber mal davon abgesehen: wenn ich ne graka habe die einen externen stromanschluss braucht und was weiss ich wieviel watt benötigt, ist mir das sowas von egal, solange das ding seine dienste tut.

also lasst doch endlich mal die ext. stromversorgung, die ext. stromversorgung sein.
wer diesen thread von anfang verfolgt hat, weiss auch so dass sich an diesem thema einige gern aufhängen.

Labberlippe
2002-07-23, 13:12:03
Nein, ich bin sogar absolut ueberzeugt davon.[quote]
Ich auch.


[quote]
Vorsicht mit Aussagen wie "jederzeit".

Aber dann frage ich jetzt mal: wieso hat ATi nicht auf den 0.15 mue R9700 verzichtet und spaeter gleich den in0.13 gebracht???
Dann musst Du aber auch mit Deinen Aussagen vorsichtig sein, ausser Du bist Hellseher.

Zu 0,15:
Weil TMSC laut div. Gerüchten erst in ein paar Monaten soweit ist.
In diesen paar Monaten kann man wieder die R9700 anbrigen.
Nicht soweit heist das zwar 0,13 möglich ist, die Ausbeute aber geringer ist.
Ergo mehr kosten.
Hat man ein Prestige Objekt kann man wieder Anteile im OEM Markt gutmachen.



??? Mit der jetzigen R9700 ist nichts zu verdienen fuer ATi. Ausser Lob und Anerkennung. Aber kein Geld. Mit der R9k wird ATi Geld verdienen.
Den Vergleich zu NV versteh ich nicht.

Aha Du kennst also die Saldenlisten von ATi ???
Ist mir neu das ein "Geschäft" Waren verkauft ohne die dementsprechenden Margen einzuplanen.
Der Vergleich nVIDIA?
Die machen auch nichts anders oder glaubst Du die Firmen sind alle Wohlfahrtsunternehmen und verschenken alles.



Wieviel ATi verdienen wird, werden ihre naechsten Wirtschaftzahlen zeigen.
Eine MAXX ist immer ein Problem, da unrentabel. Zu teuer in der Produktion, schwer beherrschbare Technik.

Das ist schon richtig aber mit Speck fängt man Mäuse.
Ich bin mir auch sicher das ATi keine Maxx bringen wird aber möglich ist alles.

Wirtschaftszahlen ja das sieht man, gerade momentan in der USA nicht wahr. *eg*
Alles Spekulationen momentan.
Fakt ist das ATi mit R9700 kommen wird.
Was die Karte dann bringt werden wir sehen, dann kommt der NV30 und dann sehen wir weiter.

Gruss Labberlippe

Demirug
2002-07-23, 13:16:22
@Labberlippe:

Es gibt wirklich solche "verschenk" Aufträge in der Industrie. Da heist es dann einfach das ein Hersteller der R300 Chips will eben auch noch RV250 dazu kaufen muss. Was der dann damit macht ist seine Sache. Die Highend Chips sind immer nur die Dooropener.

Labberlippe
2002-07-23, 13:19:55
Originally posted by Demirug
@Labberlippe:

Es gibt wirklich solche "verschenk" Aufträge in der Industrie. Da heist es dann einfach das ein Hersteller der R300 Chips will eben auch noch RV250 dazu kaufen muss. Was der dann damit macht ist seine Sache. Die Highend Chips sind immer nur die Dooropener.

Ist mir schon klar aber wenn solche Aktionen gestartet werden dann werden die Margen immer berücksichtigt.
Dann ist halt statt (Hausnummer) 20% nur noch 7% Marge vorhanden und dieses zählt dann als "Werbung"
Dann wäre z.B mehr Stückzahlen unterwegs.
Die Hersteller verbauen und verkaufen diese Boards.
Somit mehr Marktanteile.
Mehr Marktanteile besser Strategien und Verhandlungen möglich.
Was die Firmen damit bezwecken werden diese schon ausgetüffelt haben.
Allerdings zählt natürlich dann ein bischen hoffen dazu, damit der Schuss nicht nach hinten losgeht.

Gruss Labberlippe

Unregistered
2002-07-23, 13:20:52
Originally posted by ow



???

Das ist kein Vergleich.

Serienboard sind "Show"boards, je dicker der Kuehler, desto besser verkaufen sich die Teile.
Bei einigen Karten ist der Luefter auch nur Show, ebenso auf den meisten Motherboard-Northbridges.

Das R300 Board ist Preproduktion, da wird keine Show betrieben.
Der Kuehler ist in dieser Groesse absolut notwendig zum stabilen Betrieb der Karte.

nichts als reine mutmaßung!!

PS: und wenn eine Produktpräsentation keine Show ist dann versteh ich die Welt nichtmehr ;)

Bisher ist soweit cih mich erinnern kann schön öfters das Wort Show in Bezug auf diese Präsentation gefallen udn auf einmal soll es das nicht mehr gewesen sein. Man kann sich die Argumente auch grad so hinlegen wie man sei braucht....

Gerhard
2002-07-23, 13:23:29
@unreg 3D-Marks
Schauen beide realistisch aus. Auf dem Athlon ist der 3DMark natuerlich stark Prozessorlimitert (Ausnahme: Game4). Und gerade der Game4 Teil ist bei beiden ungefaer gleich.

Und zu dem ganzen Streit bezueglich Leistungsaufnahme. Dies waere ein Problem wenn die Karte am Rande der AGP Specs arbeiten wuede und es deshalb auf vielen Boards probleme gaebe, aber so sehe ich das nicht so problematisch. Und von der Kuehlergroesse alleine kann man schlecht auf die Leistungsaufnahme schliessen, denn diese haengt z.B. auch von der maximal erlaubten Oberflaechentemperatur, den eingeplanten reserven usw. ab. Nichts desto trotz kann ich mir nicht vorstellen das er sparsamer als eine GF4 ist.

zeckensack
2002-07-23, 13:24:11
Ich find's ok.

ATI-Karten wurde nachgesagt (teilweise wohl zu Recht), daß sie bei schwacher Stromversorgung den Rechner zum Absemmeln bringen. Genau diesen Kritikpunkt haben sie aufgegriffen.

Wenn das Teil stabil läuft, dann ist doch alles in Butter.

Und warum bitte sollte ATI die Karte nicht bringen? Die Radeon8500 ist mittlerweile lange genug am Markt, um einen Nachfolger zu rechtfertigen. Besser garkeine Karte, als eine Karte mit extra Stromanschluß?

Genausogut kann ich fragen, wieso NV nicht auf die gleiche Idee gekommen ist.

Es ist schon komisch: Da wird ATI für ein Problem herabgewürdigt, weil sie es lösen.

Es ist doch ganz einfach: Diese beiden Firmen fahren unterschiedliche Produktzyklen. ATI bringt die nächste Generation früher, NV hat erst vor kurzem Produkte vorgestellt (Gf4MX/Gf4Ti), kann also noch auf den nächstkleineren Fertigungsprozeß warten. ATI dagegen muß sich mit dem aktuellen Prozeß arrangieren und das Stromproblem lösen. Beides macht Sinn, aber eben nur für die jeweilige Firma.

Labberlippe
2002-07-23, 13:24:40
Originally posted by ow



???

Das ist kein Vergleich.

Serienboard sind "Show"boards, je dicker der Kuehler, desto besser verkaufen sich die Teile.
Bei einigen Karten ist der Luefter auch nur Show, ebenso auf den meisten Motherboard-Northbridges.

Das R300 Board ist Preproduktion, da wird keine Show betrieben.
Der Kuehler ist in dieser Groesse absolut notwendig zum stabilen Betrieb der Karte.

Siehe die ersten Screens von Matrox und jetzt ???

Gruss Labberlippe

ow
2002-07-23, 13:32:33
Originally posted by Labberlippe

Dann musst Du aber auch mit Deinen Aussagen vorsichtig sein, ausser Du bist Hellseher.



Bin kein Hellseher:)



Zu 0,15:
Weil TMSC laut div. Gerüchten erst in ein paar Monaten soweit ist.
In diesen paar Monaten kann man wieder die R9700 anbrigen.
Nicht soweit heist das zwar 0,13 möglich ist, die Ausbeute aber geringer ist.
Ergo mehr kosten.
Hat man ein Prestige Objekt kann man wieder Anteile im OEM Markt gutmachen.


Deckt sich mit meiner Aussage: der 0.15er ist ein Produkt aus ATis Verzweifelung, weil sie vor NV auf dem Markt sein muessen. (Hab das oben schonmal geschreiben, kannst ja nachlesen).
Haette ATi es nicht noetig, einmal vor NV auf dem Markt zu sein, dann gaebe es keinen 0.15er R9700.


Aha Du kennst also die Saldenlisten von ATi ???
Ist mir neu das ein "Geschäft" Waren verkauft ohne die dementsprechenden Margen einzuplanen.
Der Vergleich nVIDIA?
Die machen auch nichts anders oder glaubst Du die Firmen sind alle Wohlfahrtsunternehmen und verschenken alles.


Geschaefte verkaufen sogar Waren absichtlich mit Verlust (s. zB. XBox).
Sowas ist ganz normal, der Gedanke dahinter ist, dass man die Verluste an anderer Stelle (hier: mit low-/midrange Produkten) weit mehr als kompensiert.
An dem 0.15er R9700 wird ATi nichts verdienen, wohl aber an den anderen Chips. Der R9700 ist derzeit nur der Aufhaenger zum Kundenfang (= Image-Produkt), mehr nicht.

Doomtrain
2002-07-23, 13:33:46
Originally posted by ow


Vorsicht mit Aussagen wie "jederzeit".

Aber dann frage ich jetzt mal: wieso hat ATi nicht auf den 0.15 mue R9700 verzichtet und spaeter gleich den in0.13 gebracht???



Zuerst sagst du das der R 9700 ein Prestigeobjekt ist das nix an Gewinnen einfährt und dann stellst du die Daseinsberechtigung in Frage. ATI will Lob und Anerkennung, und das ist nunmal nur mit einer schnellen Karte zu erreichen. Ist doch völlig egal ob 0.13 oder 0.15, ein "Fehler" ist es sicher nicht der schnellste zu sein, egal wie.

Ich weiß nicht, warum du dich so über ATI aufregst. Wirst du gezwungen diese Karte zu kaufen? Man kann es auch übertreiben. Man kann ja seine Meinung gerne sagen, auch öfter wenns beliebt, aber was du hier abziehst ist schon peinlich.

Und ich kann mir auch gut vorstellen das ATI das 0.13 Design schon in der Schublade hat bzw. die Schaltpläne des Designs fertig sind und auf ihre Produktion warten. Wir werden sehen.....

ow
2002-07-23, 13:39:25
Originally posted by Doomtrain


Zuerst sagst du das der R 9700 ein Prestigeobjekt ist das nix an Gewinnen einfährt und dann stellst du die Daseinsberechtigung in Frage. ATI will Lob und Anerkennung, und das ist nunmal nur mit einer schnellen Karte zu erreichen. Ist doch völlig egal ob 0.13 oder 0.15, ein "Fehler" ist es sicher nicht der schnellste zu sein, egal wie.



??
Ich stelle nicht die Daseinsberechtigung der Karte in Frage, ich versuche die ganze Zeit, einigen hier klar zumachen, warum es die Karte ueberhaupt gibt!!


Ich weiß nicht, warum du dich so über ATI aufregst. Wirst du gezwungen diese Karte zu kaufen? Man kann es auch übertreiben. Man kann ja seine Meinung gerne sagen, auch öfter wenns beliebt, aber was du hier abziehst ist schon peinlich.



Ich rege mich nicht ueber ATi auf und peinlich ist hoechstens, dass du kein Wort von dem kapiert hast, was ich hier darzulegen versuche.
Also halt dich besser raus hier mit deinen Unterstellungen.


Und ich kann mir auch gut vorstellen das ATI das 0.13 Design schon in der Schublade hat bzw. die Schaltpläne des Designs fertig sind und auf ihre Produktion warten. Wir werden sehen.....


Davon bin ich ueberzeugt.

Labberlippe
2002-07-23, 13:42:52
Deckt sich mit meiner Aussage: der 0.15er ist ein Produkt aus ATis Verzweifelung, weil sie vor NV auf dem Markt sein muessen. (Hab das oben schonmal geschreiben, kannst ja nachlesen).
Haette ATi es nicht noetig, einmal vor NV auf dem Markt zu sein, dann gaebe es keinen 0.15er R9700.
ATi hat seit der R100 immer die gleichen Produktzyklen.
Jetzt werden die natürlich alles ein paar Monate stoppen nur um mit nVIDIA gleichzeitig die Chips auf den Markt zu bringen.
Alfred Neumann hat oben gerade einen passenden Grund geschrieben + meine Argumentation, dann sieht die Sache realistischer aus.
Nix Panik vor nVIDIA.
Beide haben genug Absatzmarkt um Geld zu verdienen.



Geschaefte verkaufen sogar Waren absichtlich mit Verlust (s. zB. XBox).
Sowas ist ganz normal, der Gedanke dahinter ist, dass man die Verluste an anderer Stelle (hier: mit low-/midrange Produkten) weit mehr als kompensiert.
An dem 0.15er R9700 wird ATi nichts verdienen, wohl aber an den anderen Chips. Der R9700 ist derzeit nur der Aufhaenger zum Kundenfang (= Image-Produkt), mehr nicht.

Aha, jetzt vermischen wir den Konsolenmarkt mit den Grafikartenberech.
Im Konsolenbereich wird nicht nur Geld mit der Hardware verdient.
Nein auch die Software zählt hier.
Lizenzen, Entwicklerkids etc.
PS: MS hat sich auch bei der X-Box hässlich vertan.
soviel zum Thema verschenken und verdienen.
Das gibt es im grossen und ganzen im Grakabereich nicht.
Nocheinmal wer sagt Dir das an 0,15 nichts zu verdienen ist.
Die Entwicklungsarbeit an 0,13 wird von TMSC auch weiterverrechnet.
Wie gesagt kennst Du die Saldenlisten von nVIDIA und ATi um dieses zu belegen. (Bleib mir mit den Aktien fern, das sagt nichts wie man momentan sieht)

Gruss Labberlippe

ow
2002-07-23, 13:44:32
Originally posted by Unregistered


nichts als reine mutmaßung!!

PS: und wenn eine Produktpräsentation keine Show ist dann versteh ich die Welt nichtmehr ;)

Bisher ist soweit cih mich erinnern kann schön öfters das Wort Show in Bezug auf diese Präsentation gefallen udn auf einmal soll es das nicht mehr gewesen sein. Man kann sich die Argumente auch grad so hinlegen wie man sei braucht....



Show macht man, um etwas zu verkaufen. Da es das ATi Preview Board in dieser Form sicher nie zu kaufen geben wird, kann man sich die Show schenken.

Ist dir nicht aufgefallen, dass die Karte keine RAM-Kuehler hat??
Showobjekte haben die sonst immer.


[edit] rechtschreibung

StefanV
2002-07-23, 13:48:18
Ähm, wie viel verbrät eine Voodoo5 eigentlich??

Also am externen Anschluß hab ich max. 24W Gemessen...

Warum hat die V5 dann eine externe Spannungsversorgung, wenn die beiden Chips zusammen weniger verbraten als eine GF4??

ow
2002-07-23, 13:49:17
Originally posted by Labberlippe

ATi hat seit der R100 immer die gleichen Produktzyklen.
Jetzt werden die natürlich alles ein paar Monate stoppen nur um mit nVIDIA gleichzeitig die Chips auf den Markt zu bringen.
Alfred Neumann hat oben gerade einen passenden Grund geschrieben + meine Argumentation, dann sieht die Sache realistischer aus.
Nix Panik vor nVIDIA.
Beide haben genug Absatzmarkt um Geld zu verdienen.



Um am Image des Marktfuehrers (=NV) zu kratzen muss man mal vor ihm sein. Und nicht immer nur zu spaet.


Aha, jetzt vermischen wir den Konsolenmarkt mit den Grafikartenberech.
Im Konsolenbereich wird nicht nur Geld mit der Hardware verdient.
Nein auch die Software zählt hier.
Lizenzen, Entwicklerkids etc.
PS: MS hat sich auch bei der X-Box hässlich vertan.
soviel zum Thema verschenken und verdienen.
Das gibt es im grossen und ganzen im Grakabereich nicht.
Nocheinmal wer sagt Dir das an 0,15 nichts zu verdienen ist.
Die Entwicklungsarbeit an 0,13 wird von TMSC auch weiterverrechnet.
Wie gesagt kennst Du die Saldenlisten von nVIDIA und ATi um dieses zu belegen. (Bleib mir mit den Aktien fern, das sagt nichts wie man momentan sieht)

Gruss Labberlippe


Nein ich vermische nichts. War nur EIN Beispiel.
Gilt fuer jedes Kaufhaus, in das du gehst.
Sonderangebote (=Verlustgeschaefte) als Kundenfang.

SO war das gemeint.

ow
2002-07-23, 13:52:51
Originally posted by Stefan Payne
Ähm, wie viel verbrät eine Voodoo5 eigentlich??

Also am externen Anschluß hab ich max. 24W Gemessen...


Dann addier etwa dasselbe nochmal fuer den AGP-Port.


Warum hat die V5 dann eine externe Spannungsversorgung, wenn die beiden Chips zusammen weniger verbraten als eine GF4??


Jeder der Chips verbraet soviel wie ein GF4 Chip ungefaehr.

Doomtrain
2002-07-23, 13:52:55
Originally posted by ow

Ich rege mich nicht ueber ATi auf und peinlich ist hoechstens, dass du kein Wort von dem kapiert hast, was ich hier darzulegen versuche.
Also halt dich besser raus hier mit deinen Unterstellungen.



Echt ekelhaft :P

Wenn du nicht immer in Fabel schreiben würdest, würden Missverständnisse erst gar nicht vorkommen.

UND: Ich unterstelle nichts!! Ich kommentiere wie es (Von anderen wie mir) verstanden wird.

PS: Mit peinlich meinte ich, das du ALLES kommentierst was dir nicht genau in den Kram paßt.
So und nun ist Gut!!!:)

raibera
2002-07-23, 13:55:51
Originally posted by ow




Show macht man, um etwas zu verkaufen. Da es das ATi Preview Board in dieser Form sicher nie zu kaufen geben wird kann man sich die Show schenken.

Ist dir nicht aufgefakllen, das die Karte kein RAM-Kuehler hat??
Showobjekte haben sie sonst immer.

in diesem punkt gebe ich dir recht. ich glaube auch das die r300 die momentane grösse der kühlung braucht.

trotzallem wird es dem endkunden egal sein, wie die kühlung aussieht, solange sei nicht mehr als 1 pci slot schluckt.

Labberlippe
2002-07-23, 13:56:42
Originally posted by ow


Um am Image des Marktfuehrers (=NV) zu kratzen muss man mal vor ihm sein. Und nicht immer nur zu spaet.




Nein ich vermische nichts. War nur EIN Beispiel.
Gilt fuer jedes Kaufhaus, in das du gehst.
Sonderangebote (=Verlustgeschaefte) als Kundenfang.

SO war das gemeint.

Oder nVIDIA ist mit den NV30 zu spät, ist immer Ansichtssache.
Ich würde sagen wir einigen und das beide Varianten zutreffen.

:D
Gruss Labberlippe

Unregistered
2002-07-23, 13:57:12
Was willst du eigentlich sagen, ow?

ATi bringt jetzt (bzw in ein/zwei Monaten) die R9700 in .15 m und schiebt dann ein paar monate später als Zwischenschritt eine überarbeitete Version, zb die R9900, in .13 m und stark erhöhtem Chiptakt nach. Würde so nicht jeder handeln? Bringt das nicht auch für uns Spieler NUR Vorteile? Sicherlich keine Verzweiflungstat...

Nochmal, was willst du eigentlich sagen? Ich kenn da so ein Zitat: "Wenn man nix zu sagen hat, dann einfach mal die...."


CU Xcellerator

Unregistered
2002-07-23, 13:59:07
Originally posted by ow





Ist dir nicht aufgefallen, dass die Karte keine RAM-Kuehler hat??
Showobjekte haben die sonst immer.


[edit] rechtschreibung

weils auf BGA sinnlos ist!!?? ;)

ow
2002-07-23, 13:59:41
Doomtrain:


Ich ziehe obige Aussage zurueck.
Der erste Teil deines obigen Postings zeigt ja, dass du mich doch verstanden hast.


also:

Die R9700 ist ein Prestige-Objekt, um das Image von ATi aufzuwerten.
Nur aus diesem Grunde ist er JETZT in 0.15 erschienen, denn in 0.13 waere er zu spaet, weil etvl. dann der zeitliche Abstand zum NV30 zu gering ist.

Geld verdienen mit den R9700Chip wird ATi IMO kaum. Dafuer aber mit seinen anderen Chip, dem R9000, einem R9500....

ow
2002-07-23, 14:00:53
Originally posted by Unregistered


weils auf BGA sinnlos ist!!?? ;)

Und auf nicht-BGA haeltst du es fuer sinnvoller?
Erklaere mal, warum.

Unregistered
2002-07-23, 14:00:54
Originally posted by ow


Show macht man, um etwas zu verkaufen. Da es das ATi Preview Board in dieser Form sicher nie zu kaufen geben wird, kann man sich die Show schenken.

[edit] rechtschreibung

Ob genau diese Preview Board zu kaufen igbts ist doch schnurzegal. Jede Präsentation ist eine Show und das kannst du hier nicht kleinreden.....weil das glaubt dir einfach keiner...

ow
2002-07-23, 14:03:15
Originally posted by Labberlippe


Oder nVIDIA ist mit den NV30 zu spät, ist immer Ansichtssache.
Ich würde sagen wir einigen und das beide Varianten zutreffen.

:D
Gruss Labberlippe

Das ist ja nur eine relative Ansicht des Zeitpunktes.
NV wird auch etwa in seinem Zeitplan liegen, so alt ist der GF4 ja noch nicht.

Unregistered
2002-07-23, 14:04:47
Originally posted by ow


Und auf nicht-BGA haeltst du es fuer sinnvoller?
Erklaere mal, warum.

hab ich geschrieben dass es auf normaeln sinnvoll ist ??

unterstell andern nicht immer Sachen die deine Fantasie dir vorspinnt....

ow
2002-07-23, 14:06:24
Originally posted by Unregistered
Was willst du eigentlich sagen, ow?

ATi bringt jetzt (bzw in ein/zwei Monaten) die R9700 in .15 m und schiebt dann ein paar monate später als Zwischenschritt eine überarbeitete Version, zb die R9900, in .13 m und stark erhöhtem Chiptakt nach. Würde so nicht jeder handeln? Bringt das nicht auch für uns Spieler NUR Vorteile? Sicherlich keine Verzweiflungstat...

CU Xcellerator


Weisst du, was Firmen interessiert?? GELD. Sonst nichts.
Auf "Vorteile fuer Spieler" scheissen dir alle Firmen was. Die wollen dein Geld, sonst nichts.

Und, nein.
Nicht jeder wuerde so handeln, weil es nicht jeder noetig hat, so zu handeln.

Reine Verzweiflung von ATi.

ow
2002-07-23, 14:12:38
Originally posted by Unregistered


hab ich geschrieben dass es auf normaeln sinnvoll ist ??

unterstell andern nicht immer Sachen die deine Fantasie dir vorspinnt....


Hoer auf hier rumzuspinnen, hat doch eh keinen Zweck.

raibera
2002-07-23, 14:17:00
@ow

ich fasse mal zusammen:

seit der präsentation des r300 höre ich von dir nur: verzweiflungstat von ati wegen ext. stromanschluss, chip wird zu heiss, chip verbraucht zuviel strom, chip gibt´s nur, weil man einmal vor nv stehen will, chip braucht niemand, wartet auf nv30, chip nur in .15µm usw...

seit es diesen thread gibt, bist du nur am madigmachen. warum das so ist, keine ahung - vielleicht weil er von ati und nicht von nv ist?? oder weil er voraussichtlich doch um die 300mhz hat (obwohl das laut deinen aussagen im vorfeld unmöglich ist)???

also um ehrlich zu sein, gehst du mir gewaltig auf´n sack, mit deiner ewigen schlechtmacherei gegen ati.

ist sowas eigentlich genetisch bedingt, oder was?

thomasius
2002-07-23, 14:20:50
das mit dem geld ist denk ich wirklich das einzige was zählt,
(manchmal auch noch das prestige der schnellsten karte)
solange eine firma mit einem produkt was verdienen kann, wird es verkauft,
dem ati mangment hier unfähigkeit vorzuwerfen mit der neuen karte halte ich für nicht ganz ok, die werden schon geld mit der karte verdienen
Originally posted by ow
Hoer auf hier rumzuspinnen, hat doch eh keinen Zweck.

nicht grade ein feiner diskussionsstil

edit peinlicher rechtschreibfehler

ow
2002-07-23, 14:20:55
Originally posted by raibera
@ow

ich fasse mal zusammen:

seit der präsentation des r300 höre ich von dir nur: verzweiflungstat von ati wegen ext. stromanschluss, chip wird zu heiss, chip verbraucht zuviel strom, chip gibt´s nur, weil man einmal vor nv stehen will, chip braucht niemand, wartet auf nv30, chip nur in .15µm usw...




Fuer diese Unterstellungen kannst du sicher Zitate angeben, was ich denn gesagt haben soll.

Also ich warte darauf.

Wo steht von mir: "wartet auf den NV30"??
wo steht: " chip braucht niemand"
wo hab ich geschrieben, dass der Chip zuviel Strom braucht??

raibera
2002-07-23, 14:25:08
Originally posted by ow



Fuer diese Unterstellungen kannst du sicher Zitate angeben, was ich denn gesagt haben soll.

Also ich warte darauf.

Wo steht von mir: "wartet auf den NV30"??
wo steht: " chip braucht niemand"
wo hab ich geschrieben, dass der Chip zuviel Strom braucht??

genau, ich forste jetzt 670 postings durch! auf die haarspalterei, wie: das hab ich nicht genau so gesagt, hab ich wirklich keine lust.

die leute, welche den ganzen thread gelesen haben, wissen schon was ich meine

nggalai
2002-07-23, 14:40:15
Bitte Mädels, kriegt euch wieder ein. Sonst kann man den Thread eh langsam mal dicht machen. Viel sinnvolles kommt hier offenbar echt nicht mehr.

ta,
-Sascha.rb

ow
2002-07-23, 14:44:09
Originally posted by raibera


genau, ich forste jetzt 670 postings durch! auf die haarspalterei, wie: das hab ich nicht genau so gesagt, hab ich wirklich keine lust.

die leute, welche den ganzen thread gelesen haben, wissen schon was ich meine


ich habe den Thread auch ganz gelesen und weiss NICHT, was du meinst.

Also belege gefaelligst deine Unterstellungen oder zieh sie zurueck!!

Unregistered
2002-07-23, 14:48:46
Originally posted by ow



Weisst du, was Firmen interessiert?? GELD. Sonst nichts.
Auf "Vorteile fuer Spieler" scheissen dir alle Firmen was. Die wollen dein Geld, sonst nichts.

Und, nein.
Nicht jeder wuerde so handeln, weil es nicht jeder noetig hat, so zu handeln.

Reine Verzweiflung von ATi.

Wenn du meinen Text nicht verstehen kannst, lies ihn dir ruhig noch mehrmals durch. Ich schrieb nicht, dass ATi auf den Vorteil der Spieler aus sei, sondern lediglich, dass es sogar für uns Spieler nur Vorteile hat dir R9700 erst in .15 zu releasen. Das sollte dir wohl verständlich sein...

Xcellerator

raibera
2002-07-23, 14:52:08
Originally posted by ow



ich habe den Thread auch ganz gelesen und weiss NICHT, was du meinst.

Also belege gefaelligst deine Unterstellungen oder zieh sie zurueck!!

ok ow,

da ich wirklich keine zeit habe, irgendwelche zitate rauszupicken, versteife ich mich nicht, auf die 3 von mir gemachten aussagen.

in diesem sinne ziehe ich die 3 aussagen zurück (nicht aber die anderen).

nicht´s für ungut

ow
2002-07-23, 14:56:06
Originally posted by Unregistered


Wenn du meinen Text nicht verstehen kannst, lies ihn dir ruhig noch mehrmals durch. Ich schrieb nicht, dass ATi auf den Vorteil der Spieler aus sei, sondern lediglich, dass es sogar für uns Spieler nur Vorteile hat dir R9700 erst in .15 zu releasen. Das sollte dir wohl verständlich sein...

Xcellerator

Vielleicht hast du nicht verstanden, was du geschrieben hast. Lies es dir ruhig nochmals durch...



Bringt das nicht auch für uns Spieler NUR Vorteile? Sicherlich keine Verzweiflungstat...

Unregistered
2002-07-23, 14:57:12
du kannst es einfach so umschreiben:
er hat es nicht gesagt aber genau das meint er und wenn ow etwas meint ist es fakt, das wissen wir ja schon :)

tschludige für den schlechten diskussionstil, aber ich nähere mich da nur ow an ;)

Doomtrain
2002-07-23, 15:19:49
Originally posted by ow


Die R9700 ist ein Prestige-Objekt, um das Image von ATi aufzuwerten.
Nur aus diesem Grunde ist er JETZT in 0.15 erschienen, denn in 0.13 waere er zu spaet, weil etvl. dann der zeitliche Abstand zum NV30 zu gering ist.



Ich glaube, das sollten wir als Fazit nehmen!! ;)

Unregistered
2002-07-23, 15:23:28
Originally posted by Unregistered
Was willst du eigentlich sagen, ow?

ATi bringt jetzt (bzw in ein/zwei Monaten) die R9700 in .15 m und schiebt dann ein paar monate später als Zwischenschritt eine überarbeitete Version, zb die R9900, in .13 m und stark erhöhtem Chiptakt nach. Würde so nicht jeder handeln? Bringt das nicht auch für uns Spieler NUR Vorteile? Sicherlich keine Verzweiflungstat...

Nochmal, was willst du eigentlich sagen? Ich kenn da so ein Zitat: "Wenn man nix zu sagen hat, dann einfach mal die...."


CU Xcellerator

Das bezog lediglich zurück auf den GESAMTEN Text. Und genau das versteht auch jeder, der sich nicht krampfhaft bemüht, es nicht bzw. falsch zu verstehen. Aber für dich nochmal Idiotensicher:


Was willst du eigentlich sagen, ow?

ATi bringt jetzt (bzw in ein/zwei Monaten) die R9700 in .15 m und schiebt dann ein paar monate später als Zwischenschritt eine überarbeitete Version, zb die R9900, in .13 m und stark erhöhtem Chiptakt nach. Würde so nicht jeder handeln? Bringt das nicht auch für uns Spieler NUR Vorteile? Alles in Allem sicherlich keine Verzweiflungstat...

Nochmal, was willst du eigentlich sagen? Ich kenn da so ein Zitat: "Wenn man nix zu sagen hat, dann einfach mal die...."

AlfredENeumann
2002-07-23, 17:47:36
Originally posted by Unregistered


Fakt B:

Der Radeon 9700 ist ebenfalls nicht draussen, die "Terminangaben" sind reines PR-Wunschdenken und ATI lässt noch nicht mal unabhängige und unbeaufsichtigte Tests zu. Weder sind Taktfrequenzen bekannt noch kann man sagen, ob ATI mal wieder die Treiber im ersten halben Jahr versaut. Hier wird eine Seifenblase gehypt, die extrem unfertig ist.

Fakt C:

Die Tatsache, dass die Radeon 9700 einen externen Stromanschluß bekommen wird, deutet auf eine Verzweiflungstat hin: Kriegt ATI innerhalb der AGP-Spezifikation nichts angemessenes hin, so dass man dieses 0.15µ-Monster so gnadenlos übertakten muss?

Fakt D:

Die schnellsten Grafikkarten, die man kaufen kann, haben nVidia-Chips drauf. Und das wird sich in den nächsten zwei Monaten nicht ändern. Und in zwei Monaten wird man von ganz anderen Grafikchips reden als vom R300.


Fakt B) ATI gibt laut Radeon 9700 Präsentation folgende Taktfrequenzen an:
Core: 300+ MHz
RAM: 600+ MHz
Auslieferung der Chips "in 30 Tagen", also mitte August.

Fakt C) Es freut mich, daß Ihr ATI soviel zutraut in nur ein paar Wochen ein 0.13-Design stabil in 0.15 zu bringen.

Fakt D) Yo. Dann gibts den Nvidia Vaporware 5000.

GloomY
2002-07-23, 20:25:03
Originally posted by Demirug
@GloomY:

Ist alles eine Frage der Definition. Wenn man deferred renderer so definiert das alle Dreiecke nach dem T&L zwischengespeichert werden hast du recht. Wenn man als Definition aber folgendens benutzt wären fast alle Chips deferred:

Die Daten eines kompletten Frames werden an einer beliebigen Stelle der Pipeline zwischengespeichert und in einem weiteren Schritt zum engültigen Bild fertig gerendert.
Welcher aktuelle Grafikchip (ausser Kyro) speichert die kompletten Daten eines Frames in einer Stelle der Pipeline (ungleich Anfang ;) ).
Imho macht das niemand (ausser dem Kyro).

Originally posted by Demirug
Ich könnte dir aber auch einen DFR bauen der im ersten Schrit (IMR) Tileweise ermittelt welche Fragmente innerhalb der Tile gerendert werden müssen un welche nicht und das als Bitfeld zwischenspeichert. Das eigentliche Shadeing würde dann im zweiten Schrit durchgeführt.
Wie meinst du das oben Unterstrichene? Ich kann nicht erkennen, was daran besonders IMR-like sein soll.
Originally posted by Demirug
Oder eine weitere Variante:

Der Rendere arbeitet ganz normal mit Z-Buffer. Im Framebuffer werden allerdings keine Farbwerte sondern verweise auf den zu verwenden Shaderalgo hinterlegt. Am Ende wird dann der gesamte Framebuffer noch einmal durchgegangen und jedes Fragement berechnet.

Dann hätte man einen DFR, das stimmt.

Allerdings ist diese Vorgehensweise (wie glaube ich von ow schopn erwähnt) nicht gerade sinnvoll (Speicherplatzbedarf für Framebuffer?) und daher nicht gerade gut in der Praxis zu verwenden.

Originally posted by egdusp
Definitiv falsch. Ein Tiler kann auch ein IMR, siehe 3d labs P10. Siehe auch http://www17.tomshardware.com/graphic/02q2/020503/images/p10pipeline.jpg

Rechts oben in der Ecke steht Tiler.

mfg
egdusp Ein Tiler rendert (per Definition) Tile für Tile.
Und nun erklär' mir mal, wie der Grafikchip wissen soll, was in dem zu rendernden Tile denn nun drin ist, wenn er nur immediate rendert, d.h. wenn er immer Dreieck für Dreieck vorgeht (und somit immer nur die Informationen über die bereits gerenderten Driecke hat, und nichts darüber weiss, ob oder welche Dreiecke denn noch kommen).

Dunkeltier
2002-07-23, 21:34:37
Jetzt mal ganz nüchtern betrachtet (was ihr eh nie seid! :D), lohnt es sich nach zwei Monaten den R300 für 350 ¤uro Straßenpreis einzusacken oder noch auf den 0.13er Nachfolger zu warten?

Thowe
2002-07-23, 22:04:53
Ich denke es lohnt sich, so massiv sind die Unterschiede zwischen einen optimierten 0.15 und einen neuen 0.13 Prozess auch nicht. Egal.


Zum Thema Stromanschluss, würde ich jeder Grafikkarte anraten, gerade in Anbetracht dessen, wenn man sich mal einige Mainboard anschaut wo "nVidiots" (in diesem Zusammenhang erlaube ich mir das zu sagen) ihre Graka völlig übertaktet und am besten mit modifizierten Spannungen drin laufen lassen haben.

Gerade bei nVidia geht Canopus einen Schritt weiter als die anderen Hersteller. Könnten sich mal ein paar Grafikkartenhersteller ein Stück von abschneiden, der Nachteil bei den Karten ist leider nur der Preis.

Die Spectra WX25 (http://www.canopus.co.jp/catalog/wx25/spwx25_index.htm) ist im übrigen eine GF4TI4600 die nicht länger als der AGP Slot ist. Sinniger Weise gibt es auch keine GF4TI4400 oder GF4TI4200 von Canopus. Im übrigen, wer mal die Specs von den Karten liest, wird feststellen, das Canopus mehr angibt als nVidia oder andere Kartenhersteller ;)


Die Spectra X21 (http://www.canopus.co.jp/catalog/spx21/spx21_index.htm) ist eine GF3TI500 die dank des Stromanschluss auch auf älteren Boards ohne Probleme betrieben werden kann.




Ansonsten zum Thread, irgendwie erinnert mich das an: "Ey, gib die Schippe her, das ist meine", "Nö, das ist meine, *zungerausstreckt*", "Du Blödmann *Sandburgkaputttritt*", "*heul* Das sag ich Mammi" usw.

hot
2002-07-24, 11:02:29
Der NV30 hat garantiert auch einen (jedenfalls wenn NV schlau ist). Der Unterschied zwischen 150nm und 130nm ist nun wahrlich nicht gewaltig und NV will nochmehr Transistoren.

egdusp
2002-07-24, 11:33:23
Originally posted by hot
Der Unterschied zwischen 150nm und 130nm ist nun wahrlich nicht gewaltig und NV will nochmehr Transistoren.

Der Unterschied bei der Transistoregröße wirkt aber AFAIK quadratisch, d.h. der Vorteil von .13 Frtigung zu .15 ist gleich 15^2 / 13^2 = 225 / 169 = 1,3
D.h. dass der .13 Fertigungsprozeß eigentlich einen 30% Vorteil bei Chiptakt und (bzw. oder?) Leistungsaufnahme hat.
Kreuzigt mich bitte nicht, wenn dies nicht stimmt, bin mir da jetzt auch nicht mehr sicher.

Unabhängig davon haben wir ja bereits mehrfach gesehen, dass der Chiptakt nicht nur von Transistorencount und Fertigungsprozeß abhängt (NV20 => NV25 => R300, immer mehr Transistoren und Takt)

mfg
egdusp

StefanV
2002-07-24, 12:02:12
Originally posted by egdusp


Der Unterschied bei der Transistoregröße wirkt aber AFAIK quadratisch, d.h. der Vorteil von .13 Frtigung zu .15 ist gleich 15^2 / 13^2 = 225 / 169 = 1,3
D.h. dass der .13 Fertigungsprozeß eigentlich einen 30% Vorteil bei Chiptakt und (bzw. oder?) Leistungsaufnahme hat.
Kreuzigt mich bitte nicht, wenn dies nicht stimmt, bin mir da jetzt auch nicht mehr sicher.

Ja, der gleiche Chip sicher...

ABER:

Meistens werden mehr Transistoren untergebraucht, dazu auch noch ein Höherer Takt.

Gleicht sich also wieder aus, wobei die NV30 durchaus mehr verbraten kann als die ATI R300, kommt halt ganz aufs Design des Chips an, wieviel auf Leistung und wieviel auf Stromsparen optimiert wurde...

Razor
2002-07-24, 22:31:23
Originally posted by skampi
@Razor, hab ich gerade auf computerbase bei den comments gefunden. Musste kurz lachen.
Sehr interessant, skampi...
:D

Razor

br
2007-07-27, 20:49:06
..