PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nV40 taktet mit bis zu 600 MHz


Gast
2004-02-06, 14:07:14
Wie ATi mit ihrem R420 ist auch nVidia momentan voll damit beschäftigt, ihren neuen Grafikchip - nV40 - so schnell wie möglich zur Marktreife zu bringen. Die Kollegen vom Inquirer haben nun erste Details zu den erwarteten Taktraten des neuen Chips zugesteckt bekommen.

Den Informationen zufolge peilt nVidia einen Chiptakt von 450 bis 550 MHz an. Die ersten Samples, welche vor kurzem im Umlauf waren, besaßen im A0 Stepping lediglich einen Takt von 300 MHz. Bei so einer frühen Revision war im Endeffekt auch nicht viel mehr zu erwarten. Insgeheim hofft man bei nVidia sogar auf eine Taktrate von maximal 600 MHz für den Chip. Womöglich plant man auch wieder mit verschiedenen Taktungen wie bei der GeForce 4 Ti Serie, wo es mit 4200, 4400 und 4600 auch drei unterschiedlich getaktete Modelle gab. Der nV40 soll dazu unabhängig seines Taktes acht Pipelines und ein 256 Bit Speicherinterface mit 750 MHz schnellem GDDR2 Speicher zur Seite gestellt bekommen.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/februar/nv40_600_mhz/

Als letztes Jahr die erste Daten erschienen sind haben auch alle gesagt der NV30 wird ATI schlagen aber selbst mit seiner Mhz Power hatte er keine Chance.

Börk
2004-02-06, 14:10:56
Original geschrieben von Gast
Als letztes Jahr die erste Daten erschienen sind haben auch alle gesagt der NV30 wird ATI schlagen aber selbst mit seiner Mhz Power hatte er keine Chance.
Naja aber falls der NV40 wirklich 8*2 Pipes sowie 600Mhz hat, dann ist das schon ziemlich heftig.
Das wäre dann mehr als die doppelte Füllrate als der NV35.
Aber ich bin mir sicher ATI hat etwas mit einem ähnlichen Kaliber entgegenzusetzten...

reunion
2004-02-06, 14:34:09
Original geschrieben von Gast
Wie ATi mit ihrem R420 ist auch nVidia momentan voll damit beschäftigt, ihren neuen Grafikchip - nV40 - so schnell wie möglich zur Marktreife zu bringen. Die Kollegen vom Inquirer haben nun erste Details zu den erwarteten Taktraten des neuen Chips zugesteckt bekommen.

Den Informationen zufolge peilt nVidia einen Chiptakt von 450 bis 550 MHz an. Die ersten Samples, welche vor kurzem im Umlauf waren, besaßen im A0 Stepping lediglich einen Takt von 300 MHz. Bei so einer frühen Revision war im Endeffekt auch nicht viel mehr zu erwarten. Insgeheim hofft man bei nVidia sogar auf eine Taktrate von maximal 600 MHz für den Chip. Womöglich plant man auch wieder mit verschiedenen Taktungen wie bei der GeForce 4 Ti Serie, wo es mit 4200, 4400 und 4600 auch drei unterschiedlich getaktete Modelle gab. Der nV40 soll dazu unabhängig seines Taktes acht Pipelines und ein 256 Bit Speicherinterface mit 750 MHz schnellem GDDR2 Speicher zur Seite gestellt bekommen.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/februar/nv40_600_mhz/

Als letztes Jahr die erste Daten erschienen sind haben auch alle gesagt der NV30 wird ATI schlagen aber selbst mit seiner Mhz Power hatte er keine Chance.

1.)Sind dass nur vorgaben die man gerne erreichen möchte, die man aber fast immer nicht erreicht...
Bsp: 9800XT sollte mit 450mhz laufen am Schluss wurden es dann 412mhz, bei FX5950U wurde zuerst mit 550mhz spekuliert am Ende dann 475mhz ;)

2.) Halte ich 8x2 für zu optimistisch (eher 6x2)...

misterh
2004-02-06, 14:58:42
Original geschrieben von Gast
Als letztes Jahr die erste Daten erschienen sind haben auch alle gesagt der NV30 wird ATI schlagen aber selbst mit seiner Mhz Power hatte er keine Chance.

Ja weil Nvidia nur 4*2 hat bzw 9700/9800er haben 8*1.

Aber das wird sich nun ändern wenn sie wirklich mit 8*2 bei NV40 planen wollen.

ShadowXX
2004-02-06, 15:00:53
Original geschrieben von misterh
Ja weil Nvidia nur 4*2 hat bzw 9700/9800er haben 8*1.

Aber das wird sich nun ändern wenn sie wirklich mit 8*2 bei NV40 planen wollen.

Naja...bei Multitexturing nimmt sich 8x1 und 4x2 nicht sehr viel...

J.S.Shadow

Demirug
2004-02-06, 15:07:45
Original geschrieben von ShadowXX
Naja...bei Multitexturing nimmt sich 8x1 und 4x2 nicht sehr viel...

J.S.Shadow

Und sobald man mit mindestens Trilinearen Filtern arbeitet überhaupt nichts mehr.

Deswegen plädiere ich ja dafür das man dieses überholte Beschreibungskonzept endlich abschaft.

Winter[Raven]
2004-02-06, 15:10:46
EDIT: Damit unserer kleine Ati Fani reunion nicht ein Krieg ausrufft ^^.

@thema

Ich bin gespannt was Nvidia zubitten hat, ich meine Nvidia wird sich noch einen "Ausrutscher" wie dem NV30 nicht leisten können.

Sollte es aber aber am ende 550 mhz und 8x2 bleiben dann hab ich meine nächste Graka ^^.

Demirug
2004-02-06, 15:21:48
Original geschrieben von Winter[Raven]
Sollte es aber aber am ende 550 mhz und 8x2 bleiben dann hab ich meine nächste Graka ^^.

Dir reichen 3 Angaben um sowas zu entscheiden? Ich dachte wir hätten im letzten Jahr alle was gelernt?

haifisch1896
2004-02-06, 15:33:33
Wirklich alle? Nein, es gibt ein kleines Dorf in Gallien... :embara:

LordDeath
2004-02-06, 15:48:01
was mich stört, ist der immer wachsende trend in richtung stromverbrauch! habt ihr ne ahnung, ob wir in einigen jahren bald eigene stromleitungen für pcs durch die häuser ziehen müssen? schon die etxra stromanschlüsse an den nv30 und radeon9xxx karten find ich ja irgendwie beschissen! warum warten die im destopmarkt immer, bis etwas richtig nötig wird und beugen nicht vor? ich kann mir nähmlich gut denken, dass in ein paar jahren der stromverbrauch im desktopbereich so wichtig sein wird, wie im mobile bereich!

Gast
2004-02-06, 15:48:15
NVidias hauptproblem waren die 4 Pipelines, pro Pipline standen zwar zwei Textureeinheiten zur verfügung, aber bei Pixelshader lastigen Games ist das nicht relevant.

ATI hat ein 8x1 Architektur, hat also generell gesagt schonmal eine doppelt so hohe Rohleistung.

Da NVidia mit dem NV40 warscheinlich 8 Pipelines mit je zwei Textureeinheiten bringt hat NVidia nicht mehr so das nachsehen.



Ist ja diesmal wirklich ein großer Leistungssprung,wenn die Daten zutreffen.

Mit dieser großen Bandbreite sollte der NV40 dann auch keine Probs mit AA Leistung haben oder ?

reunion
2004-02-06, 15:53:04
Original geschrieben von Gast
ATI hat ein 8x1 Architektur, hat also generell gesagt schonmal eine doppelt so hohe Rohleistung.


Eben nicht ;)
Um tri-filterung zu erzeugen braucht man mit einer bi-TMU 2 Durchläufe oder eben mit 2bi-TMUs nur einen.
==> ATI und NV bei tri filterung theoretisch gleichschnell...

StefanV
2004-02-06, 16:11:01
Original geschrieben von Demirug
Dir reichen 3 Angaben um sowas zu entscheiden? Ich dachte wir hätten im letzten Jahr alle was gelernt?

Wird vermutlich noch einige Zeit dauern, bis sich dein Vorschlag durchgesetzt hat...

Wenn sich erstmal was eingebürgert hat, ists sehr schwer bis unmöglich, dagegen anzukämpfen...

Gast
2004-02-06, 16:40:17
Original geschrieben von LordDeath
was mich stört, ist der immer wachsende trend in richtung stromverbrauch! habt ihr ne ahnung, ob wir in einigen jahren bald eigene stromleitungen für pcs durch die häuser ziehen müssen?

Garantiert nicht. Z.B. einen Heizlüfter kannst du an jeder normalen Steckdose betreiben und der hat bis zu 2000W. Ein heutiger PC verbraucht maximal 400W.

Ailuros
2004-02-06, 17:22:55
Original geschrieben von Gast
Garantiert nicht. Z.B. einen Heizlüfter kannst du an jeder normalen Steckdose betreiben und der hat bis zu 2000W. Ein heutiger PC verbraucht maximal 400W.

Er hat garantiert uebertrieben, hat aber instinktiv NICHT mit dem falschen Gedanken gespielt was Stromverbrauch betrifft. NV38/R360 duerften verdammt nahe wenn nicht gleich an die 100W Stromverbrauch liegen.

Ailuros
2004-02-06, 17:26:27
Zum Thema: bei 600MHz fuer den Core (obwohl es nicht unmoeglich ist) sieht es mir nach industrial fan ahoi aus.

Ich erinnere nochmal dass NV38 auf 475MHz getaktet ist, etwa 100W verbraucht und die Speichertaktung ist um einiges niedriger als minimal 600MHz (DDR2) die fuer NV40 das niedrigst moegliche momentan erscheint.

Quasar
2004-02-06, 17:29:38
GDDR3?
Könnte sich zumindest beim Stromverbrauch positiv auswirken.

Ailuros
2004-02-06, 17:34:11
Original geschrieben von Quasar
GDDR3?
Könnte sich zumindest beim Stromverbrauch positiv auswirken.

Spaeter. Noch nicht momentan verfuegbar in ausreichenden Quantitaeten.

Gast
2004-02-06, 17:37:06
Original geschrieben von Ailuros
Er hat garantiert uebertrieben, hat aber instinktiv NICHT mit dem falschen Gedanken gespielt was Stromverbrauch betrifft. NV38/R360 duerften verdammt nahe wenn nicht gleich an die 100W Stromverbrauch liegen.
Vielleicht die Ganze Karte mit hochgetaktetem Speicherunter Vollast...
Der Presschrott schafft das schon ganz alleine.*eg*
Mobile Feaures wie mit Power Now schon geschen werden aber auch im Desktop zum Standart werden(müssen).:ratlos:

Gast
2004-02-06, 18:16:25
Wenn der NV40 wieder so gegen die ATI abkaggt ,sollte NV lieber Kreditkarten herstellen. :D

Gast
2004-02-06, 18:21:46
Immerhin müssen sie noch keine Kredite aufnehmen...*eg*
Aber mal im Ernst soooo schlecht sind die derzeitigen NV Karten doch gar nicht. Und der NV40 wird scheinbar weitaus schneller als die aktuellen Karten. Eine Blamage wie beim NV30 erwarte ich nicht.;)

mrdigital
2004-02-06, 18:24:54
Wenn der NV40 wieder so gegen die ATI abkaggt ,sollte NV lieber Kreditkarten herstellen.

Qualifizierter Kommentar, Gast, der zeigt, das du dich wirklich in der Materie auskennst und offensichtlich eine echte Kapazität für alle Fragen aus der IT Welt darstellst.

Quasar
2004-02-06, 18:25:32
Original geschrieben von Ailuros
Spaeter. Noch nicht momentan verfuegbar in ausreichenden Quantitaeten.

Naja, ausreichend DDR-II mit 2ns war vor einem Jahr auch nicht vorhanden - das hat nV nicht davon abgehalten, eine Kleinserie mit diesem schnellen Speicher aufzulegen, damit man bei Benchmarks nicht ganz so schlecht abschnitt gegen die R9700p.
;)

Exxtreme
2004-02-06, 19:42:02
Mich interessiert das Antialiasing des NV40. Wenn es aber genauso ist wie das des NV25/NV30 dann weiss ich, was ich als nächstes NICHT kaufen werde.

LovesuckZ
2004-02-06, 19:48:37
Original geschrieben von Exxtreme
Mich interessiert das Antialiasing des NV40. Wenn es aber genauso ist wie das des NV25/NV30 dann weiss ich, was ich als nächstes NICHT kaufen werde.

Nunja, und wenn ATi's AF genauso bleibt?

Exxtreme
2004-02-06, 19:53:47
Original geschrieben von LovesuckZ
Nunja, und wenn ATi's AF genauso bleibt?
Tja, mal schauen. =) Aber wenn es wirklich keinerlei Verbesserung geben wird, dann werde ich wohl mit meiner alten R9700 Pro weitergurken.

StefanV
2004-02-06, 19:59:49
Original geschrieben von LovesuckZ
Nunja, und wenn ATi's AF genauso bleibt?

Hm, also 'Statistisch' spricht alles dafür, daß ATI was am AF ändern wird...

Allein schon, weil sie von der R100->R200->R300 immer was am AF geändert haben...

LovesuckZ
2004-02-06, 20:01:59
Original geschrieben von Stefan Payne
Hm, also 'Statistisch' spricht alles dafür, daß ATI was am AF ändern wird...


Hm, "statistisch" hat ATi seit dem r300 am AF nichts mehr veraendert und das liegt fast schon 1 1/2 Jahre her.

StefanV
2004-02-06, 20:13:05
Original geschrieben von LovesuckZ
Hm, "statistisch" hat ATi seit dem r300 am AF nichts mehr veraendert und das liegt fast schon 1 1/2 Jahre her.

Nach dem R300 kam ja auch nix mehr *eg*

Das AF der R(V)100 Serie ist gleich, der R(V)2x0 Serie ist gleich, das AF der R(V)3x0 Serie ist gleich.

Zwischen den 'ganzen' Serien hingegen wurde immer etwas getan, teilweise wars schon recht deutlich...

LovesuckZ
2004-02-06, 20:19:29
Original geschrieben von Stefan Payne
Zwischen den 'ganzen' Serien hingegen wurde immer etwas getan, teilweise wars schon recht deutlich...

Auch Nvidia hat zwischen den einzelnen Serien etwas getan, bis zum NV3x. Nun, hat das irgendwas zu bedeuten?

Gast
2004-02-06, 20:39:55
Original geschrieben von LovesuckZ
Auch Nvidia hat zwischen den einzelnen Serien etwas getan, bis zum NV3x. Nun, hat das irgendwas zu bedeuten?

Was denn?

AA : seit NV20 ohne Änderung

AF : gleich

+

Tri => Bri


Tolle Änderungen

Nedo
2004-02-06, 21:15:04
Ich bin auf die leistung der karten gespannt. sowohl von seiten nVidia's als auch von ATi's.

aber ich frag mich warum 2*8 und nicht 1*16?

oder is das nich möglich?

Winter[Raven]
2004-02-06, 21:16:23
Dir reichen 3 Angaben um sowas zu entscheiden? Ich dachte wir hätten im letzten Jahr alle was gelernt?

Ne, ich weiss war schon blöd ausgedrückt von mir, natürlich werd ich mir keine Karte kaufen die irgen eine Macke hat die mich erheblich stören würde, aber aber in der Zeit wo Ati Anhänger jeden und alles niedermachen das NV drauf stehen hat, bin ich mit meiner FX 5900Ultra @ 5950 Ultra suppa zufrieden. Und auch wenn der NV 40 vielleicht sich geschlagen geben wird, was ich stark bezweifle, so würde ich trotzdem den NV40 kaufen oder überspringen und dann den NV45 nehmen.

Für mich ist wichtig sind aber noch andere Faktoren wichtig als Performance (aka programmierbarkeit, treiber oder filter)

Xmas
2004-02-06, 22:22:35
Original geschrieben von Gast
Was denn?

AA : seit NV20 ohne Änderung

AF : gleich

+

Tri => Bri


Tolle Änderungen
LovesuckZ sagte ja, bis zum NV3x.

Bei AA und AF:
Rage < R100 < R200 < R300
TNT < NV10 < NV20 = NV30

Zu einer sinnvollen Voraussage reicht das nicht.

StefanV
2004-02-06, 23:12:52
Original geschrieben von Xmas
LovesuckZ sagte ja, bis zum NV3x.

Bei AA und AF:
Rage < R100 < R200 < R300
TNT < NV10 < NV20 = NV30

Zu einer sinnvollen Voraussage reicht das nicht.

Naja, man sollte fairerweise sagen, daß ATI sich die Refreshes gespart hat ;)

Bisher gabs von ATI eigentlich nur einen Value Chip + Einen High End Chip, die einzige Ausnahme ist eigentlich nur der RV250...

LovesuckZ
2004-02-06, 23:16:29
Nochmal auf das AF zurueck zu kommen:
Aufgrund der geringeren negativen Berichterstattung gegen das Verfahren von ATi, koennte man genauso sagen, dass eswohl nicht auf ein konkurenzfaehiges gaendert werde.
Nunja, mich werde es auch nicht wundern, wenn Nvidia ebenfalls starkes winkelabhaengies AF beim NV4x anbiete...

/edit: Dagegen hat Nvidia ihr fett wegen dem AA abbekommen, worauf sie wohl (mehr oder weniger) reagieren muessen!

Gast
2004-02-06, 23:45:05
Was Nvidia kann, kann ATI auch. Die 9600XT taktet doch schon mit 500mhz und lässt sich auch schon auf 600mhz übertakten.

Powered by ATI
2004-02-06, 23:47:24
Mist, schon wieder nicht eingeloggt

Winter[Raven]
2004-02-07, 01:04:58
Was Nvidia kann, kann ATI auch. Die 9600XT taktet doch schon mit 500mhz und lässt sich auch schon auf 600mhz übertakten.


Ja, schön, nur weil der RV360 bis 600 geht soll auch der R260 oider 420 gehen ?

Je mehr Transis ein chip hat desto schwieriger wird es diesen zu takten wie man es gern hätte. Der RV360 hat ja nur 75~ Millionen Transis, der R360 schon 107~ und der 420 160~. Man muss abwarten was am ende rauskommt.

Xmas
2004-02-07, 01:09:07
Original geschrieben von Stefan Payne
Naja, man sollte fairerweise sagen, daß ATI sich die Refreshes gespart hat ;)
Öh, bitte?
Was ist denn dann die Radeon 7500 zur original Radeon? Was die 9000/9200 zur 8500, oder die 9600/9800 zu 9500/9700?
Genau, Refreshes.

Abgesehen davon tut das hier nichts zur Sache.

StefanV
2004-02-07, 01:19:11
Original geschrieben von Xmas
Öh, bitte?
Was ist denn dann die Radeon 7500 zur original Radeon? Was die 9000/9200 zur 8500, oder die 9600/9800 zu 9500/9700?
Genau, Refreshes.

Hm, och nöö ;)

Du sagst: das sind Refreshes
Ich sage: das sind die Valuechips...

Das schlimme ist nur, daß keiner von uns beiden wirklich unrecht hat...

PS: 9700 -> 9800 ist für mich kein refresh, denn die Änderungen der Architektur halten sich in sehr engen Grenzen, weshalb ich mich weigere die R350/360 sowie den RV360 als refresh anzusehen...

Die Radeon 7500 ist auch eigentlich der einzige wirkliche Refresh der Radeon Serie, allerdings auch der Value Chip zur Radeon 8500 (wurde später durch den RV250, welcher auf R200 Technik basiert abgelöst)...

BlueRaven
2004-02-07, 01:52:21
Nvidia hat von seinen fehlern gelernt und wird bestimmt mit der NV40 wie eine BOMBE aufschlagen und die Gamer Karte presentieren was eigentlich für Nvidia spricht einfach 100% Pure Power in Games.

Und wenn die gerüschte bis jetzt so stimmen werde ich mir 100% eine kaufen.




bye
BlueRaven

egdusp
2004-02-07, 01:59:25
Original geschrieben von BlueRaven
Und wenn die gerüschte bis jetzt so stimmen werde ich mir 100% eine kaufen.


Welche Gerüchte?
Die einzigen häufigeren Gerüchte, die nicht aus total unzuverlässiger (aka Foren) Quelle stammen lauten:
550-600 Mhz Chiptakt
600-800 Chiptakt (eher 600)
170 mio Transistoren

Alles andere ist KOMPLETTES Kaffesatzlesen, Kugelschauen oder Kartenlegen.

Und daraus kann ich noch keine Leistungsdaten ableiten.

mfg
egdusp

MadManniMan
2004-02-07, 04:31:02
Original geschrieben von Demirug
Und sobald man mit mindestens Trilinearen Filtern arbeitet überhaupt nichts mehr.

Deswegen plädiere ich ja dafür das man dieses überholte Beschreibungskonzept endlich abschaft.

Ach, laß beide mal mit Single Cycle Tri antanzen, dann kann man das schon für Shaderlose Sachen anwenden. Ich brauch Dich sicherlich nicht daran zu erinnern, daß Du dereinst die Aussage tätigtest, <=DX7 Apps seien recht gut anhand der Texelfüllrate einzuschätzen, hehe :D

Oder - was noch viel einfacher wäre - laß dabei einfach mal berücksichtigen, ob wir von einer Tri- oder Bi-Pipe reden.
Im hypothetischen Falle eines 12*1 Loci mit Tri-TMUs und eines 6*2 NV40 mit Bi-TMUs wäre es simpelst, den Leuten die Theroie darzulegen.

Ailuros
2004-02-07, 05:01:46
Original geschrieben von BlueRaven
Nvidia hat von seinen fehlern gelernt und wird bestimmt mit der NV40 wie eine BOMBE aufschlagen und die Gamer Karte presentieren was eigentlich für Nvidia spricht einfach 100% Pure Power in Games.

Und wenn die gerüschte bis jetzt so stimmen werde ich mir 100% eine kaufen.




bye
BlueRaven

Von der Groesse/Komplexitaet/Stromverbrauch etc etc werden wohl alle neuen chips wie Bomben einschlagen. Die Frage ist wie gross der Krater danach ist :D

Ailuros
2004-02-07, 05:04:42
Im hypothetischen Falle eines 12*1 Loci mit Tri-TMUs und eines 6*2 NV40 mit Bi-TMUs wäre es simpelst, den Leuten die Theroie darzulegen.

Mach es doch nicht so kompliziert. 12*1 tri und 6*2 tri ist viel interessanter, denn es gibt ja wieder keinen Unterschied beim multitexturing ;) (j/k)

MadManniMan
2004-02-07, 05:21:56
Original geschrieben von mrdigital
Qualifizierter Kommentar, Gast, der zeigt, das du dich wirklich in der Materie auskennst und offensichtlich eine echte Kapazität für alle Fragen aus der IT Welt darstellst.

Ist dein Problem denn, daß die - eigentlich wirklich lustige! - Aussage von einem Gast stammt?

Original geschrieben von Winter[Raven]
aber aber in der Zeit wo Ati Anhänger jeden und alles niedermachen das NV drauf stehen hat, bin ich mit meiner FX 5900Ultra @ 5950 Ultra suppa zufrieden.

Warum reagierst du eigentlich derart mimosenhaft übersensibel auf jedwede gegen NV gerichtete Kritik? Und dann auch noch mit Vorliebe, wenn sie von "persönlichen Freunden" von dir kommt?
Und findest du nicht auch, daß du übertrieben polarisierst?

Und warum bist du jetzt so überaus mit deiner Karte zufrieden? Wärest du es weniger, wenn ATi-Anhänger stets und ständig vor Achtung den Hut vor NV zögen?

Original geschrieben von Winter[Raven]
Und auch wenn der NV 40 vielleicht sich geschlagen geben wird, was ich stark bezweifle, so würde ich trotzdem den NV40 kaufen oder überspringen und dann den NV45 nehmen.

Sicher, daß du dir damit nicht ins eigene Bein schießt? Machs wie ich und werd glücklich: kauf, was grad am besten in deine Rechner-/Geldsituation paßt. Ich hatte mit meinen V1/V3/Kyro2/GF3/R95P immer ein herrliches Preis-/Leistungsgefüge gekauf0rt. Probiers einfach mal so ;)

Original geschrieben von Winter[Raven]
Für mich ist wichtig sind aber noch andere Faktoren wichtig als Performance (aka programmierbarkeit, treiber oder filter)

Andere Faktoren als was? Du hast bisher nichts konkretes benannt.
Was meinst du mit der Programmierbarkeit? Und meinst du, aktuell würden ATi- oder NV-Treiber mehr Probleme machen, als die anderen? Und welche Filter meinst du konkret?

PS: Nicht bös gemeint... aber laß Dir mal mehr Zeit beim schreiben. Nichts gegen Schreibfehler, aber bei manchem von dir muß man einfach ein paar mal hinlesen. "Ruhig angeeeehn", würde ein gewisser Herr Felsenheimer jetzt sagen.

Original geschrieben von Winter[Raven]
Ja, schön, nur weil der RV360 bis 600 geht soll auch der R260 oider 420 gehen ?

...wunderbares Beispiel: was willst du uns damit sagen?

Original geschrieben von Winter[Raven]
Je mehr Transis ein chip hat desto schwieriger wird es diesen zu takten wie man es gern hätte. Der RV360 hat ja nur 75~ Millionen Transis, der R360 schon 107~ und der 420 160~. Man muss abwarten was am ende rauskommt.

Der RV360 ist in 0.13µ, der R360 in 0.15µ gefertigt. Von daher sind "nur" absolute 100MHz Taktunterschied oder rund ein relatives Fünftel gerade bei den 107Mio Transis nicht zu verachten.
Für den R420 erwarte ich irgendeinen low-k Prozeß in 0.13µ. BTW kann sich ATi just mit dem M11 darin üben.
Aber jener Fertigungsprozeß ist gerade auch der, den man auch für den NV40 erwartet. Und da man für jenen mit etwas mehr Transistoren rechnet, irritiert mich deine Sicherheit in Bezug auf den NV40 und verstehe nicht, warum du ATi nicht zutraust, in ähnliche Taktgefilde vorzustoßen.

Und ja, abwarten und Tee rauchen. ;-)

Original geschrieben von BlueRaven
Nvidia hat von seinen fehlern gelernt und wird bestimmt mit der NV40 wie eine BOMBE aufschlagen und die Gamer Karte presentieren was eigentlich für Nvidia spricht einfach 100% Pure Power in Games.

Hast du irgendeine tiefere Aussage hier versteckt? "100% pure Power" hört sich arg nach Marketingblubber an. Und selbst Blubberer machen das überzeugender, weil sie eben nicht sagen "Das Ding fetzt, weil es toll ist!" - nagut, im weiteren Sinne zwar schon, aber nicht derart wörtlich.

aths
2004-02-07, 08:47:14
Original geschrieben von BlueRaven
Nvidia hat von seinen fehlern gelernt und wird bestimmt mit der NV40 wie eine BOMBE aufschlagen und die Gamer Karte presentieren was eigentlich für Nvidia spricht einfach 100% Pure Power in Games.Das würde ich eher auf ATI münzen. Für Spiele sind Radeons ab R300 sehr gut.

100% "pure power"? TR AoD? FC? Wenn ich mich recht entsinne, performt sogar Max Payne 2 besser auf Radeon.
Original geschrieben von BlueRaven
Und wenn die gerüschte bis jetzt so stimmen werde ich mir 100% eine kaufen. Zu 100% stimmen sie nicht.

aths
2004-02-07, 08:51:08
Original geschrieben von LovesuckZ
Nochmal auf das AF zurueck zu kommen:
Aufgrund der geringeren negativen Berichterstattung gegen das Verfahren von ATi, koennte man genauso sagen, dass eswohl nicht auf ein konkurenzfaehiges gaendert werde.
Nunja, mich werde es auch nicht wundern, wenn Nvidia ebenfalls starkes winkelabhaengies AF beim NV4x anbiete... Ist doch per Performance-Slider schon drin.

Imo wurde NVs AA nicht unbedingt stärker kritisiert, als ATIs AF.

Original geschrieben von LovesuckZ
/edit: Dagegen hat Nvidia ihr fett wegen dem AA abbekommen, worauf sie wohl (mehr oder weniger) reagieren muessen! Fett abbekommen? Erst ab NV30. Da war der NV40 schon in Entwicklung. Die meisten Mags und Webseiten benchen nach wie vor 4x/8x AA/AF, ohne sich darum zu kümmern, wie es sich mit der Bildqualität verhält.

Quasar
2004-02-07, 08:51:45
Original geschrieben von Stefan Payne
Nach dem R300 kam ja auch nix mehr *eg*
Doch, mehrere Refreshes. *eg*
Original geschrieben von Stefan Payne
Das AF der R(V)100 Serie ist gleich,
IIRC ist es das nicht. Die Ur-Radeon bekam erst später ein extrem übles AF beigebracht, welches auf der R7500 ein wenig verbessert wurde, wie gesagt: IIRC.

Quasar
2004-02-07, 09:01:45
Original geschrieben von aths
Imo wurde NVs AA nicht unbedingt stärker kritisiert, als ATIs AF.

In Foren vielleicht eher weniger, aber lies dir mal ein paar PrintMags durch, oder Artikel auf großen Internetseiten.
Da stehen dann Dinge wie "blablablakeineAhnunghababer Das FSAA von ATi sieht dank gedrehten Rasters deutlich besser aus, als das von nV, welches bei mehr als Stufe zwei nicht ordentlich funktioniert. [...]Zwar arbeitet ATi beim AF mit winkelabhängigem Verfahren, aber der Gesamteinfluss auf die Bildqualität ist geringer als die mangelhafte Kantenglättung nVidias".

Ziemlich genau der Wortlaut einer eigentlich recht angesehenen deutschen Computerzeitschrift, die es im selben Artikel noch nichtmal gebacken bekommen haben, Demirugs CineFX-Artikel korrekt abzuschreiben, ohne jedoch auf ihn als Quelle zu verweisen.


Da ja sowieso bekannt ist, daß ich das Oberhaupt* der deutschen nV-FanBoy-Gruppe bin, wirst du erwartet haben, was jetzt kommt: So ein pauschalisierender Dünnsinn zieht sich quer durch die Medienlandschaft.

Sicher ist das AA (in Bezug auf EER und Leistungsverlust) von ATi besser, keine Frage. Genausosicher ist das AF von nV mit kleinen Einschränkungen besser.
Was davon nun zu bevorzugen ist - diese Entscheidung sollte IMO jeder für sich selbst fällen dürfen.

*nach Borstis Rücktritt, der ja nun nicht mehr "gekauft und völlig unglaubwürdig ist".

aths
2004-02-07, 09:05:00
Hm, diese Zeitschrift hat auch meiner Erfahrung nach nicht sonderlich viel Ahnung, Graka-Technik betreffend. Nur lästere ich da ungerne, da aTuner dort mal ein halbseitiges und recht positives Review bekam. Fast kein Printmag hat Ahnung von 3D, wer schlau ist, lässt ram und so für sich schreiben :)

Meiner Wahrnehmung nach wird auf AA und AF bislang in den Print-Medien nur am Rande eingegangen. Konkret heißt das, 4x ist 4x und 8x ist 8x. Und 16x ist besser als 8x, weil 16>8. Erläuterungen sind grundfalsch, aber da wird auch Dawn schon mal zur DirectX9-Demo usw., usf.

Borsti halte ich beinahe für eine tragische Figur. So lange ist er schon im Geschäft, dass ich unweigerlich Respekt empfinde. Er macht deutlich weniger Fehler in seinen neueren Artikeln, doch wenn er welche begeht kann ich mir die nur so erklären, dass er noch immer keine halbswegs vernünftige Vorstellung von 3D-Hardware hat.

Letztlich ist es immer das gleiche. Zu GF1-Zeiten bejubelten alle T&L. Jetzt salutieren sie vor ATI. Immer schön die Fahne in den Wind hängen ...

Quasar
2004-02-07, 09:06:16
Original geschrieben von Stefan Payne
Hm, och nöö ;)

Du sagst: das sind Refreshes
Ich sage: das sind die Valuechips...

Das schlimme ist nur, daß keiner von uns beiden wirklich unrecht hat...

PS: 9700 -> 9800 ist für mich kein refresh, denn die Änderungen der Architektur halten sich in sehr engen Grenzen, weshalb ich mich weigere die R350/360 sowie den RV360 als refresh anzusehen...

Die Radeon 7500 ist auch eigentlich der einzige wirkliche Refresh der Radeon Serie, allerdings auch der Value Chip zur Radeon 8500 (wurde später durch den RV250, welcher auf R200 Technik basiert abgelöst)...

Tjo, das ist ja das schlimme: Du weigerst dich, einigermaßen offensichtliche Dinge einzusehen, sobald jemand eine Gegenposition bezieht, stellst du dich auf die Hinterbeine und blockst kategorisch ab.
Das macht es auch ziemlich schwer und müßig, mit dir über solche Dinge zu diskutieren.

Ich versuch's trotzdem mal:
R9800 <- R9700 und R9600 <- R9500 sind Refreshes, sogar komplett ohne HW-Änderung.
Der R7500 ist kein Value-Chip, sondern das High-End Modell der R100-Reihe mit einigen zusätzlichen Fähigkeiten und Goodies, kam leider etwas spät, als es schon den R8500 gab und musste deswegen ins Value-Segment ausgelagert werden.

Quasar
2004-02-07, 09:11:06
Original geschrieben von aths
Hm, diese Zeitschrift hat auch meiner Erfahrung nach nicht sonderlich viel Ahnung, Graka-Technik betreffend. Fast kein Printmag hat das, wer schlau ist, lässt ram und so für sich schreiben :)
Ack. Aber das hilft nicht weiter, da die Printmags eine größere Öffentlichkeitswirksamkeit haben (noch?), ein hübsches Werbebudget, welches sie nicht mehr ganz so unabhängig erscheinen läßt und eben etliche Redakteure, die es sicher besser könnten, aber durch die beiden bösen Z-Worte (Zeitdruck und Zielgruppe) gezwungen werden, so einen BS in Kurzform zu pressen.
Ganz ehrlich: Ich traue sogar der GS-Redaktion zu, daß die wissen, daß das, was die da oft schreiben, ziemlicher Humbug ist.

Original geschrieben von aths
Meiner Wahrnehmung nach wird auf AA und AF bislang in den Print-Medien nur am Rande eingegangen. Konkret heißt das, 4x ist 4x und 8x ist 8x. Und 16x ist besser als 8x, weil 16>8. Erläuterungen sind grundfalsch, aber da wird auch Dawn schon mal zur DirectX9-Demo usw., usf.
Ebenfalls Ack, aber nur teilweise: Wenn darauf eingegangen wird, dann werden meistens Mehrheitsmeinungen aus Foren unreflektiert abgeschrieben. Eine eigene Meinung könnte ja zu Auflagenminderung führen ("Wie? Man braucht _keine_ starke CPU für FSAA? Kann doch gar nicht sein, haben die von der *zensiert* den gar keinen Plan?")

Demirug
2004-02-07, 09:13:37
Original geschrieben von Quasar
Ziemlich genau der Wortlaut einer eigentlich recht angesehenen deutschen Computerzeitschrift, die es im selben Artikel noch nichtmal gebacken bekommen haben, Demirugs CineFX-Artikel korrekt abzuschreiben, ohne jedoch auf ihn als Quelle zu verweisen.

Danke für die Blumen aber man darf nicht die grosse Presseveranstalltung von nVidia zum Aufbau der NV3X Chips vergessen. Ich bin also nicht sicher ob hier wirklich mein Text als Grundlage herhalten musste.

aths
2004-02-07, 09:17:05
Original geschrieben von Quasar
Ack. Aber das hilft nicht weiter, da die Printmags eine größere Öffentlichkeitswirksamkeit haben (noch?), ein hübsches Werbebudget, welches sie nicht mehr ganz so unabhängig erscheinen läßt und eben etliche Redakteure, die es sicher besser könnten, aber durch die beiden bösen Z-Worte (Zeitdruck und Zielgruppe) gezwungen werden, so einen BS in Kurzform zu pressen. Von Kurzform kann ich ein Lied singen ...

Original geschrieben von Quasar
Ganz ehrlich: Ich traue sogar der GS-Redaktion zu, daß die wissen, daß das, was die da oft schreiben, ziemlicher Humbug ist.Da glaube ich an das Gute im Menschen. Die wissen es nicht besser, und wollen es (leider) auch nicht besser wissen. Die meisten beschäftigen sich mit 3D-Hardware rein beobachtend. Die interessieren sich einen Dreck um die interne Arbeitsweise. Keine Ahnung ob sie das als Ballast oder unnötiges Theoriegeschwafel sehen, oder denken, das sei sowieso zu hoch für sie.

Gestern hat mir Xmas die Zielregister von texld erklärt. Da wurde mir erst mal klar, dass ich 2.0-Texture-Ops bislang falsch verstanden hatte.

Jedenfalls, mit rein "äußerlichen" Beobachtungen gelangt man zu bestimmten Schlüssen. Daraus leitet man andere Sachen ab. Das ist der Knackpunkt. Wenn man nicht weiß, wie es funzt, zieht man aus einer Handvoll Ergebnisse falsche Schlussfolgerungen. So wird 8x AF à la ATI schon mal besser als 8x von NV, und 4x von NV wird als praktisch gleichwertig zu 4x von ATI eingestuft. Macht man darauf aufmerksam, wird das als Profilierungsversuch ausgelegt. Bloß keine Theorie.

Original geschrieben von Quasar
Ebenfalls Ack, aber nur teilweise: Wenn darauf eingegangen wird, dann werden meistens Mehrheitsmeinungen aus Foren unreflektiert abgeschrieben. Eine eigene Meinung könnte ja zu Auflagenminderung führen ("Wie? Man braucht _keine_ starke CPU für FSAA? Kann doch gar nicht sein, haben die von der *zensiert* den gar keinen Plan?") Dass FSAA CPU-Leistung frisst, habe ich zuletzt vor Jahren in der GS gelesen.

Weiteres Problem: Selbstherrliche Redakteure. Beispiel PCG (nicht PCGH.) Die tun als seien sie Kings. Machen die Spiele-Packung auf, testen an und schreiben ihren "Test" zusammen. Da sind dann Sachen drin, die sie vom Hersteller übernommen haben, obwohl das tatsächliche Spiel anders ist. Seit dem sie 3 Vorab-Screens von Dune2000 "getestet" haben, sind die bei mir unten durch.

So wie PCG Spiele testet, testen andere Grafikkarten. PC Welt zu Volari: "Beachtliche 5628 3D Marks im Benchmark 3D Mark 03 ..."

LovesuckZ
2004-02-07, 09:41:31
Original geschrieben von aths
Ist doch per Performance-Slider schon drin.

"Brilinear" und "Stage-Optimierung", erste Vorboten.
Fehlt nur noch die starke, konkurenzfaehige Winkelabhaengigkeit.

Imo wurde NVs AA nicht unbedingt stärker kritisiert, als ATIs AF.

In Printmagazinen wohl weniger, im Internet dagegen fast in jedem Review.
Dagegen zegt man gerade Flächen beim AF - ergleich und erklaert, dass ATis AF Verfahren den von nvidia in keinster Weise nachstehe.
Wo sind denn die Artikel geblieben, dass ATi bei CP Einstellungen nur die erste Stage trilinear filtert?

Fett abbekommen? Erst ab NV30. Da war der NV40 schon in Entwicklung.

Deswegen wird Uttar auch nicht muede zu behaupten, dass im NV40 viel des NV45 drinstecke. Auch die 6monatige Verspätung koennte ein Indiz für eine Veraenderung des Designs sein.

aths
2004-02-07, 09:55:58
Original geschrieben von LovesuckZ
"Brilinear" und "Stage-Optimierung", erste Vorboten.
Fehlt nur noch die starke, konkurenzfaehige Winkelabhaengigkeit.Sowas ist doch schon drin. Oder kriegt man diese komischen "Quadrate" beim AF-Tester nicht mehr?

Wobei ATIs winkelabhängige Optimierung sinnvoller ist als das, was NV da anbietet.

Original geschrieben von LovesuckZ
Wo sind denn die Artikel geblieben, dass ATi bei CP Einstellungen nur die erste Stage trilinear filtert?Wahrscheinlich dort, wo erklärt wird, dass die FXe mit neueren Treibern nur noch "brilinear" filtern.

Original geschrieben von LovesuckZ
Deswegen wird Uttar auch nicht muede zu behaupten, dass im NV40 viel des NV45 drinstecke. Auch die 6monatige Verspätung koennte ein Indiz für eine Veraenderung des Designs sein. Wo er Recht hat, hat er Recht.

LovesuckZ
2004-02-07, 10:06:05
Original geschrieben von aths
Sowas ist doch schon drin. Oder kriegt man diese komischen "Quadrate" beim AF-Tester nicht mehr?

Ich rede nicht von "Performance" Einstellungen, sondern der maximalen gebotenden Qualitaet.


Wahrscheinlich dort, wo erklärt wird, dass die FXe mit neueren Treibern nur noch "brilinear" filtern.


Ein bisschen Spaet, nicht wahr?

BlackBirdSR
2004-02-07, 10:21:51
Original geschrieben von aths

Da glaube ich an das Gute im Menschen. Die wissen es nicht besser, und wollen es (leider) auch nicht besser wissen. Die meisten beschäftigen sich mit 3D-Hardware rein beobachtend. Die interessieren sich einen Dreck um die interne Arbeitsweise. Keine Ahnung ob sie das als Ballast oder unnötiges Theoriegeschwafel sehen, oder denken, das sei sowieso zu hoch für sie.


Sie wissen es..
die GS hat nur ein Problem.. der Komerz.

Artikel müssen im Eiltempo geschrieben und korrigiert werden. Es bleibt weder Zeit für großangelegte Recherchen, noch um Fragen zu stellen.
Zudem ist es wohl das Zeil der GS, das Hardwareniveau so zu drücken, dass jeder Leser denkt" Boah voll geil eh, muss ich haben ey"
Kurz: Unter der Auflage, zu Hypen was das Zeug hält, leidet der Inhalt EXTREMST.
Nach eigenen Aussagen spricht man eine Zielgruppe um 25 Jährige an, geschrieben wird für 13-16 Jährige deren ABO von den Eltern bezahlt wird.

Aus Artikeln über Funktionsweise von 3DChips wird schonmal eine Lobpreisung von DirectX9 und Physikengines.., da kann man "fettere" Bilder bringen und geileren Hype "producen"

Ich bin mir nicht sicher, wieviel Ahnung Micheal Trier von den Internas um Grafikkarten hat, aber Daniel Visarius trau ich nunmal viel zu. Leider ist er auch nur "Mitspieler"...

Die GS könnte um Längen besser, wenn das Konzept nicht so kaputt wäre. Sie wollen halt einfach nicht.
Es kommt besser zu schreiben: "105 Millionen Transistoren im Athlon64 für beste Spieleleistung", als mal nachzukucken wieviele Register die CPU wirklich hat.. da schreiben wir halt das was der erste Googlelink ausspuckt, fertig.. kostet ja Alles Zeit.

aths
2004-02-07, 10:23:39
Original geschrieben von LovesuckZ
Ich rede nicht von "Performance" Einstellungen, sondern der maximalen gebotenden Qualitaet.Da wäre "Optimierung" alles andere als wünschenswert.

Original geschrieben von LovesuckZ
Ein bisschen Spaet, nicht wahr? Hm? Wie meinen?

LovesuckZ
2004-02-07, 10:35:56
Original geschrieben von aths
Da wäre "Optimierung" alles andere als wünschenswert.

Dahin geht doch der Trend.

Hm? Wie meinen?

Nun, die Stageoptimierung war davor schon seit laengeren bekannt, bis auf Computerbase und vereinzelnte Screens von Digit-life.com hat man darüber aber nirgendwas was gelesen.

aths
2004-02-07, 11:03:21
Original geschrieben von LovesuckZ
Dahin geht doch der Trend.Wieso? ATIs AF wurde doch immer besser?


Original geschrieben von LovesuckZ
Nun, die Stageoptimierung war davor schon seit laengeren bekannt, bis auf Computerbase und vereinzelnte Screens von Digit-life.com hat man darüber aber nirgendwas was gelesen. Hättest du einen guten Artikel darüber geschrieben, hätte ihn Leo gewiss veröffentlicht.

LovesuckZ
2004-02-07, 11:16:16
Original geschrieben von aths
Wieso? ATIs AF wurde doch immer besser?

Nun, trilinear und die Winkelabhaengigkeit verschoben, dafür über CP seit dem CAT3.2 Stageoptimierung.
Bei Nvidia sieht es nicht besser aus, außer dass sie schon deutlich früher das bessere AF hatten.

Hättest du einen guten Artikel darüber geschrieben, hätte ihn Leo gewiss veröffentlicht.

Bezeichnend für die Situation: Selbst 3DCenter.de, die eigentlich aus fast jeder Muecke einen Elephanten (?) machen, haben keinen Artikel gebracht, ob über Winkelabhaengigkeit oder Stageoptimierung.
Bevor einer kam, musste Nvidia mal wieder dran glauben...

aths
2004-02-07, 11:24:22
Original geschrieben von LovesuckZ
Nun, trilinear und die Winkelabhaengigkeit verschoben, dafür über CP seit dem CAT3.2 Stageoptimierung.
Bei Nvidia sieht es nicht besser aus, außer dass sie schon deutlich früher das bessere AF hatten.NV "optimiert", um Leistung zu schinden und gegen ATI Punkte zu machen, ja.
Original geschrieben von LovesuckZ
Bezeichnend für die Situation: Selbst 3DCenter.de, die eigentlich aus fast jeder Muecke einen Elephanten (?) Elefanten.
Original geschrieben von LovesuckZ
machen, haben keinen Artikel gebracht, ob über Winkelabhaengigkeit oder Stageoptimierung.
Bevor einer kam, musste Nvidia mal wieder dran glauben... Oooch, armes Nvidia. Und deshalb bist du gleich ganz geknickt?

Sorry für den ätzenden Ton.

Aber wir haben nun mal nicht die Zeit, um alles zu behandeln. Oder die Notwendigkeit, in der Abwägung, NV oder ATI zu dissen, uns nach deinen Wünschen zu richten.

Betreffs ATIs Textur-Filter gibt es ja einen Artikel. ATI hat sich immerhin, ausgehend vom R100, jeweils verbessert. Keine Ahnung, wie andere mich einschätzen. Ich selbst würde mich so einschätzen, dass ich ATI keineswegs zu gut wegkommen lasse. Auf B3D wurde am Artikel nur rumgenörgelt, und ich würde ich trotzdem wieder schreiben. Nur weil viele 'ne ATI haben, und sehr glücklich sind, und nix von Nachteilen hören wollen, ist das für mich kein Grund, nicht mal zu prüfen ob denn wirklich alles Gold ist, was glänzt. Und wo man auch stocherte, immer ließen sich "Optimierungen" nachweisen.

Inzwischen scheinen mich einige eher auf der Pro-NV-Seite einzuordnen. Diese irren ebenfalls.

Wenn man diese Energie, ATI oder NV zu verteidigen, in Produkte oder Dienstleistungen schaffende Wirtschaftskraft kanalisieren könnte, würde die Regierung gar nicht schnell genug die Steuern senken können.

Ailuros
2004-02-07, 11:30:13
Selbst 3DCenter.de, die eigentlich aus fast jeder Muecke einen Elephanten (?) machen, haben keinen Artikel gebracht, ob über Winkelabhaengigkeit oder Stageoptimierung.

Mehr oder weniger wurden solche Themen schon erwaehnt nur gab es eben keine einzelnen Artikel die z.B. ausschliesslich auf die Winkelabhaengigkeit gewidmet sind:

http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/

Da der Artikel (Gott sei Dank) auch eine englische Version hat, hab ich nach seiner Veroeffentlichung des oefteren darauf gelinkt, da es praktisch nichts auf dem Netz gibt was die Stage-optimierung bei ATI zu dem Grad dokumentiert.

mrdigital
2004-02-07, 11:44:10
Original geschrieben von MadManniMan
Ist dein Problem denn, daß die - eigentlich wirklich lustige! - Aussage von einem Gast stammt?

das hat nichts mit Gast zu tun, sondern wil es numal überhaupt gar nicht was mit "nV40 taktet mit bis zu 600MHz" zu tun hat und nur rumgeflame provoziert. Und der richtige Humor hat sich mir in der Aussage von Gast auch nicht erschlossen.

MadManniMan
2004-02-07, 12:43:54
Original geschrieben von aths
Betreffs ATIs Textur-Filter gibt es ja einen Artikel.

Leider mit der IMHO unangebrachteren Thematik. Sicherlich hat Leo im Treibertrickartikel schon sehr viel geschrieben.
Aber wenn man von ATi schon zeigen wollte, daß andere besser filtern, hätte man das wesentlich wirksamer machen können, indem man die Winkeladaptivität anhand vieler praktischer Szenen beäugte und nicht etwas, was für das Gros der Klientel schier irrelevant ist.

Original geschrieben von mrdigital
das hat nichts mit Gast zu tun, sondern wil es numal überhaupt gar nicht was mit "nV40 taktet mit bis zu 600MHz" zu tun hat und nur rumgeflame provoziert. Und der richtige Humor hat sich mir in der Aussage von Gast auch nicht erschlossen.

Ja, ist vielleicht wirklich minder komisch... so gesehen.
Aber dennoch ist er wahrlich nicht der Einzige, der hier nichts zu "nV40 taktet mit bis zu 600MHz" sagt.
No offense ;)

aths
2004-02-07, 13:02:33
Original geschrieben von MadManniMan
Leider mit der IMHO unangebrachteren Thematik. Sicherlich hat Leo im Treibertrickartikel schon sehr viel geschrieben.
Aber wenn man von ATi schon zeigen wollte, daß andere besser filtern, hätte man das wesentlich wirksamer machen können, indem man die Winkeladaptivität anhand vieler praktischer Szenen beäugte und nicht etwas, was für das Gros der Klientel schier irrelevant ist.Eigentlich OT, aber ich antworte trotzdem mal.

Ob das Gros der User mit der Art und Weise, die ich in diesem Artikel an den Tag legte, einverstanden ist, ist mir piepegal.

Begründung: Mit Beispiel-Screenshots kann man praktisch alles zeigen. Vergleich mal 4x AA OG und RG bei 45°-Winkeln. Ist praktisch identisch. Vergleiche 8x AF ATI und NV bei 45° oder 90°-Winkeln. Praktisch identisch. Man muss in die Theorie gehen, um Screenshots beurteilen zu können. Vom Angucken bunter Bilder wird keiner schlau. Da denkt man höchstens, man hätte es verstanden. Zudem wollte ich keinen "bekehren", jetzt ATIs Filter schlecht zu finden. Sondern erstens die Fakten zeigen, und zweitens meine Meinung dazu äußern. "Echte", also nicht synthetische Screenshots sind mit Absicht in diesem Artikel nicht zu finden. Nicht alle meine Artikel richten sich an alle User. Wem die zu hoch sind, der soll THG lesen.

Ich habe fertig ...

Gast
2004-02-07, 22:01:00
richtig so Ats :)
Auch die theorie kann manchmal spannend sein.
auch wenn man sagen muss dass Ati ihr AF schon relativ gut hinbekommen haben, aber tortzdem darauf aufmerksam zu machen dass da nicht alles Gold ist was glänzt ist shcon richtig.

AlfredENeumann
2004-02-07, 22:03:01
Original geschrieben von egdusp
Welche Gerüchte?
Die einzigen häufigeren Gerüchte, die nicht aus total unzuverlässiger (aka Foren) Quelle stammen lauten:
550-600 Mhz Chiptakt
600-800 Chiptakt (eher 600)
170 mio Transistoren

Alles andere ist KOMPLETTES Kaffesatzlesen, Kugelschauen oder Kartenlegen.

Und daraus kann ich noch keine Leistungsdaten ableiten.

mfg
egdusp


Eben. Und vom R420 weis man noch weniger,.

z3r0k3wL
2004-02-08, 05:00:03
Original geschrieben von Nedo
Ich bin auf die leistung der karten gespannt. sowohl von seiten nVidia's als auch von ATi's.

aber ich frag mich warum 2*8 und nicht 1*16?

oder is das nich möglich?


Weil 8*2 oder 16*1 kaum unterschied macht und 16*1 teurer wär da man da 16 leitungen bräuchte die brauchen wiederum mehr platz etc. also was ich genau sagen will ist, das es nicht so einfach in Praxis umzusetzen ist wie dahin geschrieben !

16*1 = 16 Leitungen bzw. Pipes mit je 1 Textur pro Zyklus !
8*2 = 8 Leitung bzw. Pipes mit je 2 Texturen pro Zyklus !

Gast
2004-02-08, 13:10:33
Original geschrieben von egdusp
Welche Gerüchte?
Die einzigen häufigeren Gerüchte, die nicht aus total unzuverlässiger (aka Foren) Quelle stammen lauten:
550-600 Mhz Chiptakt
600-800 Chiptakt (eher 600)
170 mio Transistoren

Alles andere ist KOMPLETTES Kaffesatzlesen, Kugelschauen oder Kartenlegen.

Und daraus kann ich noch keine Leistungsdaten ableiten.

mfg
egdusp
ach, 550-600 Mhz Chiptakt und 600-800 Chiptakt;)

Ailuros
2004-02-08, 13:53:03
LOL solche Ausrutscher passieren wohl bei den meisten. Wie dem auch sei, man kann mit Sicherheit von ~38GB/sec Bandbreite minimal bei NV40 ausgehen. Mehr ist natuerlich immer besser, bedeutet aber auch einen um einiges hoeheren Verkaufspreis.

Spake
2004-02-09, 00:21:04
was meint ihr eigentlich wie es mit der speicherMENGE auf gpus weitergeht
wird die nächste generation schon 512mb speicher haben?

glaub es war so:
nv15 64mb; nv20 64mb; nv25 128mb; nv30 128mb; nv35 256mb
R100 64mb; R200 64mb; R300 128mb; R350 256mb; R360 256 mb

nach dieser statistik(sicher nicht ganz richtig) müsste es ja wieder beim nv45? soweit sein

ich weiß ja nett aber 512mb speicher klingt schon nach ein bisschen viel für eine gpu
müssten ja so um die 32 ram-chips auf dem PCB sein
und außerdem werden die gpus mit soviel speicher überhaupt davon gebracuh machen können?!
->spiele die soviel brauchen werden ja wohl kaum mit einer nv45 in höchsten details flüssig spielbar sein

Ailuros
2004-02-09, 06:56:51
Alle naechster Generation-Produkte mit der gleichen ersten Code-Ziffer (siehe R4xx/NV4x) haben minimale 256MB und maximale 512MB Framebuffer fuer die ultra-high end Modelle.

Ergo betrifft die Unterstuetzung von so grossen Framebuffern schon NV40/R420. Hoeher als dieses ist vor 2005 nicht zu erwarten IMHO.

***edit:

ich weiß ja nett aber 512mb speicher klingt schon nach ein bisschen viel für eine gpu
müssten ja so um die 32 ram-chips auf dem PCB sein
und außerdem werden die gpus mit soviel speicher überhaupt davon gebracuh machen können?!

Wenn man theoretisch z.B. von mehr als 8x sample AA in sehr hohen Aufloesungen spricht, dann ja. Und das ist nur ein Beispiel. Man kann ja auch nicht fuer solche Modelle unter etwa 500$ erwarten; ob es der Verbraucher dann wirklich brauchen wird fuer dieses Jahr ist fraglich, aber gekauft werden diese dann schon von den ~2% die normalerweise solche Loesungen kaufen.

Gast
2004-02-09, 08:47:20
Original geschrieben von Ailuros
Man kann ja auch nicht fuer solche Modelle unter etwa 500$ erwarten; ob es der Verbraucher dann wirklich brauchen wird fuer dieses Jahr ist fraglich, aber gekauft werden diese dann schon von den ~2% die normalerweise solche Loesungen kaufen.


Ich sehs schon vor mir; FX5200 mit 512MB Speicher .....

<sorry couldn't resist>

Ailuros
2004-02-09, 09:23:52
Es gibt heute schon mainstream Karten mit 256MB ram (aber mit geringerem Speichertakt um den Preis in logischen Grenzen zu halten); hoeher als das ist aber fuer mainstream/value fuer 2004 nicht zu erwarten.

Von 5200 kann schon gar nicht mehr die Rede sein. NV3x ist eine Generation hinter NV4x.

Spake
2004-02-09, 19:03:47
im prinzip gibt es doch sowieso kein spiel welches 256mb speicher braucht?!
hauptsächlich sind die doch nur wegen dem AA verbaut oder???

Ailuros
2004-02-09, 23:43:58
Original geschrieben von Spake
im prinzip gibt es doch sowieso kein spiel welches 256mb speicher braucht?!
hauptsächlich sind die doch nur wegen dem AA verbaut oder???

Die Geschichte ist immer gleich mit dem Speicherzeug. Vor zwei Jahren hiess es dass man 64mb sowieso nicht braucht, vor einem Jahr hiess es dass man 128mb sowieso nicht braucht....merkst Du was?

Wenn die Anforderungen an Grafik-karten nicht stets steigen wuerden, wuerden solche Zahlen auch viel konservativer skalieren.

Spake
2004-02-10, 15:36:11
Original geschrieben von Ailuros
Die Geschichte ist immer gleich mit dem Speicherzeug. Vor zwei Jahren hiess es dass man 64mb sowieso nicht braucht, vor einem Jahr hiess es dass man 128mb sowieso nicht braucht....merkst Du was?

Wenn die Anforderungen an Grafik-karten nicht stets steigen wuerden, wuerden solche Zahlen auch viel konservativer skalieren.

schon klar
ich dachte eher daran dass die gpus welche mal wieder viel mehr speicher bekommen letztenendes zu schwach sind für die spiele welche so viel speicher brauchen und ihren mehrspeicher dann eigentlich nur für die "alten" spiele mit AA nutzen

ich meine nicht dass kein spiel jemals so viel speicher brauchen wird sondern dass die ersten gpus mit soviel speicher diese spiele nicht mit höchsten details spielen werden können


meiner ti4200 mit 64mb kann es doch ziemlich wurscht sein ob ein spiel wirklich mehr speicher braucht wenn sie die dafür notwendige leistung nett aufbringen kan oder?!

Ailuros
2004-02-10, 17:37:10
meiner ti4200 mit 64mb kann es doch ziemlich wurscht sein ob ein spiel wirklich mehr speicher braucht wenn sie die dafür notwendige leistung nett aufbringen kan oder?!

Doch in Faellen von extremem AGP-texturing schon.

Spake
2004-02-10, 17:41:31
extremes AGP-texturing hört sich allein des namens wegen aber nach einer ausnahmesituation an(ichnixblick;))
demnach wird es ja wohl eher selten auftreten um stark ins gewicht zu fallen

Ailuros
2004-02-10, 17:45:27
Original geschrieben von Spake
extremes AGP-texturing hört sich allein des namens wegen aber nach einer ausnahmesituation an(ichnixblick;))
demnach wird es ja wohl eher selten auftreten um stark ins gewicht zu fallen

Mehr als nur ein paar Stellen in UT2k3 sind schon genug. Ist ein dx7 Spiel oder? ;)

Spake
2004-02-10, 17:49:08
oha
naja gut ich geb mich geschlagen ;)

wobei ich allerdings von irgendwelchen einbrüchen noch niewas mitbekommen habe

Gast
2007-02-10, 21:50:58
Schon lustig die Spekulationen von damals mit dem endgültigem NV40 zu vergleichen. ;)

Gast
2007-02-11, 02:53:44
passt doch..