Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread NV40 (war: NV40 am 14. April)
Seiten :
1
2
3
4
5
[
6]
7
8
9
10
Zur Verfügbarkeit (weiter unten im TExt):
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/april/atis_radeon_x800_16_pipelines/
ShadowXX
2004-04-09, 14:35:10
Original geschrieben von Gast
Zur Verfügbarkeit (weiter unten im TExt):
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/april/atis_radeon_x800_16_pipelines/
Wenns denn stimmt, wirds diesmal also ein "halber" Paperlaunch....
Karten für Presse/Sites und ein paar Auserwählte.....
robbitop
2004-04-09, 15:14:30
als wenn man eine VPU so schnell noch ändern könnte...naja soll Leute geben die sowas glauben
Quasar
2004-04-09, 15:44:01
Original geschrieben von robbitop
als wenn man eine VPU so schnell noch ändern könnte...naja soll Leute geben die sowas glauben
Wenn an der Theorie mit dem einen deaktivierten Quad was dran ist, dann könnten 4-6 Monate reichen....
Denk' an nV30 und nV35. =)
Aber Hauptsache, du schreibst nicht so "loliges Zeug", gell? ;)
seahawk
2004-04-09, 16:56:10
Das mit den NV40 ist afaik I know richtig. Die wörtliche Übersetzung trifft ziemlich genau.
Wird übrigens beim X800 nicht anders sein.
Manche haben sich halt für den einen Chip entschieden und manche für den anderen. :D
Original geschrieben von Ailuros
Wenn nur die reference-boards die nach aussen geschickt wurden auch so toll aussehen wuerden.
Aber ja ich will ernsthaft hoffen, dass dieses nicht nur ein Marketing-Bildchen ist.
Von single slotloesungen hoer ich schon seit einiger Zeit.
von mir aus kann das teil 3 slots haben ich will ne leise karte (!!)
Godmode
2004-04-09, 17:02:05
Werden NV40 und R420@16 Pipes Bandbreiten limitiert sein?
StefanV
2004-04-09, 17:04:27
Original geschrieben von bans3i
Werden NV40 und R420@16 Pipes Bandbreiten limitiert sein?
Davon ist eigentlich auszugehen.
hat von euch irgendwer eine adresse wo der launch event am 14. in der früh live gestreamt wird?
Quasar
2004-04-09, 17:35:03
Original geschrieben von bans3i
Werden NV40 und R420@16 Pipes Bandbreiten limitiert sein?
Hauptsächlich bei err... praxisrelevantem *hust* Single-Texturing.
Ob auch in AA- oder bestimmten Shadersituationen, hängt vom letztendlichen Design ab.
robbitop
2004-04-09, 17:46:03
@Quasar
natürlich ginge das problemlos wenn es von Anfang an als 4Pixelprocessor Design ausgelegt worden ist und wenn man von Anfang an erstmal nur 3 davon nutzt...sage ich nichts dagegen. Da ist nur freischalten notwendig.
Aber hier wurde surgeriert, dass aus einem ursprünglich 12 Pipe Chip (3xPP) ein 4xPP Chip wurde. Und das ist in "letzter Minute" nicht mehr drin. Tapeout, produktion, samples, debugging, neues Tapeout, feintunig, Massenproduktion das braucht eben alles Zeit.
Das Schlimme ist, dass das aber viele glauben, dass man recht flott was dran ändern kann.
P.S zu deiner spitzen Bemerkung werde ich mich nicht äußern, da OT.
Winter[Raven]
2004-04-09, 18:14:11
Was könnte dat für ein Teil sein ?
http://home.cogeco.ca/~sferguson7/Nv40_DT_zoom.jpg
Quasar
2004-04-09, 18:25:26
Ein Piepser...
@robbitop:
Wo wurde da was "suggeriert"?
Im Gegentum steht da eher was von "So soll man in Kanada ursprünglich nur einen Chip mit eben jenen zwölfen entwickelt haben, später aber nochmals auf eine höhere Ausbaustufe umgestiegen sein."
und
"Allerdings handelt es sich hierbei nur um Spekulationen, so dass auch die X800 Pro gut und gerne schon 16 besitzen könnte und die X800 XT nur höhere Taktraten besitzt. Letzteres ist in unseren Augen auch wahrscheinlicher, hatte ATi doch in den letzten Monaten genug Zeit, um auf den NV40 von nVidia zu reagieren."
In meinen Augen wird da eher nichts suggeriert - schon gar nicht so, wie du's in deinem verkürzten Zitat Original geschrieben von robbitop
".. später aber nochmals auf eine höhere Ausbaustufe umgestiegen sein. Im Dezember des letzten Jahres soll ATi Wind von nVidias NV40 und seinen 16 Pipelines bekommen und entsprechend darauf reagiert haben...."
Quelle CB
LOL???
Klar die ändern noch schnell die VPU um, ist ja kein Problem. ..kein Kommentar implizierst, gewürzt mit einem "spitzen" lol und "kein Kommentar.
Kann ja nicht jeder so ein krasser Checker sein, wie du, oder?
robbitop
2004-04-09, 18:33:07
kann nicht jeder sein das ist wohl wahr :D
mal im Ernst..
habe es mir wohl nicht genau genug durchgelesen, habe im Moment wohl ne scheiss Phase erwischt...
Quasar
2004-04-09, 18:43:27
k, Schwamm drüber. Bin auch momentan etwas gestresst...
Original geschrieben von Winter[Raven]
Was könnte dat für ein Teil sein ?
http://home.cogeco.ca/~sferguson7/Nv40_DT_zoom.jpg Ein Miniaturlautsprecher, aller Wahrscheinlichkeit nach nur dazu da, bei einem Lüfterausfall oder Überhitzung auch ohne Treiberhilfe akustisch Alarm zu schlagen.
Original geschrieben von MarioK
OT:
hab mich auch gefragt:
man hat FC in 800 x 600 no AA, das wird auf TFT mit 1600x1200 hochinterpoliert,
was kriegt mann dann super AA (Texturen werden geglatet) oder blur ??
wie wirkt sich AF drauf ??? AA ist sicher nicht für Texturglättung da, sondern für Kantenglättung. 800x600 auf 1600x1200 hochzuinterpolieren resultiert natürlich in einem umscharfen Bild. Immerhin stehen gegenüber echter 1600x1200-er Auflösung nur 25% der Informationen zur Verfügung.
Jo das müsste ein Piezo Lautsprecher sein oder wie die Dinger heißen, mein Mobo hat auch so einen. Das könnte ein Problem werden für Leute die die Graka z.b. mit nem anderen Kühler kühlen wollen, da der Lüfter dann in den meisten Fällen nicht aufs Graka Board passt sondern extern irgendwo eingestöpselt wird. Hoffentlich kann man den per Jumper ausschalten.
Vielleicht gibt das Ding aber auch nur ein POST Signal von sich wie jedes Mainboard :???:
gibts am 14.4 eigentlich tests von unabhängigen Seiten oder nur eine Präsentation von Nvidia wie auf der Comdex 2002 mit dem NV30??
LovesuckZ
2004-04-09, 19:28:58
Original geschrieben von Gast
gibts am 14.4 eigentlich tests von unabhängigen Seiten oder nur eine Präsentation von Nvidia wie auf der Comdex 2002 mit dem NV30??
Anscheinend unabhaengige Test. Jedenfalls habe, laut digitalwanderer, ein Freund von ihm schon eine karte.
Wahrscheinlich auch Leo :)
Godmode
2004-04-09, 19:31:27
http://www.nvnews.net/vbulletin/showthread.php?t=27119
etwas nach unten scrollen! Warum ist jetzt nur mehr ein Molex Stecker drauf? ist das ein Fake?
Winter[Raven]
2004-04-09, 19:34:09
@ Love
Jap, Leo hatt den NV40, und ja es wird am 14 Ne Test vn 3D Center geben Von B3d glaub ich auch sowie Nvnews wenn ich mich nicht irre.
Leo hat den NV40? :o :o Ich hoffe doch nicht zu Hause.
Carlo28
2004-04-09, 19:37:21
Borsti von Rivastation.com hat den auch schon und er meint das er doppelt so schnell ist als... und beim FSAA nachgebessert wurde.
LovesuckZ
2004-04-09, 19:37:52
Original geschrieben von bans3i
http://www.nvnews.net/vbulletin/showthread.php?t=27119
etwas nach unten scrollen! Warum ist jetzt nur mehr ein Molex Stecker drauf? ist das ein Fake?
Maximum PC scheint eine große und bekannte game Zeitschrift zu sein. Vielleicht haben die ja schon eine Karte gehabt und dürften schonmal ein kleines Preview geben.
Also bis auf ein paar vage Specs kann ich da nix sehen bei MaxPC. Die haben ja nicht mal den endgültigen Core Takt. Benches gibs auch keine. Halte ich für unwahrscheinlich dass die ne KArte hatten.
LovesuckZ
2004-04-09, 19:40:46
Original geschrieben von Carlo28
Borsti von Rivastation.com hat den auch schon und er meint das er doppelt so schnell ist als...
Sag schon :)
Demirug
2004-04-09, 19:41:57
Original geschrieben von LovesuckZ
Maximum PC scheint eine große und bekannte game Zeitschrift zu sein. Vielleicht haben die ja schon eine Karte gehabt und dürften schonmal ein kleines Preview geben.
Ja, die sind gross und auch bekannt. Von GPU Technik haben sie allerdings sehr wenig Ahnung. Die Technikbeschreibung bezüglich der Shaderpipes ist Witz hoch 3. Das passt hinten und vorne nicht zusammen.
Carlo28
2004-04-09, 19:42:02
Original geschrieben von LovesuckZ
Sag schon :)
Also ich weiss nix. Ich hab das lediglich dort im Forum gelesen.
http://www.rivastation.com/cgi-bin/dcforum99/dcboard.cgi?az=read_count&om=11555&forum=grafik
LovesuckZ
2004-04-09, 19:44:24
Original geschrieben von thop
Halte ich für unwahrscheinlich dass die ne KArte hatten.
Steht ja auch drinne im Text.
Also auf Borsti kann man IMHO leider nicht viel geben. Ich erinnere nur an Auftritte bei GIGA wo er vom NV30 erzählt hat oder paar Artikel auf THG.
Vieleicht täusche ich mich diesmal aber auch.
Carlo28
2004-04-09, 19:47:21
Also wenn Borsti meint er hat das Teil schon , dann hat er das auch. In den letzten Jahren hatte er auch vor dem Releaseday so einiges durchblicken lassen was sich auch bestätigt hat. Lassen wir uns überraschen.
MfG
LovesuckZ
2004-04-09, 19:47:31
Original geschrieben von thop
Vieleicht täusche ich mich diesmal aber auch.
Aus Sicht einiger Fanatiker hat er sich stark gebessert und wird auch desöfteren als Argument für die Stärke bzw. Schwäche von ATi- bzw. Nvidiakarten herangeführt.
Stellen wir mal eine Hypothese auf:
Borsti
Mit der Performance kommen auch noch andere Aspekte zum Zuge. Wenn einer bei 4x FSAA in 1600x1200 nun fast genauso schnell ist als der andere in 1024x768 bei 4xfsaa, was soll man denn dann nun Äpfel zu Äpfel vergleichen?
:D
Carlo: Also dass der den NV40 hat das glaube ich 100%, nur bei der Bewertung bin ich skeptish :)
PS. Der "andere" kann eigentlich nur die 9800XT sein oder?
LovesuckZ
2004-04-09, 19:53:30
Original geschrieben von thop
PS. Der "andere" kann eigentlich nur die 9800XT sein oder?
r420 *eg*
Alles andere wäre vernichtend für Nvidia. Doppelt so schnell müsste das eigentliche Ziel sein, um gegen den r420 und seine Abkömmlinge bestehen zu können.
Carlo28
2004-04-09, 20:02:03
Original geschrieben von thop
Carlo: Also dass der den NV40 hat das glaube ich 100%, nur bei der Bewertung bin ich skeptish :)
PS. Der "andere" kann eigentlich nur die 9800XT sein oder?
Ich hoffe nur das auch die richtigen Games getestet werden z.b. Farcry mit HighDetailsettings so kann man sich ein Bild davon machen wie sich die Karte mit den Nextgen Games schlagen wird.
Nachdem Borsti die 9800XT als beste Karte hochgepriesen hat wird er diese sicherlich auch meinen. Die Frage ist nur bei welchen Settings...
MfG
Godmode
2004-04-09, 20:11:27
Was ist den dass?
LovesuckZ
2004-04-09, 20:11:40
Everything out of the Shaders
So, 220 million transistors, 16 Pipelines, 400MHz GPU clock, 550MHz memory clock, memory specifications, thermal power of circa 150-160W, thermal control designs, power requirements, retail product name, product briefing dates, launch dates, retail availability and 3DMark 2003 performance scores, what other fundamentals haven't we reported? Ah yes, the final part of the NV40 puzzle we can reveal today, is that it has has six Vertex Shaders.
(http://www.theinquirer.net/?article=15265)
StefanV
2004-04-09, 20:13:01
Original geschrieben von bans3i
Was ist den dass?
Kühler für die Spannungsregler.
Today we can confirm that Nvidia recommends that the PSU for GeForce 6800 Ultra should be no less than a stonking 480W!
:o :o
Exxtreme
2004-04-09, 20:20:40
480W! OMG! :o :o Und ich dachte, ich wäre mit meinem Antec Truepower mit 420W auf der sicheren Seite. ;(
Original geschrieben von Exxtreme
480W! OMG! :o :o Und ich dachte, ich wäre mit meinem Antec Truepower mit 420W auf der sicheren Seite. ;( nja 480 watt müssen ja nicht gleich wirklich 480 sein.
Denke da in richtung gutes und schlechtes netzteil.
Demirug
2004-04-09, 20:24:40
Wie kann Inq etwas "confirmen" obwohl sie nie NDAs unterschreiben bzw von nVidia ja nicht einmal mehr eine zum Unterschreiben bekommen?
Quasar
2004-04-09, 20:24:49
Wow, INQ denkt sich da ja wieder lustige Dinge aus....
Also ich werde mein Tagan 380W auf jeden Fall nicht upgraden, egal für welchen Chip. Denn zu den 150W von der Graka kommt ja noch die höhere Verlustleistung bei höherwattigen PSUs dazu.
Er schreibt ja noch dass die 480W kein cheap ass PSU sein soll, also z.b. so Dinger die bei eBay angeblich 550W haben, aber net mal gegen nen ordentliches 400W anstinken können. Ich denke dass Antec 420W dürfte grad so reichen.
inq ist beleidigt :)
http://www.theinquirer.net/?article=15265
robbitop
2004-04-09, 20:49:02
zu Recht...die Hersteller leaken momentan die seltsamsten Sachen um die Leute zu verwirren.
Ich würde ersteinmal GARNICHTS mehr glauben.
Leute wir haben noch ein paar Tage und dann wissen wir ja wie es letztendlich aussieht.
deekey777
2004-04-09, 20:51:57
Original geschrieben von thop
Also ich werde mein Tagan 380W auf jeden Fall nicht upgraden, egal für welchen Chip. Denn zu den 150W von der Graka kommt ja noch die höhere Verlustleistung bei höherwattigen PSUs dazu.
Er schreibt ja noch dass die 480W kein cheap ass PSU sein soll, also z.b. so Dinger die bei eBay angeblich 550W haben, aber net mal gegen nen ordentliches 400W anstinken können. Ich denke dass Antec 420W dürfte grad so reichen.
Oh Backe, das tut weh...
seahawk
2004-04-09, 20:56:57
Original geschrieben von thop
Carlo: Also dass der den NV40 hat das glaube ich 100%, nur bei der Bewertung bin ich skeptish :)
PS. Der "andere" kann eigentlich nur die 9800XT sein oder?
FX5950 Ultra
http://www.justgamers.de/?page=news&news_id=17161
Der Link ist doch schon alt. Das einzig schöne finde ich: Laut PC Games Hardware soll die Leistung des NV 40 bis zu 7 mal schneller sein als der NV 35 (FX 5900) :bonk: ;D
LovesuckZ
2004-04-09, 21:15:54
Original geschrieben von thop
Der Link ist doch schon alt. Das einzig schöne finde ich: Laut PC Games Hardware soll die Leistung des NV 40 bis zu 7 mal schneller sein als der NV 35 (FX 5900) :bonk: ;D
Das ist kein Problem...
Demirug
2004-04-09, 21:21:34
Original geschrieben von thop
Der Link ist doch schon alt. Das einzig schöne finde ich: Laut PC Games Hardware soll die Leistung des NV 40 bis zu 7 mal schneller sein als der NV 35 (FX 5900) :bonk: ;D
Wenn ich mich richtig erinnere wurde da von der Shaderleistung gesprochen.
ShadowXX
2004-04-09, 21:27:56
Original geschrieben von robbitop
zu Recht...die Hersteller leaken momentan die seltsamsten Sachen um die Leute zu verwirren.
Ich würde ersteinmal GARNICHTS mehr glauben.
Leute wir haben noch ein paar Tage und dann wissen wir ja wie es letztendlich aussieht.
Full ack...und zwar in bezug auf nV und ATI....
Original geschrieben von Demirug
Wenn ich mich richtig erinnere wurde da von der Shaderleistung gesprochen. Angenommen, deine Beispielrechnung zur arithmetischen Leistung beim NV40 sei richtig, dann könnte man sagen, dass in einigen Situationen der NV40 von der Shaderleistung her auch noch schneller als 7x ggü. NV35 sein könnte. Hängt einfach davon ab, wie ineffizient der NV35 bei einem gegebenen Shader rechnet. Man könnte Shader erfinden, die exakt auf den NV40 zugeschnitten sind und gleichzeitig extrem langsam auf dem NV35 laufen.
In der Praxis bringt eine neue Architektur vielleicht 2x die Leistung des Vorgängers. Da die Shaderberechnungen nun besonders ineffektiv bei CineFX(2) sind, könnte es schon sein, dass der NV40 im Schnitt 3x oder 4x schneller ist.
Wie du schon darauf hingewiesen hast, die Shaderleistung alleine sagt wenig über die Gesamtleistung aus. (Heutzutage sind Spiele mit Riesenshadern einfach noch nicht "in".)
Demirug
2004-04-09, 21:40:10
Original geschrieben von aths
Angenommen, deine Beispielrechnung zur arithmetischen Leistung beim NV40 sei richtig, dann könnte man sagen, dass in einigen Situationen der NV40 von der Shaderleistung her auch noch schneller als 7x ggü. NV35 sein könnte. Hängt einfach davon ab, wie ineffizient der NV35 bei einem gegebenen Shader rechnet. Man könnte Shader erfinden, die exakt auf den NV40 zugeschnitten sind und gleichzeitig extrem langsam auf dem NV35 laufen.
Ich denke auf diese Weise könnte man sogar Faktor 10 erreichen.
In der Praxis bringt eine neue Architektur vielleicht 2x die Leistung des Vorgängers. Da die Shaderberechnungen nun besonders ineffektiv bei CineFX(2) sind, könnte es schon sein, dass der NV40 im Schnitt 3x oder 4x schneller ist.
Bezieht sich das 2x bei dir jetzt nur auf eine Architekturänderung oder auf einen Chip zu Chip Vergleich.
Bei einer reinen Architekturänderung wäre NV40 ja dann nur 8x1. Da im Moment aber von 16*1 ausgegangen wird hätten wir ja eine Architekturänderung und eine Einheitenverdoppelung.
CineFX 2 ist noch ineffektiver als CineFX 1. Aber 2 hat eben mehr Rohleistung.
Wie du schon darauf hingewiesen hast, die Shaderleistung alleine sagt wenig über die Gesamtleistung aus. (Heutzutage sind Spiele mit Riesenshadern einfach noch nicht "in".)
Richtig, Spiele wie UT hängen an der Fillrateflasche.
LovesuckZ
2004-04-09, 21:43:07
Original geschrieben von Demirug
Richtig, Spiele wie UT hängen an der Fillrateflasche.
Und man koennte in einigen maps dann vierfach so schnell sein.
Demirug
2004-04-09, 22:08:14
Original geschrieben von LovesuckZ
Und man koennte in einigen maps dann vierfach so schnell sein.
Wie kommst du darauf? Gegenüber einer 4*2 Konfiguration ist eine 16*1 ja nur doppelte so stark wenn es um die Fillrate geht. Möglicherweise noch etwas mehr durch die bessere Granularität aber das war es dann auch. UT wird also sicherlich nicht 4 mal so schnell laufen.
Aqualon
2004-04-10, 00:12:37
Original geschrieben von Demirug
UT wird also sicherlich nicht 4 mal so schnell laufen.
Vorallem ist UT extrem prozessorabhängig und wie man im letzten Roundup hier auf 3DCenter gesehen hat, muss man die Auflösung + AF/AA sehr hoch einstellen, um messbare Unterschiede zwischen den Grafikkarten zeigen zu können.
Bei UT2003 (http://3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_b.php) in 1280*960 mit 8xAF bringen die 38% mehr Fillrate der R9800 Pro im Vergleich zur R9500 Pro gerade mal 17% mehr Leistung.
Aqua
Quasar
2004-04-10, 00:26:55
Ich glaube, LS bezieht sich hier auf die verdächtig guten Werte, die mal eine FX5700U bei den xBit Labs erreichte und die logisch nur mit massivem Single-Texturing begründbar schienen....
Sphinx
2004-04-10, 00:57:28
Original geschrieben von Carlo28
Borsti von Rivastation.com hat den auch schon und er meint das er doppelt so schnell ist als... und beim FSAA nachgebessert wurde.
Borsti´s Antwort Bezog sich auf diese Frage : Würdest du zumindest die Güte besitzen, einen groben Faktor des Geschwindigkeitszuwachses gegenüber der aktuellen Grakageneration zu nennen?
Ailuros
2004-04-10, 02:21:08
Original geschrieben von LovesuckZ
r420 *eg*
Alles andere wäre vernichtend für Nvidia. Doppelt so schnell müsste das eigentliche Ziel sein, um gegen den r420 und seine Abkömmlinge bestehen zu können.
Nicht ueberall :bäh:
hrhrhrhr ;D
MööpMööp
2004-04-10, 03:34:59
Also ich finde das sehr interessant :
During the briefing Nvidia did not shy away from getting down to detail about the NV40' features, of which some reminded us of 3dfx’ Rampage, a design which never made it to the market and to which Nvidia now owns the rights. But honestly the NV40 architecture is every bit as revolutionary as Geforce was
p.s.: Hab auf den letzten 10Seiten nix davon zu lesen gesehen, falls das schon erwähnt wurde, sry.
Demirug
2004-04-10, 09:47:53
Original geschrieben von MööpMööp
Also ich finde das sehr interessant :
During the briefing Nvidia did not shy away from getting down to detail about the NV40' features, of which some reminded us of 3dfx’ Rampage, a design which never made it to the market and to which Nvidia now owns the rights. But honestly the NV40 architecture is every bit as revolutionary as Geforce was
p.s.: Hab auf den letzten 10Seiten nix davon zu lesen gesehen, falls das schon erwähnt wurde, sry.
Interesant finde ich daran nur das lediglich eine Seite auf diese Idee gekommen ist.
Wobei ich mich ernsthaft frage welche Features das sein sollen. Alles was Rampage konnte war schon durch den NV30 abgedeckt. Wenn es nun nur um das Design geht so liegen zwischen Rampage und NV40 Welten.
LovesuckZ
2004-04-10, 10:37:14
The Baron
3DMark scores on the 400Mhz boards aren't very far off that. However, the GDC boards were what, 475/600, and the review boards are 400/550. From the disparity between the scores, it's completely and utterly bandwidth limited. (http://www.beyond3d.com/forum/viewtopic.php?p=253416#253416)
Sollte das Stimmen wegen dem Coretakt, dann hat Nvidia keine Chance gegen ATi!
Schade eigentlich, aber dann wird die 6800U wenigsten schön billig und liegt auf dem Preisniveau einer X800.
StefanV
2004-04-10, 10:44:57
Original geschrieben von LovesuckZ
The Baron
3DMark scores on the 400Mhz boards aren't very far off that. However, the GDC boards were what, 475/600, and the review boards are 400/550. From the disparity between the scores, it's completely and utterly bandwidth limited. (http://www.beyond3d.com/forum/viewtopic.php?p=253416#253416)
Sollte das Stimmen wegen dem Coretakt, dann hat Nvidia keine Chance gegen ATi!
Schade eigentlich, aber dann wird die 6800U wenigsten schön billig und liegt auf dem Preisniveau einer X800.
Anscheinend tut nV das, was ich denen bei der nV30 angekreidet hab:
Nicht zwanghaft versuchen #1 zu sein und lieber ein gutes Produkt mit einigen Mängeln und lieber den Core und Speicher etwas niedriger Takten, damit man eine anständige Kühlung verbauen kann...
Godmode
2004-04-10, 10:48:36
Original geschrieben von LovesuckZ
The Baron
3DMark scores on the 400Mhz boards aren't very far off that. However, the GDC boards were what, 475/600, and the review boards are 400/550. From the disparity between the scores, it's completely and utterly bandwidth limited. (http://www.beyond3d.com/forum/viewtopic.php?p=253416#253416)
Sollte das Stimmen wegen dem Coretakt, dann hat Nvidia keine Chance gegen ATi!
Schade eigentlich, aber dann wird die 6800U wenigsten schön billig und liegt auf dem Preisniveau einer X800.
Warum? wir wissen doch gar nicht wieviel bei den Pipes hinten rauskommt?
LovesuckZ
2004-04-10, 10:51:14
Original geschrieben von Stefan Payne
Nicht zwanghaft versuchen #1 zu sein [...]
Es geht ja nicht auf Teufel komm raus wieder erster zu sein. Man ist einfach mit diesem Takt nicht in der Lage, ATi angreifen zu können.
Natuerlich ist alles nicht sicher, aber ich gehe davon aus, dass der X800 mit einem Coretak von 500 daher kommt und dann schon alleine so schnell sein wird, wie das Topmodell von Nvidia. Wenn ATi dann noch den X800 XT mit 16 pipes bringt, haben sie eine uneingeschränkte High - End Führung von über 20-30%. Dazu noch das bessere AA und wohl besseres AF...
Das wiederum koennte aber dazu führen, dass Nvidia hofentlich ihren "brilinear" Mist abstellt.
dildo4u
2004-04-10, 10:55:35
Original geschrieben von LovesuckZ
Es geht ja nicht auf Teufel komm raus wieder erster zu sein. Man ist einfach mit diesem Takt nicht in der Lage, ATi angreifen zu können.
Natuerlich ist alles nicht sicher, aber ich gehe davon aus, dass der X800 mit einem Coretak von 500 daher kommt und dann schon alleine so schnell sein wird, wie das Topmodell von Nvidia. Wenn ATi dann noch den X800 XT mit 16 pipes bringt, haben sie eine uneingeschränkte High - End Führung von über 20-30%. Dazu noch das bessere AA und wohl besseres AF...
Das wiederum koennte aber dazu führen, dass Nvidia hofentlich ihren "brilinear" Mist abstellt. hä steht doch da das die karte bandbreiten limitiert ist wird bei ati nicht anders sein und vom speichertakt her glaub ick nicht das da nv schlechter als ati sein wird eher wird nv den höheren speicher takt haben
LovesuckZ
2004-04-10, 10:58:56
Original geschrieben von dildo4u
hä steht doch da das die karte bandbreiten limitiert ist wird bei ati nicht anders sein und vom speichertakt her glaub ick nicht das da nv schlechter als ati sein wird eher wird nv den höheren speicher takt haben
Bandbreite limtiert aber unter DX9 Anwendungen, die starken Gebrauch von PS/VS machen nicht mehr so stark.
(del676)
2004-04-10, 11:00:05
Original geschrieben von LovesuckZ
The Baron
3DMark scores on the 400Mhz boards aren't very far off that. However, the GDC boards were what, 475/600, and the review boards are 400/550. From the disparity between the scores, it's completely and utterly bandwidth limited. (http://www.beyond3d.com/forum/viewtopic.php?p=253416#253416)
Sollte das Stimmen wegen dem Coretakt, dann hat Nvidia keine Chance gegen ATi!
Schade eigentlich, aber dann wird die 6800U wenigsten schön billig und liegt auf dem Preisniveau einer X800.
warum redest du von der 6800U????
wer sagt denn das 400/550 die taktraten der ultra sind :eyes: ???
StefanV
2004-04-10, 11:00:38
Original geschrieben von LovesuckZ
Bandbreite limtiert aber unter DX9 Anwendungen, die starken Gebrauch von PS/VS machen nicht mehr so stark.
Erstmal abwarten und Tee rauchen...
Demirug
2004-04-10, 11:03:06
Taktraten sind nicht alles. Man muss sicherlich noch abwarten mit welcher Taktrate die 16 Pipe Version von ATI betrieben werden kann.
Solange es keine schnelleren Speicher gibt macht es bei Fillratelastigen Spielen kaum Sinn den Core so hoch zu takten. Bei 16Pipes@500MHz mit 600 MHz speicher fressen aleine die TMUs ja schon fast die gesamte Bandbreite.
Bei Shaderlastigen Sachen sagt die Taktfrequenz nun aber gar nichts solange wir nicht wissen wie effektiv die Pixelprozessoren einen Shader abarbeiten können. Hier kommt dann langsam das CPU verhalten zum tragen.
LovesuckZ
2004-04-10, 11:03:27
Original geschrieben von Ulukay
warum redest du von der 6800U????
wer sagt denn das 400/550 die taktraten der ultra sind :eyes: ???
Warum sollte Nvidia nur die normale Version an die Reviewer rausschicken? Das haben sie bis jetzt noch nicht getan, und waere bei dem jetzigen Standing auch nicht gerade verkaufsfördern.
Demirug
2004-04-10, 11:06:03
Original geschrieben von LovesuckZ
Bandbreite limtiert aber unter DX9 Anwendungen, die starken Gebrauch von PS/VS machen nicht mehr so stark.
Das hängt auch bei DX9 Shadern stark vom Verhältniss der benötigten Fillrate zur benötigten Rechenleistung ab. Ich würde bei den second gen DX9 Karten aber eher rechnen als Texturen auslesen. JC hat ja schon vor langer Zeit ebenfalls eine solche Behauptung aufgestellt.
Demirug
2004-04-10, 11:06:55
Original geschrieben von LovesuckZ
Warum sollte Nvidia nur die normale Version an die Reviewer rausschicken? Das haben sie bis jetzt noch nicht getan, und waere bei dem jetzigen Standing auch nicht gerade verkaufsfördern.
Vielleicht weil sie für die Ultras den nötigen Speicher nicht bekommen konten und jetzt nicht mehr länger warten wollten?
robbitop
2004-04-10, 11:15:11
zZ kann man sowieso GAR NIX mehr glauben, was man liesst von en neuen VPUs...
LovesuckZ
2004-04-10, 11:22:15
Original geschrieben von Demirug
Vielleicht weil sie für die Ultras den nötigen Speicher nicht bekommen konten und jetzt nicht mehr länger warten wollten?
Und gleichzeitig den Chiptakt im Vergleich zur GDC um über fast 20% senken? Ich meine, ATi wird auch keinen höheren Speicher zur Verfügung haben, da hätte Nvidia mit einen hohen Coretakt wenigsten unter DX9 punkten können (jaja, Effiziens, wer weiß, ob diese bei nvidia besser ist...).
Demirug
2004-04-10, 11:27:56
Original geschrieben von LovesuckZ
Und gleichzeitig den Chiptakt im Vergleich zur GDC um über fast 20% senken? Ich meine, ATi wird auch keinen höheren Speicher zur Verfügung haben, da hätte Nvidia mit einen hohen Coretakt wenigsten unter DX9 punkten können (jaja, Effiziens, wer weiß, ob diese bei nvidia besser ist...).
Vielleicht haben die Tests ergeben das eine 475MHz Variante mit 550 MHz Speicher nur sehr unwesentlich schneller als eine 400MHz Variante ist (bei den Sachen die im Moment zum schreiben der Reviews benutzt werden). Also wirft man zuerst mal eine 400/550 Variante auf den Markt um dann wenn man schnelleren Speicher hat zum Beispiel eine 475/700 zu bringen. Irgendwie muss man das Loch bis zum NV50 ja füllen.
Winter[Raven]
2004-04-10, 11:30:55
Ich muss robbitop zustimmen, es könnte sich schon wieder um eine Desinformationskampagne handeln.
Hat Baron ein NDA unterschrieben? woher weiß er das die Karten mit 400 laufen und es sich um die Ultras handelt?
Wären die ultras wirklich mit 400 getaktet, dann hätte ja Nvidia ihr Ziel von 600 mhz um 200 mhz verfehlt.
Glaub ich kaum Love.
robbitop
2004-04-10, 11:31:22
400MHz klingt aber wirklich sehr wenig, wobei das nicht soo undenkbar ist.
Aber stimmt, für den Refresh muss man auch noch was lassen. Aber wie soll denn die NonUltra aussehen? 350/450??
für mich klingt 400MHz und die einslot Lösung nach NonUltra. Die Leutings von der CeBIT erzählten was von einer 2 Slotlösung ähnlich der des NV38..
LovesuckZ
2004-04-10, 11:31:26
Original geschrieben von Demirug
Vielleicht haben die Tests ergeben das eine 475MHz Variante mit 550 MHz Speicher nur sehr unwesentlich schneller als eine 400MHz Variante ist (bei den Sachen die im Moment zum schreiben der Reviews benutzt werden).
Alte Spiele bzw. solche wie UT2004 sollten kaum eine Bedeutung bei der Entwicklung gehabt haben, da für diese Spiele selbst die heutigen Karten schon sehr gut ausreichen.
Wie sieht es aber in heutigen Spielen aus, die Gebrauch von PS2.0 machen? Koennte der NV40 da auch schon an die Grenze zur Bandbreitenlimitierung kommen?
Original geschrieben von robbitop
400MHz klingt aber wirklich sehr wenig, wobei das nicht soo undenkbar ist.
Aber stimmt, für den Refresh muss man auch noch was lassen. Aber wie soll denn die NonUltra aussehen? 350/450??
für mich klingt 400MHz und die einslot Lösung nach NonUltra. Die Leutings von der CeBIT erzählten was von einer 2 Slotlösung ähnlich der des NV38..
Vorallem was mich verwundert sind die nur 550 Mhz beim Ram.
Sind die Speicherhersteller wirklich erst so weit?
Ich mein 500 Mhz haben sie ja schon vor über nem Jahr geschafft, ok es was ziemlich erzwungen, aber möglich. Deswegen sollten doch mind. 600 Mhz möglich sein, wovon man ja auch die ganze Zeit ausgegangen ist...
LovesuckZ
2004-04-10, 11:43:03
Original geschrieben von Winter[Raven]
Hat Baron ein NDA unterschrieben? woher weiß er das die Karten mit 400 laufen und es sich um die Ultras handelt?
Nein, hat er nicht. Er kennt aber anscheinend jemanden, der eine karte hat. Ich denke nicht, dass er lügt, ansonsten werde es ihn danach ziemlich schlecht im Beyond3d.com Forum ergehn.
Wären die ultras wirklich mit 400 getaktet, dann hätte ja Nvidia ihr Ziel von 600 mhz um 200 mhz verfehlt.
Naja, 600MHZ bei 16 Pipes finde ich zur zeit einfach noch utopisch. Das wird auch ATi bei der XT version, sollte diese über 16 verfügen, nicht schaffen.
Demirug
2004-04-10, 11:48:31
Original geschrieben von LovesuckZ
Alte Spiele bzw. solche wie UT2004 sollten kaum eine Bedeutung bei der Entwicklung gehabt haben, da für diese Spiele selbst die heutigen Karten schon sehr gut ausreichen.
Wie sieht es aber in heutigen Spielen aus, die Gebrauch von PS2.0 machen? Koennte der NV40 da auch schon an die Grenze zur Bandbreitenlimitierung kommen?
Es kommt wie gesagt auf das T-Ops/A-Ops Verhältniss an.
Für jede T-Op geht in den TMUs mindestens ein Takt drauf. Bei besseren Filtern entsprechend mehr. Da die Besitzer von Highendkarten ja mindestens mit Tri und wohl auch etwas AF spielen werden kostet eine T-Op mehr als einen Takt. Bei den A-Ops kommt jetzt die Effiziens ins Spiel. Der R300 braucht oft nur einen halben Takt für eine A-Op. Sagen wir der einfachheit einfach mal das beim R300 im durchschnitt 3 Takte für eine T-Op benötigt werden und 0,75 Takte für eine A-Op. Dann kommen auf jede T-Op 4 A-Ops. Damit dürften sich dann auch noch viele Shader im Fillrate limit bewegen. IMHO darf man nun davon ausgehen das nVidia mindestens die Effizienz eines R300 bei den AOps erreicht. Natürlich wird es auch Shader geben die ein anderes Verhältniss haben aber man muss da ein wenig Mitteln.
tnt ultra 175
Gf1 125 und er wahr schneller:)
da alle die inefizienz der nv3x serie bemängelen wird die pro takt leistung hoch sein
Demirug
2004-04-10, 11:50:30
Original geschrieben von burk23
Vorallem was mich verwundert sind die nur 550 Mhz beim Ram.
Sind die Speicherhersteller wirklich erst so weit?
Ich mein 500 Mhz haben sie ja schon vor über nem Jahr geschafft, ok es was ziemlich erzwungen, aber möglich. Deswegen sollten doch mind. 600 Mhz möglich sein, wovon man ja auch die ganze Zeit ausgegangen ist...
Die 500 MHz waren GDDR2 und das hat sich als technologische Sackgasse herausgestellt. Man musste also mit GDDR3 wieder bei 500 MHz neu anfangen.
Winter[Raven]
2004-04-10, 11:51:43
@ Love
Auch wenn, so kann er aber nicht 100% sagen es handle sich um eine ultra. Ich tippe derzeit eindeutig auf die NON Ultra, den das wäre auch das gegenstück zur NV30 NON ULtra, bin fest davon überzeugt die ultra wartet auf den Samsungspeicher, genauso wie ATI mit ihrer 16 pipe.
Ailuros
2004-04-10, 11:52:38
Original geschrieben von robbitop
400MHz klingt aber wirklich sehr wenig, wobei das nicht soo undenkbar ist.
Aber stimmt, für den Refresh muss man auch noch was lassen. Aber wie soll denn die NonUltra aussehen? 350/450??
für mich klingt 400MHz und die einslot Lösung nach NonUltra. Die Leutings von der CeBIT erzählten was von einer 2 Slotlösung ähnlich der des NV38..
Was ist wenig und was ist viel und was genau setzt den Massstab?
Einfaches Beispiel:
GeForce 2 Ultra= 250MHz
GeForce 3= 200MHz
Taktraten gehoeren zum gleichen sinnlosen Zahlengewarkel wie alles andere und von sich alleine kein Massstab fuer generelle Effizienz.
Mehr Beispiele?:
R300@325MHz vs NV30@500MHz
R350@360MHz vs NV35@450MHz
R360@412MHz vs NV38@475MHz
Ganz einfache Frage: angenommen ich moechte einen chip bauen der genau 2x die Leistung einer R360 liefert als Beispiel. Wie sicher bist Du dass man es nicht sogar mit 350MHz schaffen koennte?
Vorallem was mich verwundert sind die nur 550 Mhz beim Ram.
Sind die Speicherhersteller wirklich erst so weit?
Ja und selbst da ist die Verfuegbarkeit noch eng.
Hat Baron ein NDA unterschrieben? woher weiß er das die Karten mit 400 laufen und es sich um die Ultras handelt?
Man braucht kein NDA zu unterschreiben um geleakte Infos zu bekommen. Muss ich Dir das jetzt beweisen?
Ich hab zwar keine Ahnung ob das obrige stimmt (ja ich warte wie immer auf eine Bestaetigung von einer zweiten Quelle), aber bis jetzt sah es in privaten Besprechungen so aus als ob Baron sehr gut informiert war. Er fand sogar die ersten geleakten Leistungsnummern "toll" nur hat er sich eben auf die falschen Zahlen konzentriert :P
Ailuros
2004-04-10, 11:56:36
Original geschrieben von Winter[Raven]
@ Love
Auch wenn, so kann er aber nicht 100% sagen es handle sich um eine ultra. Ich tippe derzeit eindeutig auf die NON Ultra, den das wäre auch das gegenstück zur NV30 NON ULtra, bin fest davon überzeugt die ultra wartet auf den Samsungspeicher, genauso wie ATI mit ihrer 16 pipe.
Der Unterschied zwischen NV35 und NV38 sind ganze 25MHz; wobei der Stromverbrauch fuer die beiden unter voller Last bei ~65 und ~90+W liegt und dass mit wieviel Transistoren?
Original geschrieben von Demirug
Die 500 MHz waren GDDR2 und das hat sich als technologische Sackgasse herausgestellt. Man musste also mit GDDR3 wieder bei 500 MHz neu anfangen.
Ich weiss, das bei GDDR-3 deutlich an der Leistungsaufnahme verbessert, aber angeblich soll ja auch die Taktbarkeit wesentlich besser sein, von daher finde ich 550 Mhz jetzt nicht so berauschend...
Ailuros
2004-04-10, 12:15:20
Ich bekomm sicher einen Tritt in den Hintern fuer diesen Kommentar, aber ich hab bessere Ideen Bandbreite zu behandeln als 50GB/sec schon jetzt zu benoetigen :P
Demirug
2004-04-10, 12:37:50
Original geschrieben von burk23
Ich weiss, das bei GDDR-3 deutlich an der Leistungsaufnahme verbessert, aber angeblich soll ja auch die Taktbarkeit wesentlich besser sein, von daher finde ich 550 Mhz jetzt nicht so berauschend...
GDDR3 hat in dem Bereich keinen zustätzlichen Tricks gegenüber GDDR2. Die Taktraten die man mit GDDR3 anstrebt wären auch mit GDDR2 möglich gewesen wenn man in der Lage gewesen wäre die Hitze abzuführen. wie gesagt letzten Endes war die GDDR2 Entwicklung mehr oder minder verlorene Zeit.
Demirug
2004-04-10, 12:41:26
Original geschrieben von Ailuros
Ich bekomm sicher einen Tritt in den Hintern fuer diesen Kommentar, aber ich hab bessere Ideen Bandbreite zu behandeln als 50GB/sec schon jetzt zu benoetigen :P
Kompression hat ihrere Grenzen. Und komm mir jetzt bitte nicht mit einem TBDR. Wenn ich mir die benötigte Bandbreite zwischen dem VS und dem Rasterisiere anschaue sehe ich da auch schwarz.
LovesuckZ
2004-04-10, 13:41:07
Original geschrieben von Winter[Raven]
@ Love
Auch wenn, so kann er aber nicht 100% sagen es handle sich um eine ultra. Ich tippe derzeit eindeutig auf die NON Ultra, den das wäre auch das gegenstück zur NV30 NON ULtra,[...]
Ich bezweifel, dass Nvidia eine niedriger getaktete Karte zu den reviewer schickt. Der Sinn dahinter bleibt mir verborgen. In der jetzigen Lage kann Nvidia nicht weiter warten. Da ATi ihre Karten nicht vor ihnen präsentieren wird, könnte man ihnen eine Messlatte sehr weit hochlegen, technologisch wie speedmäßig.
Mit 400MHZ (und ja, ich denke dies ist die Ultra Ausführung des NV40) bleibt nicht mehr übrig als "ja, konkurenzfähig", aber nicht schneller.
bin fest davon überzeugt die ultra wartet auf den Samsungspeicher, genauso wie ATI mit ihrer 16 pipe.
NV45!
Godmode
2004-04-10, 13:44:45
http://www.theinquirer.net/?article=15268
Neues von :cop:FUAD:cop:
LovesuckZ
2004-04-10, 13:47:32
Nvidia officially told me a few days back in London that we won't get any samples from them since we are not a review site.
In fact, it likens us to The Sun, Britain's top newspaper.
;D
Winter[Raven]
2004-04-10, 13:51:00
Interessant das FUAD kein Wort zum Core und mhz verliert ^^. Nud das es 550 mhz für speicher gibt ................................ ;D
Hehe...
220mio Transistoren !
Wird immer mehr...
:D
Razor
betasilie
2004-04-10, 14:09:14
Original geschrieben von LovesuckZ
Es geht ja nicht auf Teufel komm raus wieder erster zu sein. Man ist einfach mit diesem Takt nicht in der Lage, ATi angreifen zu können.
Natuerlich ist alles nicht sicher, aber ich gehe davon aus, dass der X800 mit einem Coretak von 500 daher kommt und dann schon alleine so schnell sein wird, wie das Topmodell von Nvidia. Wenn ATi dann noch den X800 XT mit 16 pipes bringt, haben sie eine uneingeschränkte High - End Führung von über 20-30%. Dazu noch das bessere AA und wohl besseres AF...
Das wiederum koennte aber dazu führen, dass Nvidia hofentlich ihren "brilinear" Mist abstellt.
Krasse Worte aus deinem Mund. :o
Ich sehe das ähnlich, wenn es mit dem Takt so kommt. Aber meinst Du ernsthaft, dass ATI was am AF verbessert hat?
Winter[Raven]
2004-04-10, 14:12:02
Original geschrieben von r@e
Hehe...
220mio Transistoren !
Wird immer mehr...
:D
Razor
Warts noch ab was am Ende noch rauskommt .................................... *eg*
Exxtreme
2004-04-10, 14:16:35
Original geschrieben von betareverse
Ich sehe das ähnlich, wenn es mit dem Takt so kommt.
Naja, dummerweise wollen diese 16 Pipes auch mit Daten gefüttert werden und mit ~550 MHz DDR-RAM bei einem 256 Bit Speicherinterface wird's eng. Was noch helfen könnte wäre eine Lossles-Compression-Unit on Chip aber ich glaube nicht, daß ATi und/oder Nvidia sowas haben. Den einzigen grösseren Vorteil, den die 16 Pipes ggü. 12 Pipes hätten wäre Shaderpower.
betasilie
2004-04-10, 14:29:06
Original geschrieben von Exxtreme
Naja, dummerweise wollen diese 16 Pipes auch mit Daten gefüttert werden und mit ~550 MHz DDR-RAM bei einem 256 Bit Speicherinterface wird's eng. Was noch helfen könnte wäre eine Lossles-Compression-Unit on Chip aber ich glaube nicht, daß ATi und/oder Nvidia sowas haben. Den einzigen grösseren Vorteil, den die 16 Pipes ggü. 12 Pipes hätten wäre Shaderpower.
Da hast Du wohl nicht unrecht und die Frage ist wirklich ob die Chips lossless compression beherrschen oder nicht.
Und die Spiele und insbesondere Benchmarks werden immer shaderlastiger, daher wären 16 "pipes" imho schon nicht schlecht, auch wenn´s dann an der Bandbreite bremst.
Demirug
2004-04-10, 14:30:35
Original geschrieben von r@e
Hehe...
220mio Transistoren !
Wird immer mehr...
:D
Razor
Laut :cop: FUAD :cop: sind wir schon bei 222M.
Demirug
2004-04-10, 14:38:29
Original geschrieben von LovesuckZ
Ich bezweifel, dass Nvidia eine niedriger getaktete Karte zu den reviewer schickt. Der Sinn dahinter bleibt mir verborgen. In der jetzigen Lage kann Nvidia nicht weiter warten. Da ATi ihre Karten nicht vor ihnen präsentieren wird, könnte man ihnen eine Messlatte sehr weit hochlegen, technologisch wie speedmäßig.
Mit 400MHZ (und ja, ich denke dies ist die Ultra Ausführung des NV40) bleibt nicht mehr übrig als "ja, konkurenzfähig", aber nicht schneller.
Ja nVidia muss die Karten rausrücken weil sie ja schon öffentlich den Launch angekündigt haben.
Das sie technologisch vorne liegen werden ist aufgrund des Verhaltens von ATI auf der GDC ja schon fast sicher.
Beim Speed ist das alles noch in der Schwebe da wir nicht genau wissen was ATI den Reviewern geben wird. Bekommen die Reviewer eine 12 Pipe Variante und später nochmal eine 16 Pipe Variante dann muss nVidia gegen die letztere ja wieder etwas setzten. Rückt ATI gleich die 16 Pipe Version raus kann nVidia bei Bedarf versuchen mit einem höheren Coretakt zu kontern und ATI hätte dann wohl nichts mehr in der hinterhand. IMHO will sich nVidia hier einfach so viele Optionen wie möglich offen halten nachdem sie schon als erster die Karten auf den Tisch legen müssen.
robbitop
2004-04-10, 14:42:50
@beta
bei 16 Colorops/Takt und 32 Zixel/Ops benötigt man ca den 1,6 fachen Speichertakt vom Chiptakt um die Einheiten mit Inforamtionen zu versorgen und nicht ständig Bandbreitenlimitiert zu sein. Da man max 550MHz GDDR3 in "Massen" (vermutlich eher kleinere Stückzahlen) bekommt nützt es nichts, den Core höher zu drehen, da die Einheiten dann leerlaufen. Er würde wohl nicht signifikant schneller werden wenn der chip höher getaktet wäre, aber die Abwärme kann nun eben ersteinmal eingespart werden.
Und bei AA wird man sicher ordentlich Performancedrop haben, da man ja Bandbreiten limitiert ist (sehr hohe Grundperformance und in Relation DAZU eben sicher einen guten Verlust bei AA).
Dann hat man eben noch gut Spielraum zu den Refreshes. Die Fertigungstechnik ist bis dahin besser und bessere GDDR3s werden verfügbar sein.
Demirug
2004-04-10, 14:44:26
Original geschrieben von Exxtreme
Naja, dummerweise wollen diese 16 Pipes auch mit Daten gefüttert werden und mit ~550 MHz DDR-RAM bei einem 256 Bit Speicherinterface wird's eng. Was noch helfen könnte wäre eine Lossles-Compression-Unit on Chip aber ich glaube nicht, daß ATi und/oder Nvidia sowas haben.
Ehrlich gesagt sehe ich da die Kosten/Nutzen Relation auch nicht. Sicher machbar wäre es aber man muss sich Fragen ob man die Transistoren nicht besser nutzen kann. Das bezog sich jetzt nur auf reine Farbbuffer Kompression ohne AA.
Den einzigen grösseren Vorteil, den die 16 Pipes ggü. 12 Pipes hätten wäre Shaderpower.
Wirklich?
(del676)
2004-04-10, 14:46:07
Original geschrieben von betareverse
Krasse Worte aus deinem Mund. :o
Ich sehe das ähnlich, wenn es mit dem Takt so kommt. Aber meinst Du ernsthaft, dass ATI was am AF verbessert hat?
ATI MUSS was am AF verbessert haben, bei was denn sonst? bei AA seh ich keinen verbesserungsbedarf, dx9 läuft auch relativ gut, gleibt nur der Speed (der sowieso bei der neuen karte erhöht wird), die Treiber und eben AF
Godmode
2004-04-10, 14:49:35
Wäre es nicht möglich das sie einfach an die Reviewer Samples mit 800 MHz Ram schicken? Soviel 800 MHz Ram müsste doch schon vorhanden sein um ein paar Reviewboards zu fertigen?
LovesuckZ
2004-04-10, 14:49:38
Original geschrieben von betareverse
Aber meinst Du ernsthaft, dass ATI was am AF verbessert hat?
Ich gehe her davon aus, dass das AF sich bei den neuen NV Karten nochmal verschlechtert. Man hört einfach soviel darueber. Im besten Fall ist es nur eine Softwareoptimierung, im schlimmsten leider in Hardware.
Ob ATi etwas veränderts hat? Laut Hellbinder waere es besser geworden.
Hi;
da ich jetzt zu faul bin den ganzen 68-Seiten Thread durchzuschauen :
wurde eigentlich schon über die Kommentare/Hints von DaveBaumann diskutiert, das angeblich
1. der NV40 ein winkelabhängiges AF bekommt ( ala ATi-style )
2. die Reviewer keine Empfehlung für den NV40 geben werden können ( Spekulation: Speed oder Verfügbarkeit ???? IMHO Speed, da den meisten Reviewer alles andere egal ist)
I think you'll find that with NV40 reviews going out soon the information will encourage reviewers to "keep an open mind" when reviewing NV40.
aus dem letzten R420 Thread so auf Seite 8/18
Demirug
2004-04-10, 14:53:10
Original geschrieben von robbitop
@beta
bei 16 Colorops/Takt und 32 Zixel/Ops benötigt man ca den 1,6 fachen Speichertakt vom Chiptakt um die Einheiten mit Inforamtionen zu versorgen und nicht ständig Bandbreitenlimitiert zu sein. Da man max 550MHz GDDR3 in "Massen" (vermutlich eher kleinere Stückzahlen) bekommt nützt es nichts, den Core höher zu drehen, da die Einheiten dann leerlaufen. Er würde wohl nicht signifikant schneller werden wenn der chip höher getaktet wäre, aber die Abwärme kann nun eben ersteinmal eingespart werden.
Zixel sind eigentlich recht günstig. (1 Byte rein und ein Byte raus) Bei Colorops spielt es eine grosse Rolle ob die Alphablend Einheit aktiviert ist. Falls ja reichen nichtmal deine 1,6 aus.
Und bei AA wird man sicher ordentlich Performancedrop haben, da man ja Bandbreiten limitiert ist (sehr hohe Grundperformance und in Relation DAZU eben sicher einen guten Verlust bei AA).
Den Drop aufgrund der Bandbreite sehe ich nicht. Wenn die Kompression richtig funktioniert skaliert dar AA-Drop mit der zusätzlich benötigen Fillrate/Shaderpower mit.
Demirug
2004-04-10, 14:57:35
Original geschrieben von Gast
Hi;
da ich jetzt zu faul bin den ganzen 68-Seiten Thread durchzuschauen :
wurde eigentlich schon über die Kommentare/Hints von DaveBaumann diskutiert, das angeblich
1. der NV40 ein winkelabhängiges AF bekommt ( ala ATi-style )
2. die Reviewer keine Empfehlung für den NV40 geben werden können ( Spekulation: Speed oder Verfügbarkeit ???? IMHO Speed, da den meisten Reviewer alles andere egal ist)
aus dem letzten R420 Thread so auf Seite 8/18
Die Reviewer werden in den NV40 Reviews keine Empfehlung für den NV40 geben können weil sie viel zu wenig über das Gegenstück von ATI wissen. Wer schlau ist spielt hier auf sicher und wartet.
Godmode
2004-04-10, 15:09:56
Ich hab jetzt Fudo mal ne E-Mail geschrieben ob er schon irgendwas weiß, wie schnell der NV40/R420 ist/wird, und er hat mir prompt zurückgschrieben dass er nichts weiss.
Kann das sein das Fudo aus Wien ist?
"very good question that I dont know the answer on Dominik
thanks for your mail
grüsse aus Wien
Fudo"
Original geschrieben von Gast
wurde eigentlich schon über die Kommentare/Hints von DaveBaumann diskutiert, das angeblich Und wen soll dieses (weitere) Gerücht (welches zudem auch noch urlat ist) jetzt von den Socken haun' ? Hier wird über sehr viel größeren Unfug 'diskutiert', warum also Deiner Meinung nach nicht über dieses Zeugs ?
:???:
Razor
Original geschrieben von Demirug
Die Reviewer werden in den NV40 Reviews keine Empfehlung für den NV40 geben können weil sie viel zu wenig über das Gegenstück von ATI wissen. Wer schlau ist spielt hier auf sicher und wartet. Da glaub' mal dran, Demirug...
Wenn das Teil auch nur annähernd so schnell ist, wie dem derzeit nachgesagt wird, dann heißt die Empfehlung wohl definitv: "Kaufen !". Featureset, Ausstattung und Treiberqualität wird da eine Rolle spielen. Und wenn ATI bis dahin nichts am Markt hat, wird man (wie immer) mit dem vergleichen, was da ist.
Aber ich gebe Dir recht, ATI hätte es sicher gerne, wenn sich die Reviewer so verhalten würden, wie Du es gerade angeregt hast... ;)
Razor
Demirug
2004-04-10, 15:19:47
Original geschrieben von r@e
Da glaub' mal dran, Demirug...
Wenn das Teil auch nur annähernd so schnell ist, wie dem derzeit nachgesagt wird, dann heißt die Empfehlung wohl definitv: "Kaufen !". Featureset, Ausstattung und Treiberqualität wird da eine Rolle spielen. Und wenn ATI bis dahin nichts am Markt hat, wird man (wie immer) mit dem vergleichen, was da ist.
Aber ich gebe Dir recht, ATI hätte es sicher gerne, wenn sich die Reviewer so verhalten würden, wie Du es gerade angeregt hast... ;)
Razor
Also was wird ATI dann vor dem 14 noch tun?
Ailuros
2004-04-10, 15:26:29
Original geschrieben von Demirug
Kompression hat ihrere Grenzen. Und komm mir jetzt bitte nicht mit einem TBDR. Wenn ich mir die benötigte Bandbreite zwischen dem VS und dem Rasterisiere anschaue sehe ich da auch schwarz.
Ob es schwarz ist oder nicht muessten wir aber erstmal abwarten.
deekey777
2004-04-10, 15:27:10
Original geschrieben von Demirug
Also was wird ATI dann vor dem 14 noch tun?
HL2 Benchmark veröffentlichen? War nur ein Scherz, er kommt mit dem R420. ;)
LovesuckZ
2004-04-10, 15:29:12
Original geschrieben von deekey777
HL2 Benchmark veröffentlichen? War nur ein Scherz, er kommt mit dem R420. ;)
der Benchmark?
Ohnoe, wieder son verkappter marketinggag. Naja, wenigsten kontert nvidia dann mit Doom3, aeh dem benchmark...
Original geschrieben von r@e
Und wen soll dieses (weitere) Gerücht (welches zudem auch noch urlat ist) jetzt von den Socken haun' ? Hier wird über sehr viel größeren Unfug 'diskutiert', warum also Deiner Meinung nach nicht über dieses Zeugs ?
:???:
Razor Was soll damit denn gesagt werden?
(Übrigens, wenn du bei "hauen" das e weglässt, müsste der Apostroph an Stelle des e kommen, und nicht nach dem n folgen.)
Wieso ist das Gerücht mit dem winkelabhängigen AF beim NV40 "uralt"?
Black-Scorpion
2004-04-10, 15:30:11
Original geschrieben von r@e
Wenn das Teil auch nur annähernd so schnell ist, wie dem derzeit nachgesagt wird, dann heißt die Empfehlung wohl definitv: "Kaufen !". Featureset, Ausstattung und Treiberqualität wird da eine Rolle spielen.
Razor
Hat man das dem NV30 nicht auch schon nachgesagt.
Und da ist nur das Featureset übriggeblieben. ;)
ironMonkey
2004-04-10, 15:31:11
Original geschrieben von Demirug
Also was wird ATI dann vor dem 14 noch tun?
N paar Gerüchte in die Welt setzen das sie 600MHz Coretakt haben und 16 Pipes und was weiß ich noch.......Auf die paar Tage kommst ja net drauf an, auf jeden Fall wird der NV40 erstmal alles in Grund und Boden benchen.
Gruß
Original geschrieben von r@e
Da glaub' mal dran, Demirug...
Wenn das Teil auch nur annähernd so schnell ist, wie dem derzeit nachgesagt wird, dann heißt die Empfehlung wohl definitv: "Kaufen !".Nein, die Empfehlung lautet höchstens "Kaufen!", denn die meisten Reviewer sind keine Plenker.
Was kluge Reviewer angeht, gebe ich eher Demirug recht, als dir.
Ich denke das ist schon die U mit den 400MHz. Vermutlich absichtlich so niedrig damit man nicht wieder einen nVFön montieren musste. Ich denke aber mal die Karte wird sich sehr gut oc'en lassen. Das ist ja dann nicht nVidias Sorge wie laut die Karte dann gekühlt wird.
PS. aths kennst du eigentlich den Zwiebelfisch?
reunion
2004-04-10, 17:55:35
Original geschrieben von Demirug
Beim Speed ist das alles noch in der Schwebe da wir nicht genau wissen was ATI den Reviewern geben wird. Bekommen die Reviewer eine 12 Pipe Variante und später nochmal eine 16 Pipe Variante dann muss nVidia gegen die letztere ja wieder etwas setzten. Rückt ATI gleich die 16 Pipe Version raus kann nVidia bei Bedarf versuchen mit einem höheren Coretakt zu kontern und ATI hätte dann wohl nichts mehr in der hinterhand. IMHO will sich nVidia hier einfach so viele Optionen wie möglich offen halten nachdem sie schon als erster die Karten auf den Tisch legen müssen.
ATI wird sicherlich mit der 16-pipe Variante rausrücken, da man den Reviewern immer das Topmodell gibt um einen möglichst guten eindruck zu erwecken, alles andere wäre unlogisch...
LovesuckZ
2004-04-10, 17:59:05
Original geschrieben von reunion
ATI wird sicherlich mit der 16-pipe Variante rausrücken, da man den Reviewern immer das Topmodell gibt um einen möglichst guten eindruck zu erwecken, alles andere wäre unlogisch...
Die XT version soll aber erst einen Monat später vorgestellt werden.
Ich meine ja, dass diese Vorgehensweise eher kundenabschreckend wirkt. Wer kauft schon etwas, wenn er weiß, in einem Monat ist es wieder "veraltert"?
Original geschrieben von thop
PS. aths kennst du eigentlich den Zwiebelfisch? Ich verpasse keine Ausabe :)
egdusp
2004-04-10, 18:45:16
Original geschrieben von thop
Ich denke das ist schon die U mit den 400MHz. Vermutlich absichtlich so niedrig damit man nicht wieder einen nVFön montieren musste. Ich denke aber mal die Karte wird sich sehr gut oc'en lassen. Das ist ja dann nicht nVidias Sorge wie laut die Karte dann gekühlt wird.
Der Fön war eine Fehlkonstruktion und nicht wegen der Wärme notwendig.
mfg
egdusp
deekey777
2004-04-10, 18:46:47
Original geschrieben von LovesuckZ
Die XT version soll aber erst einen Monat später vorgestellt werden.
Ich meine ja, dass diese Vorgehensweise eher kundenabschreckend wirkt. Wer kauft schon etwas, wenn er weiß, in einem Monat ist es wieder "veraltert"?
Warum gleich so negativ? Die X800XT wird das Super High Extreme Prdukt sein, die sich aber nur wenige leisten werden. Die X800 Pro wird eher der "Mainstream" der Highend Grafikkarten sein - wie auch jetzt: FX 5950 & 9800XT sind die besten und schnellsten Grafikkarten, aber auch die teuersten. Die 5900/Ultra und die 9800/Pro sind dagegen auch für den kleineren Geldbeutel erschwinglich. Es ist schon klar, dass bei genauerem Blick ATi etwas unlogisch vorgeht, anderseits wollen die Leute bei ATi Geld verdienen.
Winter[Raven]
2004-04-10, 19:11:02
Um die Wahrheit zusagen, erwarte ich von Nvidia nichts anderes was wir schon aus der Vergangenheit von Nvidia kennen, sie werden mit allem versuchen Um die Nr.1 wieder zusein, oder sie Beleiben ATI dicht auf den Fersen und warten darauf das ATi einen Fehler macht, wie es nVidia mit dem NV30 gemacht hat.
Ich erwarte ~475mhz noch mit NV40, und nicht erst mit einem Refresh ^^.
Godmode
2004-04-10, 19:18:34
Sie werden es nicht "versuchen" sie werden 1. sein, nur für wie lange? 1 Monat?
Original geschrieben von Demirug
Also was wird ATI dann vor dem 14 noch tun? Na ja....
Sie haben doch schon was getan !
:D
Nun ist die Katze aus dem Sack, wie das mit den Pipes zu verstehen ist. Und der Termin für die 'Vorstellung' des 16-Pipers ist so weit nach hinten verlegt, so dass sie damit nVidia nicht direkt ins Gehege kommen.
Ob das klug ist, wird sich noch heraus stellen müssen, aber ich gehe davon aus, dass sie viel verschenken, wenn sie tatsächlich etwas hätten, was sie dem NV40 entgegen stellen könnten.
Schaun' wir mal.
Vermutlich werden wir in dieser Richtung noch so einiges hören...
Razor
Original geschrieben von Ailuros
Ob es schwarz ist oder nicht muessten wir aber erstmal abwarten. Man sollte eher abwarten, ob da überhaupt wieder mal was aus der Ecke kommt... die Zeit wäre ja wieder reif (da nun wieder ca. 3 Jahre ins Land gegangen sind ;-).
Razor
P.S.: Ich sehe da kein 'schwarz', sondern eher ein 'nichts'... ;)
Original geschrieben von deekey777
HL2 Benchmark veröffentlichen? War nur ein Scherz, er kommt mit dem R420. ;) Meinst Du, dass ATI diesen Stuß wiederholen wird ?
Wenn ihnen noch etwas an ihrer Reputation liegt, sollten sie das lieber bleiben lassen.
Razor
Original geschrieben von aths
(Übrigens, wenn du bei "hauen" das e weglässt, müsste der Apostroph an Stelle des e kommen, und nicht nach dem n folgen.):P
Razor
P.S.: lass es einfach bleiben...
Original geschrieben von Anonym_001
Hat man das dem NV30 nicht auch schon nachgesagt.
Und da ist nur das Featureset übriggeblieben. ;) Wie ?
Bei den echten Reviews ?
Da ist doch gerade der Buster ins Gespräch gekommen...
Oder meinst Du im Vorwege ?
Also irgendetwas hast Du da durcheinander bekommen.
Razor
Original geschrieben von aths
Nein, die Empfehlung lautet höchstens "Kaufen!", denn die meisten Reviewer sind keine Plenker.Du kannst es einfach nicht lassen, oder ?
Gibt Dir das eigentlich irgendwas ?
Ziehst Du Dich daran hoch ?
:D
Original geschrieben von aths
Was kluge Reviewer angeht, gebe ich eher Demirug recht, als dir. Du kannst Dir gar nicht vorstellen, wie mir das am Allerwertesten vorbei geht !
:)
Razor
Black-Scorpion
2004-04-10, 20:05:31
Original geschrieben von r@e
Wie ?
Bei den echten Reviews ?
Da ist doch gerade der Buster ins Gespräch gekommen...
Oder meinst Du im Vorwege ?
Also irgendetwas hast Du da durcheinander bekommen.
Razor
Das bezog sich eher auf den Teil.
Original geschrieben von r@e
Wenn das Teil auch nur annähernd so schnell ist, wie dem derzeit nachgesagt wird...
Es bezog sich also nicht auf die Reviews direkt.
Was man bis jetzt zum NV40 und R420 gehört hat ist ja nichts offizielles und deshalb bin ich da vorsichtig.
Gerade wie das Beispiel NV30 gezeigt hat sagen Zahlen nichts aus.
Richtig sicher kann man erst sein wenn die beiden draußen sind. ;)
Original geschrieben von r@e
Du kannst Dir gar nicht vorstellen, wie mir das am Allerwertesten vorbei geht !
:)
Razor Wenn dich nicht interessiert, was andere von deinen Postings denken, warum schreibst du noch?
Du hast zwei merkwürdige Angewohnheiten:
- Dich unklar auszudrücken, fast immer bleibst du nebulös. (Entweder ist das eine Ausdrucksschwäche, oder du weißt einfach nicht genau, worüber du schreibst.)
- Absolut keinen Tipp anzunehmen, vollkommen resistent gegenüber Ratschlägen zu sein. (Sozial integrierte Menschen sind gegenüber Rückmeldungen eigentlich aufgeschlossen.)
reunion
2004-04-10, 20:43:17
Original geschrieben von LovesuckZ
Die XT version soll aber erst einen Monat später vorgestellt werden.
Die XT-Version wird vielleicht einen Monat später erhältlich sein, vorgestellt wird sie sicherlich mit der PRO und SE Version. Ich sehe einfach keinen sinn darin einen 16-pipe Chip nur als 8 und 12-pipe version vorzustellen. Warum sollte man das machen? Selbst wenn die Ausbeute noch so schlecht ist, ein paar funktionsfähige Chips wird man schon haben um die benchs zu gewinnen...
ShadowXX
2004-04-10, 21:03:41
Original geschrieben von reunion
Die XT-Version wird vielleicht einen Monat später erhältlich sein, vorgestellt wird sie sicherlich mit der PRO und SE Version. Ich sehe einfach keinen sinn darin einen 16-pipe Chip nur als 8 und 12-pipe version vorzustellen. Warum sollte man das machen? Selbst wenn die Ausbeute noch so schlecht ist, ein paar funktionsfähige Chips wird man schon haben um die benchs zu gewinnen...
Sehe ich genauso...alle andere wäre nonsens.
Sie werden alle drei Karten vorstellen...und die erste die man kaufen kann ist eben die Pro-Variante.
(Gerade weil man weiss, das die XT einen Monat kommt, wäre es sonst gelinde gesagt schwachsinnig.)
deekey777
2004-04-10, 21:26:12
Auf http://www.3dchipset.com/ ist eine Preview der 6800 - keine Ahnung, was in der zip-Datei sthet, muss noch entpacken.
Edit: Hab mich verschrieben.
Demirug
2004-04-10, 21:31:50
Original geschrieben von deekey777
Auf http://www.3dchipset.com/ ist eine Preview der 6800 - keine Ahnung, was in der zip-Datei sthet, muss noch entpacken.
Edit: Hab mich verschrieben.
Ach das ist der Artikel von Maximum PC. Sehr Lustig viel Blödsinn. Auf dem Level von Chip oder sogar noch schlimmer.
DiGiTaL
2004-04-10, 21:51:07
Neue Bilder ;)
http://www.theinquirer.net/images/articles/GF68001.jpg
http://www.theinquirer.net/images/articles/GF68002.jpg
http://www.theinquirer.net/images/articles/gf6800.jpg
Quelle: http://www.theinquirer.net/?article=15269
Winter[Raven]
2004-04-10, 22:04:46
Es wäre natürlich möglich, dass Nvidia die relative Leistung eines ATI 16piper einschätzen kann oder kennt und aus diesem Grund den Takt gesenkt hat um im Falle der Fälle nochmal eine 6900Ultra aufzulegen.
Wir haben ja gesehn, Mhz ist nicht alles, wenn der Nv40 mehr Pro/takt schafft als ein R420 @ 16Pipes @ 500mhz dann ist ja alles in Peto.
Wobei R420 @ 16pipes @500 mhz, das will ich erst sehn bevor ich es glaube.
CrazyIvan
2004-04-10, 22:11:54
Original geschrieben von DiGiTaL
Neue Bilder ;)
http://www.theinquirer.net/images/articles/GF68002.jpg
Quelle: http://www.theinquirer.net/?article=15269
Neu sind die zwar net, aber mir fiel dadurch nochmal der Kühler ins Auge.
Wie soll denn ein rund 140 Watt "wärmender" 220 Mio. Transen großer Chip von nem 1 -Slot Kühler mit Radiallüfter gekühlt werden? Außer 5500rpm fällt mir da nix ein.
Denke, das Teil wird wieder arg laut - sollten lieber gleich auf ne größere 2 - Slot Kühlung setzen...
Demirug
2004-04-10, 22:16:29
Original geschrieben von CrazyIvan
Neu sind die zwar net, aber mir fiel dadurch nochmal der Kühler ins Auge.
Wie soll denn ein rund 140 Watt "wärmender" 220 Mio. Transen großer Chip von nem 1 -Slot Kühler mit Radiallüfter gekühlt werden? Außer 5500rpm fällt mir da nix ein.
Denke, das Teil wird wieder arg laut - sollten lieber gleich auf ne größere 2 - Slot Kühlung setzen...
Da gibt es eigentlich nur zwei Möglichkeiten. Entweder Dustbuster II oder das Teil wirft gar nicht so viel Hitze.
reunion
2004-04-10, 22:18:54
Original geschrieben von Winter[Raven]
Es wäre natürlich möglich, dass Nvidia die relative Leistung eines ATI 16piper einschätzen kann oder kennt und aus diesem Grund den Takt gesenkt hat um im Falle der Fälle nochmal eine 6900Ultra aufzulegen.
Es könnte auch sein dass ATI den 16piper erst einen Monat später bringt weil man die Leistung des NV40 abschätzen kann und weiß das man diesen auch mit dem 12piper locker schlagen kann :balla:
Wobei R420 @ 16pipes @500 mhz, das will ich erst sehn bevor ich es glaube.
Die aktuellen Gerüchte sprechen sogar von 600mhz für die XT-Version ;)
Wenn ich mich nicht täusche läuft hinten auch sowas wie ne Heatpipe vorbei.
reunion
2004-04-10, 22:22:13
Original geschrieben von thop
Wenn ich mich nicht täusche läuft hinten auch sowas wie ne Heatpipe vorbei.
jap, hinten ist auch noch ne Heatpipe...
Demirug
2004-04-10, 22:28:05
Original geschrieben von reunion
Die aktuellen Gerüchte sprechen sogar von 600mhz für die XT-Version ;)
Aus welcher Küche kommt den das? Ich bin noch bei 500 MHz und da war es auch noch ein 12 Pipeline Chip?
StefanV
2004-04-10, 22:28:16
Original geschrieben von Demirug
Da gibt es eigentlich nur zwei Möglichkeiten. Entweder Dustbuster II oder das Teil wirft gar nicht so viel Hitze.
Naja, dieser KÜhler sieht IMO auch viel besser aus als die Referenzkühler der NV30, NV35 und NV38.
Er scheint eine ordentliche Oberfläche zu haben und einen Lüfter mit einigermaßen großen Lüfterblättern (das ist IMO das Hauptmanko der Radiallüfter)...
Der Lüfter sieht nach ~6cm Durchmesser aus, der Kühler ist pi mal Daumen ~8cm hoch und ~12cm breit.
Der Kühler ist also in Ordnung, im Gegensatz zum Dustbuster und dem Mist auf der nV38...
Mehrpack
2004-04-10, 22:32:33
Original geschrieben von reunion
jap, hinten ist auch noch ne Heatpipe...
hi,
wie gross wäre denn die möglichkeit das mal angenommen hinten auch noch ein flacher lüfter sitzt?
Mehrpack
(del676)
2004-04-10, 22:43:01
Original geschrieben von Demirug
Aus welcher Küche kommt den das? Ich bin noch bei 500 MHz und da war es auch noch ein 12 Pipeline Chip?
och wart nur ab, bis 26 isses ein 32 pipeline 1024 bit memory bus 1000mhz core der 10 watt frisst und passiv gekühlt wird :)
... und dann kam die ernüchterung
Original geschrieben von Winter[Raven]
Wobei R420 @ 16pipes @500 mhz, das will ich erst sehn bevor ich es glaube.
Wieso sollte es ATI nicht schaffen einen wesentlich kleineren Chip als NVidia auf eine ähnliche Taktrate zu bekommen?
Du gehst ja davon aus, dass der NV40 mit 475 Mhz kommt und das bei mehr als 200 Mio Transistoren, ergo solltest du es auch für realistisch halten, dass ATI einen kleineren Chip mit 25 Mhz mehr takten kann...
Ich halte mich zwar vollkommen raus aus dem blinden spekuliere um die Taktraten, aber du solltest, wenn du schon dran teilnimmst ein wenig Objektivität bewahren...
Demirug
2004-04-10, 22:51:16
Original geschrieben von burk23
Wieso sollte es ATI nicht schaffen einen wesentlich kleineren Chip als NVidia auf eine ähnliche Taktrate zu bekommen?
Du gehst ja davon aus, dass der NV40 mit 475 Mhz kommt und das bei mehr als 200 Mio Transistoren, ergo solltest du es auch für realistisch halten, dass ATI einen kleineren Chip mit 25 Mhz mehr takten kann...
Ich halte mich zwar vollkommen raus aus dem blinden spekuliere um die Taktraten, aber du solltest, wenn du schon dran teilnimmst ein wenig Objektivität bewahren...
Mal schauen ob bei ATI jetzt auch die Transistoren anfangen täglich zu steigen.
Original geschrieben von Demirug
Mal schauen ob bei ATI jetzt auch die Transistoren anfangen täglich zu steigen. er ist auch bei 500 mhz;)
StefanV
2004-04-10, 22:57:26
Original geschrieben von Mehrpack
hi,
wie gross wäre denn die möglichkeit das mal angenommen hinten auch noch ein flacher lüfter sitzt?
Mehrpack
Hm, das muss ich erstmal auswürfeln ;)
*würfel*
Also meine Würfel sagen, daß die Möglichkeit durchaus besteht und recht hoch ist, daß auf der Rückseite ein Kühlkörper verbaut ist, ob ein Lüfter auch verbaut ist, kann durchaus sein (Grüße an MSI *eg*), würd mal sagen, die Chancen stehen 40:60 für 'doppelquirl'.
Original geschrieben von Demirug
Mal schauen ob bei ATI jetzt auch die Transistoren anfangen täglich zu steigen.
Vielleicht? :)
Also Borsti schreibt bei Rivastation folgendes:
"ATI scheint seine Roadmaps grade umzustellen. Bin ja mal gespannt. Also NV40 ist wirklich hammerschnell! (Mehr verrat ich noch nicht :-D ) "
Hm kann es sein, dass ATI Nvidia einfach unterschätzt hat?
Sphinx
2004-04-10, 23:10:58
Ich würde es anders deuten... Oder haben wir hier je eindeutige Roadmaps gesehen ? Bis R420 als AGP Part Neu
if Plan A
... then
if Plan B
... then
...
...
Dazu passt die Aussage von Anand : since original leaked ATI documents claimed R420 would utilize 8 "Extreme" pipelines
Hier wird nur Katz und Maus Spiel getrieben bis ALLE CHIPS im HANDEL sind...
LovesuckZ
2004-04-10, 23:17:28
Original geschrieben von Sphinx
Ich würde es anders deuten... Oder haben wir hier je eindeutige Roadmaps gesehen ? Bis R420 als AGP Part Neu
if Plan A
... then
if Plan B
... then
...
...
Da fehlt nen ELSE. :)
LovesuckZ
2004-04-10, 23:18:18
Original geschrieben von reunion
Die aktuellen Gerüchte sprechen sogar von 600mhz für die XT-Version ;)
Ja, für die 12 Pipe XT Version :)
Demirug
2004-04-10, 23:28:01
Könnten wir die R420 Diskussion im anderen Thread fortführen?
Winter[Raven]
2004-04-11, 00:48:12
Original geschrieben von burk23
Wieso sollte es ATI nicht schaffen einen wesentlich kleineren Chip als NVidia auf eine ähnliche Taktrate zu bekommen?
Du gehst ja davon aus, dass der NV40 mit 475 Mhz kommt und das bei mehr als 200 Mio Transistoren, ergo solltest du es auch für realistisch halten, dass ATI einen kleineren Chip mit 25 Mhz mehr takten kann...
Ich halte mich zwar vollkommen raus aus dem blinden spekuliere um die Taktraten, aber du solltest, wenn du schon dran teilnimmst ein wenig Objektivität bewahren...
1. Ja, entweder ist der NV40 so effizient das man ihn ruhig mit 400 gegen ATI's 16 Piper laufen lässt.
2. Wartet NV auf die DDRIII speicher, um die Karten dann umzurüsten, wie es mit der FX5700 Ultra gemacht wird von einigen Herstellern.
3. Wie gesagt, ich will es erst sehn das ATI den auf 500 mhz kriegt, bei ~160 wäre es möglich, aber bei 16 Pipes da bin ich skeptisch.
@ Demirug
Jap, ich denke bei der größe des Cores, kann man die Hitze viel schöner abführen als bei einem wie NV35 ^^.
Interessant wäre zuwissen umwelchen Herstellungsprozess es bei dem NV40(0.13µ) handelt, Low-k komm nicht in Frage da NV davon nix hält, müssen die wohl was anderes verweden.
Weiß einer ob der NV40 nun bei TSMC oder IBM gefertigt wird?
Original geschrieben von reunion
Die aktuellen Gerüchte sprechen sogar von 600mhz für die XT-Version ;) Woher hast du denn solche "Gerüchte"?
Winter[Raven]
2004-04-11, 00:52:20
Original geschrieben von aths
Woher hast du denn solche "Gerüchte"?
Hellbinder ..... *eg*
600mhz kann man einfach nicht erwarten, 500mhz wären schon eine Leistung. Nunja, ATI Anhänger brauchen wohle jeden Strohalm an dem Sie sich festhalten können, so blödsinnig es auch klingen mag.
Original geschrieben von Winter[Raven]
Nunja, ATI Anhänger brauchen wohle jeden Strohalm an dem Sie sich festhalten können, so blödsinnig es auch klingen mag.
Naja wenn man sich deinen vorletzten Beitrag anschaut könnte man das selbe auch von nVidia Anhängern sagen. Nur noch 2-3 Tage, dann muss nich mehr geklammert werden.
(del676)
2004-04-11, 01:09:30
... nachdem der Mond dreimal das Eichhörnchen küsst werden meine Roten Brüder in das Tal der Tränen wandern ...
:)
Birdman
2004-04-11, 01:29:22
Original geschrieben von Stefan Payne
Der Lüfter sieht nach ~6cm Durchmesser aus, der Kühler ist pi mal Daumen ~8cm hoch und ~12cm breit.
Nicht schlecht Herr Specht, glatte 6 PCI Slots belegt... :D
MadManniMan
2004-04-11, 01:52:06
Original geschrieben von Ulukay
... nachdem der Mond dreimal das Eichhörnchen küsst werden meine Roten Brüder in das Tal der Tränen wandern ...
:)
:bigl: Gut gesagt!
@beta: aber allermindestens ein hochqualitatives AF freut sich über FR-Überschuß.
Godmode
2004-04-11, 02:32:54
Original geschrieben von Winter[Raven]
Weiß einer ob der NV40 nun bei TSMC oder IBM gefertigt wird?
Ich bin besoffen:
Ja er wird bei IBM gefertigt! Keine Ahnung von wo ich das weiß, aber es ist so. schaut mal bei Inq oder Beyond rein
/Ich bin besoffen:
Original geschrieben von aths
Wenn dich nicht interessiert, was andere von deinen Postings denken, warum schreibst du noch?Du hast unaufgefordert eine Wertung vorgenommen und ich habe Dir (nicht irgendwelchen anderen) gesagt, dass mich Deine Meinung (in diesem Fall) nicht interessiert.
Im übrigen interessiert mich mehr der Inhalt der Diskussionen und nicht die Wertung bestimmter Personen hier.
Ich hoffe, dass Dir dies jetzt 'klarer' ist.
Original geschrieben von aths
Du hast zwei merkwürdige Angewohnheiten:Nur zwei ?
:D
Original geschrieben von aths
- Dich unklar auszudrücken, fast immer bleibst du nebulös. (Entweder ist das eine Ausdrucksschwäche, oder du weißt einfach nicht genau, worüber du schreibst.)Eine dritte Möglichkeit sollte hier eingebracht werden: Absicht ?
Aber klar, Du kennst mich selbstredend persönlich...
Original geschrieben von aths
- Absolut keinen Tipp anzunehmen, vollkommen resistent gegenüber Ratschlägen zu sein. (Sozial integrierte Menschen sind gegenüber Rückmeldungen eigentlich aufgeschlossen.) Richtig, von Dir (und anderen), die solcherart gestaltetes OT-gequatsche einbringen, nehme ich ganz sicher nichts an. Warum auch ?
Ich habe es Dir damals schon gesagt und sage es jedem, der so einen Unsinn mit mir versucht:
Ich lege KEINEN Wert darauf !
Jetzt verstanden ?
Warum machst Du Dir die 'Mühe' und erzählst soetwas jemanden, der dies per Vorsatz schon ablehnt ? Ist doch schade um Deine Zeit, oder ? Somit läßt sich diese 'Mühe' eigentlich nur mit der Pflege des eigenen Egos erklären... aber das würde hier jetzt zu weit führen.
Was hälst Du davon, dieses OT-gequatsche hier zu beenden und zukünftig nicht einmal mehr zu versuchen, einen unverbesserlichen Ignoranten - wie mich - zu 'bekehren' ?
Danke.
Razor
robbitop
2004-04-11, 03:58:07
razor/aths
bitte euren Streit per PN regeln ...danke.
(Manchmal sollte man einfach drüberstehen.)
Sign Off Speed war für R420 wir Ail sagte 450Mhz (bei R300 damals 250 daraus wurden 325) ich würde erstmal keine Wunder erwarten. Die "neuen" werden sicher bandbreitenlimitiert sein.
Sunrise
2004-04-11, 08:23:09
Original geschrieben von robbitop
...Die "neuen" werden sicher bandbreitenlimitiert sein.
Ganz richtig. Ich will mir, ehrlich gesagt, auch erstmal garkeine 16 Pipes mit ähnlichem Aufbau der RV360/R360 auf einem Board vorstellen.
Um mich mal etwas weiter aus dem Fenster zu lehnen:
Das absolute Maximum ist derzeit GDDR3 mit 600MHz (in Mengen die auch nicht das Wahre sind). Samsung hat mit der Produktion hier relativ "spät" begonnen, was Micron derzeit macht, da wurde es recht still ..
Bei NV scheint man derzeit sogar noch (das nehme ich dem INQ mal ab) die 500MHz-Module so stark zu übertakten, dass dafür eine extra Heatpipe notwendig wurde. Man wird dafür sicherlich auch gute Gründe haben. (bandwidth counts)
Ich schätze Folgendes als realistisch ein (Retail):
NV40 - max. 450MHz Core - 600MHz GDDR3
R420 - max. 500MHz Core - 500-550MHz GDDR3
- alles Andere wäre für mich (auf beiden Seiten) eine riesen Überraschung.
- da Pipes das totale Marketing-Instrument momentan, und wohl auch in Zukunft sein werden, verliere ich darüber auch absolut kein Wort mehr, AiL hat es bereits treffend formuliert.
Ailuros
2004-04-11, 08:37:34
Original geschrieben von r@e
Man sollte eher abwarten, ob da überhaupt wieder mal was aus der Ecke kommt... die Zeit wäre ja wieder reif (da nun wieder ca. 3 Jahre ins Land gegangen sind ;-).
Razor
P.S.: Ich sehe da kein 'schwarz', sondern eher ein 'nichts'... ;)
Es gibt viele Wege unter Vorraussetzungen das Ding auf den Markt zu bringen.
Die 3 Jahre stimmen nur wurde der besagte chip bis jetzt vollstaendig von diesen selber entwickelt und die Anzahl von Loesungen unter Entwicklung stieg von einem pro Jahr auf 20 momentan. Mehrere davon kehren momentan den PDA/mobile Markt auf. Genauso "nichts" wohl auch in diesen Faellen.
NV40 - max. 450MHz Core - 600MHz GDDR3
R420 - max. 450-500MHz Core - 500-550MHz GDDR3
Nun ja so grosse Abschlaege von den obrigen wuerde ich auch nicht erwarten. Speicher liegt etwa auf dem gleichem Niveau zwischen den Beiden; beim Core duerfte ATI einen kleinen Vorsprung haben.
Soll aber gar nichts heissen; ich wuerde nicht in die Falle treten und Leistung von der Taktrate abschaetzen.
Ailuros
2004-04-11, 08:40:15
Original geschrieben von robbitop
razor/aths
bitte euren Streit per PN regeln ...danke.
(Manchmal sollte man einfach drüberstehen.)
Sign Off Speed war für R420 wir Ail sagte 450Mhz (bei R300 damals 250 daraus wurden 325) ich würde erstmal keine Wunder erwarten. Die "neuen" werden sicher bandbreitenlimitiert sein.
Darkkrow blubbert von 500 core/600 ram fuer die XT Modelle. Ob das stimmt oder nicht keine Ahnung; aber 500MHz sind durchaus moeglich.
Wavey behauptet dass man nicht mehr als einen molex brauchen sollte; keine Ahnung ob das auch stimmt.
Sunrise
2004-04-11, 08:58:12
Original geschrieben von Ailuros
Darkkrow blubbert von 500 core/600 ram fuer die XT Modelle. Ob das stimmt oder nicht keine Ahnung; aber 500MHz sind durchaus moeglich.
Wavey behauptet dass man nicht mehr als einen molex brauchen sollte; keine Ahnung ob das auch stimmt.
Bei mir steht da 600/600(1200 effektiv) für die XT Modelle, hast du ältere Tabellen oder Zeile verrutscht ?
Ich traue ATI zwar 600MHz zu, aber das wäre dann glatt nach NV-Philosophie, "prügel mich, bis ich schreie".
Btw. auch schon so früh wach ? Du hast nicht zufällig auch den Boxkampf verfolgt ? ;) (Sorry für OT)
robbitop
2004-04-11, 09:44:11
@AiL
habe ich doch angedeutet, dass es sicher etwas mehr werden könnte (R300 Bsp ;) )
@sunrise
GDDR3 hat selbst bei 800MHz keine große Leistungsaufnahme, dass eine Heatpipe oder ähnliches notwendig wäre. ICh behaupte sogar mal bei 16W bei 256MB dass die gar keine Kühlung brauchen.
NVIDIA hat traditionell immer die besten verfügbaren Speichermodule auf deren Boards. Und beim NV40 wird das auch notwendig, warum sollte ATi das Problem der Verfügbarkeit von >550MHz GDDR3 nicht haben?
(Spekulation auf höhere RAM Takte)
LovesuckZ
2004-04-11, 09:46:09
Original geschrieben von Ailuros
Ob das stimmt oder nicht keine Ahnung; aber 500MHz sind durchaus moeglich.
Warum bleibt Nvidia dann so deutlich darunter?
Original geschrieben von LovesuckZ
Warum bleibt Nvidia dann so deutlich darunter? Mit welchem Modell ?
:???:
Razor
Ailuros
2004-04-11, 09:47:20
Tatsaechlich da hast Du recht. Also 600MHz klingt mir auch ein bisschen zu viel, aber ich will auch nichts ausschliessen.
Zum OT: alle 4 Jahre haben wir alle zur gleichen Zeit Ostern. Ich bin so frueh auf weil ich mit dem Grill draussen heute spielen darf :D
Wenn wir schon dabei sind: frohe Ostern an Euch alle :)
Sunrise
2004-04-11, 09:49:11
Original geschrieben von robbitop
@sunrise
GDDR3 hat selbst bei 800MHz keine große Leistungsaufnahme, dass eine Heatpipe oder ähnliches notwendig wäre. ICh behaupte sogar mal bei 16W bei 256MB dass die gar keine Kühlung brauchen.
Das versuchte ich dir auch schon seit einigen Monaten zu erklären, da ich es ja schon weiß, weiß ich genausoviel wie vorher auch ;)
Ich wollte eigentlich darauf hinaus robbitop, dass "übertaktete" Module (weil eben keine höheren in Mengen verfügbar sind), deutlich die Normwerte "sprengen" und somit definitiv nichmehr so kühl sind, wie es eben den Anschein hat. Man könnte ja ganz verrückt sein, und schon (für den Retail-Launch) mit 600MHz geplant haben, und diese wiederrum übertakten ? Wäre für einen bandwidth-starved-chip ja durchaus logisch.
@AiL: na dann mal viel Spaß beim Eier grillen ;)
Ailuros
2004-04-11, 09:50:28
Original geschrieben von LovesuckZ
Warum bleibt Nvidia dann so deutlich darunter?
Mehr Transistoren (wieviel weiss ja keiner; Anand erwaehnte ~160M, Darkkrow nun 160-180M und der alte ATI press-release sprach von ~200M (welcher damit gemeint war weiss wohl keiner)) und anderer Herstellungsprozess.
Wenn Wavey recht haben sollte und ATI mit nur einem molex connector davonkommt, muss man da noch viel drueber analysieren?
Ailuros
2004-04-11, 09:54:19
Original geschrieben von robbitop
@AiL
habe ich doch angedeutet, dass es sicher etwas mehr werden könnte (R300 Bsp ;) )
Tja wenn Du auf die paar Handoptimierungen deuten solltest, dann waere vielleicht sogar als 500MHz drin.
Mir klingt das Ganze aber verdammt riskant von beiden Seiten. So wie es aussieht habe ich mein Interesse an absoluten ultra high-end Loesungen schon verloren. Dann lieber einfaches high-end bevor mir der PC noch explodiert. :D
LovesuckZ
2004-04-11, 09:54:21
Original geschrieben von r@e
Mit welchem Modell ?
:???:
Razor
Beim den jetzigen an die tester ausgelieferten Karten. Und ja, ich nehme an, dass es sich hierbei um die Ultra Variante handelt.
Original geschrieben von LovesuckZ
Warum bleibt Nvidia dann so deutlich darunter?
kein lowK - Prozess
LovesuckZ
2004-04-11, 09:57:01
Original geschrieben von Gast
kein lowK - Prozess
Das ist kein nachteil -> siehe NV36 und rv360.
LovesuckZ
2004-04-11, 09:57:57
Original geschrieben von Ailuros
Soll aber gar nichts heissen; ich wuerde nicht in die Falle treten und Leistung von der Taktrate abschaetzen.
Wie groß stehen eigentlich die Chancen, dass Nvidia ein bessere Effiziens beim Einsatz PS2.0 als erreicht?
StefanV
2004-04-11, 10:02:18
Original geschrieben von LovesuckZ
Das ist kein nachteil -> siehe NV36 und rv360.
NV36 und RV360 waren auch 'etwas' kleiner, das macht auch einen kleinen Unterschied...
Ailuros
2004-04-11, 10:21:49
Original geschrieben von LovesuckZ
Wie groß stehen eigentlich die Chancen, dass Nvidia ein bessere Effiziens beim Einsatz PS2.0 als erreicht?
Gewagte Spekulation: sehr gering (ausser es gibt einen PS2.0 Test ohne Texturen hehehe ;D ).
LovesuckZ
2004-04-11, 10:23:21
Original geschrieben von Ailuros
Gewagte Spekulation: sehr gering (ausser es gibt einen PS2.0 Test ohne Texturen hehehe ;D ).
Also kann man auch jetzt noch die Leistung der Karten anhand der Taktraten "erahnen". Und da wird ATi, sollte Nvidia nicht schnell kontern, vorne liegen.
Ailuros
2004-04-11, 10:24:20
Original geschrieben von LovesuckZ
Das ist kein nachteil -> siehe NV36 und rv360.
NV36 hat wieviel Transistoren nochmal?
Wenn das nicht helfen sollte:
4*1 vs 16*1
Ailuros
2004-04-11, 10:25:55
Original geschrieben von LovesuckZ
Also kann man auch jetzt noch die Leistung der Karten anhand der Taktraten "erahnen". Und da wird ATi, sollte Nvidia nicht schnell kontern, vorne liegen.
Nein. Weil ich noch nicht genau weiss um wieviel OPs ATI's Loesung generell faehig ist.
LovesuckZ
2004-04-11, 10:27:18
Original geschrieben von Ailuros
Nein. Weil ich noch nicht genau weiss um wieviel OPs ATI's Loesung generell faehig ist.
Wieviel könnte der NV40 im besten Falls schaffen? 32? Und sollte das nicht auch ein r420 mit 16 "Pipes" hinbekommen? Ich meine, 2x r300 = r420 = 32...
Ailuros
2004-04-11, 10:29:56
Genau das weiss ich nicht was R420 betrifft (oooops tschuldigung ich meinte a-ops); wenn ich vom R3xx ausgehe dann sieht es nicht nach 32 aus.
Original geschrieben von Winter[Raven]
1. Ja, entweder ist der NV40 so effizient das man ihn ruhig mit 400 gegen ATI's 16 Piper laufen lässt.
2. Wartet NV auf die DDRIII speicher, um die Karten dann umzurüsten, wie es mit der FX5700 Ultra gemacht wird von einigen Herstellern.
3. Wie gesagt, ich will es erst sehn das ATI den auf 500 mhz kriegt, bei ~160 wäre es möglich, aber bei 16 Pipes da bin ich skeptisch.
@ Demirug
Jap, ich denke bei der größe des Cores, kann man die Hitze viel schöner abführen als bei einem wie NV35 ^^.
Interessant wäre zuwissen umwelchen Herstellungsprozess es bei dem NV40(0.13µ) handelt, Low-k komm nicht in Frage da NV davon nix hält, müssen die wohl was anderes verweden.
Weiß einer ob der NV40 nun bei TSMC oder IBM gefertigt wird?
DU scheinst nicht ganz zu verstehen.
Auf der einen Seite behauptest du dies:
Ich erwarte ~475mhz noch mit NV40, und nicht erst mit einem Refresh ^^.
auf der anderen Seite traust du ATI nicht zu ihren Chip auf 500 Mhz zu takten.
Und da es offensichtlich ist, dass sie den kleineren Chip haben, vom Transistorcount her, müsste es ATI eigentlich leichter gelingen den Chip höher zu takten als NVidia.
Wie gesagt die Objektivität fehlt hier und ich glaube du möchtest einfach nicht einsehen, dass der R420 evtl. doch schneller sein könnte. Vom Featureset will ich hier erstmal nicht reden...
LovesuckZ
2004-04-11, 10:39:01
Original geschrieben von Ailuros
Genau das weiss ich nicht was R420 betrifft (oooops tschuldigung ich meinte a-ops); wenn ich vom R3xx ausgehe dann sieht es nicht nach 32 aus.
ATi schafft ja die 16 Operation nur bei einem Verhältnis von 1:1. Dann waeren es 16 a-ops beim r420 mit 16 "Pipes".
Inwieweit stimmt denn das "Gerücht" von Maxiumpc, dass Nvidia 2 FPU pro Pipeline verbaut? ich meine, wenn dies stimmten sollte, dann hätte man die 4fache arithmetische Leistung im Gegensatz zum NV35, nicht ein bissl viel?
Und, ist es so verkehrt anzunehmen, dass ATi eventuell den selben Weg geht? Was kann Nvidia aber dann den 64 Gesamtops beim Verhältnis 1:1 entgegen setzen?
Demirug
2004-04-11, 10:43:39
Original geschrieben von Ailuros
NV36 hat wieviel Transistoren nochmal?
Wenn das nicht helfen sollte:
4*1 vs 16*1
Funktioniert nicht weil ein NV40 Pixelprocessor != NV36 Pixelprocessor.
Original geschrieben von burk23
auf der anderen Seite traust du ATI nicht zu ihren Chip auf 500 Mhz zu takten.
Und da es offensichtlich ist, dass sie den kleineren Chip haben, vom Transistorcount her, müsste es ATI eigentlich leichter gelingen den Chip höher zu takten als NVidia.Wunder geschehen halt immer wieder, oder ?
:D
Oder warum konnte ATI bisher (trotz geringerem Transistor-Count) die eigenen Chip nie in die Regionen führen, in die nVidia die eigenen geführt hat.
Ist halt traditionell so, dass nVidia die (taktseitig) schnelleren Chips hat(te).
Wenn's diesmal (als Premiere sozusagen ;-) bei ATI so sein sollte... gut !
Aber man wird ja noch Zweifel äussern dürfen, oder ?
Razor
Ailuros
2004-04-11, 10:50:14
Original geschrieben von Demirug
Funktioniert nicht weil ein NV40 Pixelprocessor != NV36 Pixelprocessor.
Sicher nicht; aber es ging hier um die Analogie des Stromverbrauchs zwischen NV36 und NV40.
Ailuros
2004-04-11, 10:54:13
Original geschrieben von LovesuckZ
ATi schafft ja die 16 Operation nur bei einem Verhältnis von 1:1. Dann waeren es 16 a-ops beim r420 mit 16 "Pipes".
Inwieweit stimmt denn das "Gerücht" von Maxiumpc, dass Nvidia 2 FPU pro Pipeline verbaut? ich meine, wenn dies stimmten sollte, dann hätte man die 4fache arithmetische Leistung im Gegensatz zum NV35, nicht ein bissl viel?
Und, ist es so verkehrt anzunehmen, dass ATi eventuell den selben Weg geht? Was kann Nvidia aber dann den 64 Gesamtops beim Verhältnis 1:1 entgegen setzen?
Wo siehst Du 64 OPs beim NV40 (ja alles zusammen)? Wenn es doppelt so viele a-ops sein sollten muss es nicht unbedingt heissen dass dieses auch einen grossen Unterschied machen koennte. Deutlicher kann ich nicht werden.
Das Problem ist dass wir viel zu wenig ueber R420 wissen.
Demirug
2004-04-11, 10:54:27
Original geschrieben von LovesuckZ
ATi schafft ja die 16 Operation nur bei einem Verhältnis von 1:1. Dann waeren es 16 a-ops beim r420 mit 16 "Pipes".
Inwieweit stimmt denn das "Gerücht" von Maxiumpc, dass Nvidia 2 FPU pro Pipeline verbaut? ich meine, wenn dies stimmten sollte, dann hätte man die 4fache arithmetische Leistung im Gegensatz zum NV35, nicht ein bissl viel?
Und, ist es so verkehrt anzunehmen, dass ATi eventuell den selben Weg geht? Was kann Nvidia aber dann den 64 Gesamtops beim Verhältnis 1:1 entgegen setzen?
Also MaximumPC hat keine Ahnung von der Technik also würde ich nicht was von dort kommt auf die Goldwagr legen.
Ein R300 kann in der Regel zwichen einer 1 und 3 Anweisungen pro Taktausführen(1T + 2A) Damit das mit den 2A auch funktioniert müssen diese bestimmten Regelen entsprechen. Ein paar weitere Regeln erlauben in Ausnahmesitutionen auch noch mehr AOps.
Ein NV35 kann 2T-Ops oder eine A-Op + eine weitere A Op ausführen. Die zweite A-Op darf aber nicht jede beliebige sein kann dafür aber manchmal auch auf 2 AOps aufgestockt werden.
Beim R420 (mit 16 Pipes) kann man annehmen das er sich im wesentlichen einem R300 ähnlich verhält. Mit doppelter Zahl an Pixel/Takt wird auch doppelt soviel Shaderleistung pro Takt haben. Deswegen weiss ich auch nicht wie du 64 Ops kommst.
Der NV40 ist komplizieter einzuschätzen weil nVidia wohl ja schon aleine aufgrund des Wechsels von 2 auf eine TMU umbauen musste.
Original geschrieben von r@e
Wunder geschehen halt immer wieder, oder ?
:D
Oder warum konnte ATI bisher (trotz geringerem Transistor-Count) die eigenen Chip nie in die Regionen führen, in die nVidia die eigenen geführt hat.
Ist halt traditionell so, dass nVidia die (taktseitig) schnelleren Chips hat(te).
Wenn's diesmal (als Premiere sozusagen ;-) bei ATI so sein sollte... gut !
Aber man wird ja noch Zweifel äussern dürfen, oder ?
Razor
Stimmt hast recht der r200 war mit 275/275 WESENTLICH niedriger getaktet als die GF3 TI500, obwohl sie zur gleiche Zeit rauskamen...
Und nein, den r300 kannste hier wohl schlecht als vergleich nehmen, weil er einfach in nem älteren Prozess als das NV Gegenstück gebaut wurde.
Diesmal ist es aber genau anderes herum. ATI mit 0.13 lowk vs. NV mit 0.13
See the difference???
Gruß,
börk
Ailuros
2004-04-11, 10:59:04
Original geschrieben von r@e
Wunder geschehen halt immer wieder, oder ?
:D
Oder warum konnte ATI bisher (trotz geringerem Transistor-Count) die eigenen Chip nie in die Regionen führen, in die nVidia die eigenen geführt hat.
Ist halt traditionell so, dass nVidia die (taktseitig) schnelleren Chips hat(te).
Wenn's diesmal (als Premiere sozusagen ;-) bei ATI so sein sollte... gut !
Aber man wird ja noch Zweifel äussern dürfen, oder ?
Razor
Natuerlich sind Zweifel absolut gerechtfertigt.
Zu Deiner zweiten Frage oben: welcher chip von NVIDIA kam mit 107M Transistoren, 8 SIMDs, 325MHz und 150nm den ich verpasst habe?
NVIDIA bewegte sich zwischen 500-475MHz mit den high end NV3x Modellen mit 130nm, wobei im Gegenteil ATI sich zwischen 325-412MHz mit 150nm bewegte.
Ich nehme an dass man Aepfel mit Orangen vergleichen koennte, wenn die letzteren noch gruen sind; aber ein bisschen unreif und schlecht zu Verdauen sind sie dann schon ;)
StefanV
2004-04-11, 11:01:48
Original geschrieben von r@e
Oder warum konnte ATI bisher (trotz geringerem Transistor-Count) die eigenen Chip nie in die Regionen führen, in die nVidia die eigenen geführt hat.
Ist halt traditionell so, dass nVidia die (taktseitig) schnelleren Chips hat(te).
Wenn's diesmal (als Premiere sozusagen ;-) bei ATI so sein sollte... gut !
Vielleicht liegts auch daran, daß bei ATI 20nm fehlen?!
Aber eigentlich solltest du das wissen...
Achja, was mir noch aufgefallen ist:
Die FX5900XT besitzt etwa die Takte einer Radeon 9800XT, also von daher würd ich nicht zu 'taktgeil' sein.
Winter[Raven]
2004-04-11, 11:08:29
Wie gesagt die Objektivität fehlt hier und ich glaube du möchtest einfach nicht einsehen, dass der R420 evtl. doch schneller sein könnte. Vom Featureset will ich hier erstmal nicht reden...
*eg*
naja, du willst es ja auch ned einsehen ATI könnte diese Zahl nicht erreichen ................... ;D
LovesuckZ
2004-04-11, 11:14:34
Original geschrieben von Ailuros
Wo siehst Du 64 OPs beim NV40 (ja alles zusammen)?
Nein, bei einem r420 mit 16 "Pipes" und einer 2. FPU für jede.
Orginal geschrieben von Demirug
Also MaximumPC hat keine Ahnung von der Technik also würde ich nicht was von dort kommt auf die Goldwagr legen.
Naja sie schreiben "with 16 Pipelines and 32 Shaderunits". Wie könnte man dies realisieren? Mit einer 2. FPU pro Pipeline?
Beim R420 (mit 16 Pipes) kann man annehmen das er sich im wesentlichen einem R300 ähnlich verhält. Mit doppelter Zahl an Pixel/Takt wird auch doppelt soviel Shaderleistung pro Takt haben. Deswegen weiss ich auch nicht wie du 64 Ops kommst.
Die 64 Ops könnten beim 420 doch auch erreicht werden, wenn ATi ebenfalls 32Shaderuntis haette. Natürlich lege diese dann hoeher, wegen den bestimmten Bedingung für die a-ops Ausführungen.
Ailuros
2004-04-11, 11:14:40
Original geschrieben von Winter[Raven]
*eg*
naja, du willst es ja auch ned einsehen ATI könnte diese Zahl nicht erreichen ................... ;D
Weil eben die einzigen handfesten Infos (was das auch immer heissen kann vor einer Veroeffentlichung) nur dafuer sprechen.
Wo immer das Wort Objektivitaet auftaucht wuerde ich mich an Deiner Stelle nicht so schnell einmischen. ;)
Original geschrieben von Winter[Raven]
*eg*
naja, du willst es ja auch ned einsehen ATI könnte diese Zahl nicht erreichen ................... ;D
Hab ich das je gesagt :|
Ich hab AUSDRÜCKLICH gesagt, dass ich mich an der Takteraterei NICHT beteilige. Aber dass es für die Leute, die es tun wohl ratsam wäre objektiv zu sein. Und nein du bist sicherlich nicht der einzige, dem diese Objektivität fehlt.
Bei dir ist es aber extrem auffällig und du scheinst auch nicht bereit zu sein, offen gegenüber Kritik zu sein...
Gruß,
börk
Demirug
2004-04-11, 11:20:40
Original geschrieben von LovesuckZ
Naja sie schreiben "with 16 Pipelines and 32 Shaderunits". Wie könnte man dies realisieren? Mit einer 2. FPU pro Pipeline?
Der NV35 hatte ja auch schon 2 FPUs pro Pipe. Es wäre also nichts wirklich neues.
Die 64 Ops könnten beim 420 doch auch erreicht werden, wenn ATi ebenfalls 32Shaderuntis haette. Natürlich lege diese dann hoeher, wegen den bestimmten Bedingung für die a-ops Ausführungen.
Ja mit 2 Shaderunits pro Pipe könnte sie sicher 32 A-Ops und unter bekannte Vorraussetzungen auch 64 oder noch mehr A-Ops erreichen. Ich glaube allerdings nicht das ATI diesen Weg gegangen ist.
Winter[Raven]
2004-04-11, 11:23:22
Wo immer das Wort Objektivitaet auftaucht wuerde ich mich an Deiner Stelle nicht so schnell einmischen.
Wer weiß, wer Weiß ^^. Aber als Nvidianer hoff ich natürlich das schlechte für ATI ^^.
Dazu wahren die Oberen Posting nicht sehr ernst gemeint. Natürlich ist es klar, dass man bei einem kleinerem Transicount in verbindung mit Low-k höher Takten kann. Nur müssen wir abwarten was die Finale Karte hinbekommt. Nvidia wollte ja auch 600 mhz erreichen jetzt sind es wohl nur 400mhz für die ultra(?) geworden.
*wieso sagt nur mein Mathelehrer, ich würd die Objektivität bei den schwiriegsten Aufgaben nicht verlieren :kratz:*
nunja, muss schluss machen, Verwandet da .... *seufz*
LovesuckZ
2004-04-11, 11:25:34
Original geschrieben von Demirug
Ich glaube allerdings nicht das ATI diesen Weg gegangen ist.
Also bleibe ATi den Weg des r300 treu?
Nun, es muss ja ein Grund geben, warum Nvidia nur 400MHZ Karten verschickt. Sollten sie wirklich 32Shaderunits haben, könnten sie denn konkurenzfähig sein?
reunion
2004-04-11, 11:32:42
Original geschrieben von Winter[Raven]
1. Ja, entweder ist der NV40 so effizient das man ihn ruhig mit 400 gegen ATI's 16 Piper laufen lässt.
Oder was wesentlich warscheindlicher ist man erreicht einfach nicht mehr mhz...
Ailuros
2004-04-11, 11:35:33
Original geschrieben von Winter[Raven]
Wer weiß, wer Weiß ^^. Aber als Nvidianer hoff ich natürlich das schlechte für ATI ^^.
Dazu wahren die Oberen Posting nicht sehr ernst gemeint. Natürlich ist es klar, dass man bei einem kleinerem Transicount in verbindung mit Low-k höher Takten kann. Nur müssen wir abwarten was die Finale Karte hinbekommt. Nvidia wollte ja auch 600 mhz erreichen jetzt sind es wohl nur 400mhz für die ultra(?) geworden.
*wieso sagt nur mein Mathelehrer, ich würd die Objektivität bei den schwiriegsten Aufgaben nicht verlieren :kratz:*
nunja, muss schluss machen, Verwandet da .... *seufz*
Dein Mathelehrer gibt Dir wohl keine Aufgaben die ATI/NVIDIA betreffen oder? hrhrhrhr ;D
j/k
Ailuros
2004-04-11, 11:42:51
Original geschrieben von reunion
Oder was wesentlich warscheindlicher ist man erreicht einfach nicht mehr mhz...
Ich weiss zwar nicht was mit der Taktrate bei NV40 eigentlich los ist; momentan ist fuer mich das 400MHz Geruecht immer noch unbestaetigte Spekulation.
Einfache Logik sagt mir aber dass es um einiges leichter ist die Taktrate zu reduzieren um Problemen und/oder extravaganten Kuehlungsloesungen zu entgehen, als die Taktraten nach oben zu schrauben; wichtige Vorraussetzung waere aber dass man bei NVIDIA sich halbwegs sicher sein kann, dass man mit 400MHz auch konkurrenzfaehig ist.
Ich will momentan noch nichts ausschliessen.
Demirug
2004-04-11, 11:43:52
Original geschrieben von reunion
Oder was wesentlich warscheindlicher ist man erreicht einfach nicht mehr mhz...
Mehr geht wohl schon. Es gibt ja nach wie vor das äusserst beharliche Gerücht nVidia hätte NV40 Karten mit 475/600.
reunion
2004-04-11, 11:45:08
Original geschrieben von Demirug
Aus welcher Küche kommt den das? Ich bin noch bei 500 MHz und da war es auch noch ein 12 Pipeline Chip?
Da gibt es einige "Küchen" die davon sprechen...
zB hier: http://www.darkcrow.co.kr/
Demirug
2004-04-11, 11:47:19
Original geschrieben von LovesuckZ
Also bleibe ATi den Weg des r300 treu?
Nun, es muss ja ein Grund geben, warum Nvidia nur 400MHZ Karten verschickt. Sollten sie wirklich 32Shaderunits haben, könnten sie denn konkurenzfähig sein?
Dazu müsste man erst einmal wissen was den nun eine Shaderunit ist. Die einzigen die AFAIK bisher von 32 Shaderunits geschrieben haben waren Maximum PC und aufgrund von dem was sie geschrieben haben müssen sie sich das ganze entweder aus den Fingern gesaugt haben oder falls sie nVidia unterlagen hatten diese schwer missverstanden haben. Es macht eben zu viel von dem was sie schreiben keinen Sinn.
Demirug
2004-04-11, 11:51:54
Original geschrieben von reunion
Da gibt es einige "Küchen" die davon sprechen...
zB hier: http://www.darkcrow.co.kr/
Die Meldung ist aber neuer als meine ursprüngliche Frage und auch nur wieder abgeschrieben.
Ich bleibe dabei das 500 MHz das höchste der Gefühle für einen R420 mit 16 Pipes ist.
reunion
2004-04-11, 11:53:15
Original geschrieben von Demirug
Mehr geht wohl schon. Es gibt ja nach wie vor das äusserst beharliche Gerücht nVidia hätte NV40 Karten mit 475/600.
Ja, mir kommt es auch etwas wenig vor, nur verstehe ich nicht warum NV eine niedrigergetakteten NV40 an die Tester weitergeben sollte?
LovesuckZ
2004-04-11, 11:55:44
Original geschrieben von Demirug
Dazu müsste man erst einmal wissen was den nun eine Shaderunit ist.
Die Einheit, die eine Operation ausführt?
Die einzigen die AFAIK bisher von 32 Shaderunits geschrieben haben waren Maximum PC und aufgrund von dem was sie geschrieben haben müssen sie sich das ganze entweder aus den Fingern gesaugt haben oder falls sie nVidia unterlagen hatten diese schwer missverstanden haben.
Sie sind die ersten, die außer "unter DX9 deutlich schneller als die alte Hardware" noch mehr dazu geschrieben haben.
Und es macht ja auch irgendwie Sinn, wenn man Nvidia wirklich davon ausging, dass ATi ebenfalls auf 16 "Pipes" geht. Dann müssten sie auch im besten Fall 32 Ops erreichen.
Sunrise
2004-04-11, 12:01:08
Original geschrieben von reunion
Ja, mir kommt es auch etwas wenig vor, nur verstehe ich nicht warum NV eine niedrigergetakteten NV40 an die Tester weitergeben sollte?
Damit man eben sichergeht, das jeder Tester so wenig wie möglich zu bemängeln hat.
Man geht bei einem NV40 @ 475MHz davon aus, dass die 1-Slot-Kühlung nichtmehr ausgereicht hätte, aber das ist natürlich reine Spekulation.
LovesuckZ
2004-04-11, 12:04:50
Original geschrieben von Sunrise
Man geht bei einem NV40 @ 475MHz davon aus, dass die 1-Slot-Kühlung nichtmehr ausgereicht hätte, aber das ist natürlich reine Spekulation.
Ja, man sagte, dass die Karten bei der Cebit oder GDC mit einer 2-Slot-Lösung hatten und auf 475MHz betrieben wurden.
Nvidia hätte wie beim NV30 2 Karten vorstellen sollen. Die non Ultra mit 400MHZ und Single-Slot-Lösung und die Ultra mit 2-Slot-Lösung auf 475MHZ. Damit hätte dann auch ATI etwas zu knacken gehabt.
Demirug
2004-04-11, 12:05:22
Original geschrieben von reunion
Ja, mir kommt es auch etwas wenig vor, nur verstehe ich nicht warum NV eine niedrigergetakteten NV40 an die Tester weitergeben sollte?
Schau dir mal die Historie von nVidia an. Wenn sie Abergläubisch sind darf der erste NV40 keine 475MHz haben wenn er ein Erfolg werden soll. ;)
Demirug
2004-04-11, 12:08:29
Original geschrieben von LovesuckZ
Die Einheit, die eine Operation ausführt?
Ich könnte dich jetzt in den Wahnsinn treiben und fragen was eine Operation ist? Aber lassen wir das.
Sie sind die ersten, die außer "unter DX9 deutlich schneller als die alte Hardware" noch mehr dazu geschrieben haben.
Und es macht ja auch irgendwie Sinn, wenn man Nvidia wirklich davon ausging, dass ATi ebenfalls auf 16 "Pipes" geht. Dann müssten sie auch im besten Fall 32 Ops erreichen.
Es mag ja sein das sie versucht haben eine Erklärung für das "schneller bei DX9" abzugeben. Diese ist aber rein technologisch betrachtet unsinn. Und mehr darf ich nicht wissen.
reunion
2004-04-11, 12:09:24
Original geschrieben von Demirug
Schau dir mal die Historie von nVidia an. Wenn sie Abergläubisch sind darf der erste NV40 keine 475MHz haben wenn er ein Erfolg werden soll. ;)
Das konnte man machen als man praktisch keine Konkurrenz hatte, jetzt muss NV aufpassen überhaupt schnell genug zu sein, ich glaube nicht dass man eine höher getaktete Version zurückhält um noch etwas teuer nachschieben zu können...
Original geschrieben von LovesuckZ
Naja sie schreiben "with 16 Pipelines and 32 Shaderunits". Wie könnte man dies realisieren? Mit einer 2. FPU pro Pipeline?In einigen Tagen wirst du es ganz genau wissen :)
Original geschrieben von Winter[Raven]
Wer weiß, wer Weiß ^^. Aber als Nvidianer hoff ich natürlich das schlechte für ATI ^^.Wie unklug ... je schlechter es ATI geht, desto höhere Preise zahlst du für NV-Produkte.
Demirug
2004-04-11, 12:19:14
Original geschrieben von reunion
Das konnte man machen als man praktisch keine Konkurrenz hatte, jetzt muss NV aufpassen überhaupt schnell genug zu sein, ich glaube nicht dass man eine höher getaktete Version zurückhält um noch etwas teuer nachschieben zu können...
Müssen sie wirklich aufpassen? Das Problem ist doch das keiner hier verlässliche Taktraten und Pixel/Takt Zahlen für den R420 hat. Ergo kann keiner sagen wie schnell eine der neuen Radeons sein wird. Entweder weiss nVidia mehr und hat sich darauf eingestellt oder sie wissen genauso wenig und müssen einen Trumpf in der Hinterhand behalten.
Es macht für nVidia keinen Sinn ATI mit riesigem Abstand den hintern zu versollen weil sie dich damit selbst die Marge kaputt machen würden. Das gleiche gilt natürlich umgekehrt auch für ATI.
reunion
2004-04-11, 12:19:18
Original geschrieben von Demirug
Die Meldung ist aber neuer als meine ursprüngliche Frage und auch nur wieder abgeschrieben.
Dann nimm halt die ;)
- Es wird zwei Modelle des R420 geben: Eine Pro-Karte mit 500Mhz Chip und 475Mhz Speichertakt und eine „Nitro“ genannte Karte mit 600Mhz Chip und 550Mhz Speichertakt.
- Es ist sehr wahrscheinlich, dass der R423 tatsächlich 16 Pipelines haben wird, während der R420 mit deren 12 daherkommt. Möglicherweise handelt es sich auch um die gleichen Chips bei denen abhängig von der Qualität 4 Pipelines (ein Quad-Block) deaktiviert werden oder nicht.
- Der R420 ist als weiterer R300-Refresh bekanntlich eine Übergangslösung. Entsprechend will ATi sich nicht mehr allzu lange auf die Architektur verlassen und bald den R500 bringen, dessen Entwicklungsstatus angeblich schon sehr weit vorangeschritten ist. Bei der Entwicklung des R500 kann man sich zudem stark auf die Unterstützung von Microsoft verlassen, da die Technologie in irgendeiner Form in der Xbox2 eingesetzt werden soll.
http://withingames.net/index.php?show=articles&type=showarticle&id=83&site=7
Das 600mhz vermutlich zuviel ist glaub ich auch, nur gibt es eben auch einige die davon sprechen...
reunion
2004-04-11, 12:24:59
Original geschrieben von Demirug
Müssen sie wirklich aufpassen? Das Problem ist doch das keiner hier verlässliche Taktraten und Pixel/Takt Zahlen für den R420 hat. Ergo kann keiner sagen wie schnell eine der neuen Radeons sein wird. Entweder weiss nVidia mehr und hat sich darauf eingestellt oder sie wissen genauso wenig und müssen einen Trumpf in der Hinterhand behalten.
Eben, und da keiner weiss wie schnell die Konkurrenz ist, wäre das einzig logische auf nummer sicher zu gehen und um jedern Preis erster zu werden, falls die Konkurrenz "zu langsam" ist kann man ja noch immer dem Preis nach oben korrigieren ;)
//Edit:
Oder anders gesagt, warum sollte man einen Trumpf in der Hinterhand behalten wenn man ihn schon jetzt ausspielen kann?
Demirug
2004-04-11, 12:33:01
Original geschrieben von reunion
Eben, und da keiner weiss wie schnell die Konkurrenz ist, wäre das einzig logische auf nummer sicher zu gehen und um jedern Preis erster zu werden, falls die Konkurrenz "zu langsam" ist kann man ja noch immer dem Preis nach oben korrigieren ;)
Es gibt eine Schmerzgrenze beim Preis. Zudem wird nVidia nicht umhin können beim Launch von angestrebten Verkaufspreisen zu sprechen.
Zudem soll es ja das Top-Model von ATI erst einen Monat später geben. Genügend Zeit um kurz vor dem Verkaufstart nochmal einen kleine Launch mit einem eigenen neuen Top-Model zu machen. Das lässt man dann vorher durchsickern um die Gamer nicht gar so sehr zu verägern. Eine gute FUD-Kampange ist Gold wert. Nur am Ende einer FUD-Kampange muss man auch irgendwas zeigen.
-error-
2004-04-11, 12:51:50
Sind diese Angaben zuverlässig?
http://www.gzeasy.com/itnewsdetail.asp?nID=14962
Sunrise
2004-04-11, 12:55:09
Original geschrieben von reunion
//Edit:
Oder anders gesagt, warum sollte man einen Trumpf in der Hinterhand behalten wenn man ihn schon jetzt ausspielen kann?
Man wartet für gewöhnlich erst einmal ab. Bevor überhaupt die Karten auf dem Tisch liegen, (schönes Wortspiel) wird zwar breit gegrinst (und NV ist schon sehr breit am grinsen), aber ausgespielt heisst ausgenommen, und das kann aktuell noch garnicht der Fall sein.
j/k ;)
CrazyIvan
2004-04-11, 13:23:36
Hatten wir im Tech-Forum nicht mal so n lustiges nVidia Patent mit nem Loch im PCB und auf/an das Die geklatschten Speicher?
Das würde ein beidseitige Kühlung erlauben und mir den mikrigen Kühler auf der Vorderseite des NV40 glaubwürdiger erscheinen lassen. Anders kann ich mir wahrlich nicht vorstellen, wie man die 1,4 fache Abwärme eines Prescott mit so nem Kühler mit ner vernünftigen Lautstärke abführen will.
Wäre doch witzig, wenn die "hinten drauf" noch nen wahren Klotz hätten, der per Heatpipe mit der Vorderseite verbunden ist...
Demirug
2004-04-11, 13:28:22
Original geschrieben von CrazyIvan
Hatten wir im Tech-Forum nicht mal so n lustiges nVidia Patent mit nem Loch im PCB und auf/an das Die geklatschten Speicher?
Das würde ein beidseitige Kühlung erlauben und mir den mikrigen Kühler auf der Vorderseite des NV40 glaubwürdiger erscheinen lassen. Anders kann ich mir wahrlich nicht vorstellen, wie man die 1,4 fache Abwärme eines Prescott mit so nem Kühler mit ner vernünftigen Lautstärke abführen will.
Wäre doch witzig, wenn die "hinten drauf" noch nen wahren Klotz hätten, der per Heatpipe mit der Vorderseite verbunden ist...
Das wurde als Lösung für Nodebooks identifiziert.
Hier ist noch ein mirror der 3D-Chipset-Scans =)
Geforce 6800 Artikel (http://www.3dchipset.com/temp/6800.zip)
up
CrazyIvan
2004-04-11, 13:47:20
*Doppelpost*
SRY
CrazyIvan
2004-04-11, 13:51:22
@ Demi
Zumindest das Loch im PCB für beidseitige Kühlung wäre doch auch für Desktops denkbar. Oder gibts da Probleme?
Hätte ne handvoll Vorteile:
- Kühler auf thermisch günstigerer Seite der GraKa
- große Kühler, da noch einiges an Luft bis zum Prozzie
- 1-Slot Lösungen machbar, die halbwegs leise arbeiten
Original geschrieben von Powerd by ATI
Sind diese Angaben zuverlässig?
http://www.gzeasy.com/itnewsdetail.asp?nID=14962 Komische Frage. Die, die es wissen, dürfen es eh nicht sagen.
LovesuckZ
2004-04-11, 15:08:06
Original geschrieben von aths
In einigen Tagen wirst du es ganz genau wissen :)
Auf eienr Skala von 1 bis 10: Wie weit könnte denn diese Theorie stimmen? :)
Winter[Raven]
2004-04-11, 15:32:31
Original geschrieben von LovesuckZ
Auf eienr Skala von 1 bis 10: Wie weit könnte denn diese Theorie stimmen? :)
Brauchst bei ATHS ganricht versuchen, er sagt nix ... NDA *eg*.
LovesuckZ
2004-04-11, 15:33:28
http://www.searchbarpro.com/images/other/3dm3nv40.jpg (http://www.beyond3d.com/forum/viewtopic.php?p=254344#254344)
die ganzen harware seiten schreiben imo warscheinlich an ihren ganzen reviews damit sie die am Di online stellen können. ähnlich wie beim r9800xt launch.
dildo4u
2004-04-11, 15:39:00
Original geschrieben von LovesuckZ
http://www.searchbarpro.com/images/other/3dm3nv40.jpg (http://www.beyond3d.com/forum/viewtopic.php?p=254344#254344) fake der 1 test is dx7 also vollkommen cpu limitiert da kommt selbst ein p4 mit 4.2ghz nur auf 350fps
Although the scores add up to roughly 12510, wouldn't 453fps in game 1 be next to impossible with a standard non-overclocked cpu? I think Dave said game 1 was the only test where CPU had an impact on performance (or something similar
http://www.gzeasy.com/itnewsdetail.asp?nID=14962
auf dem ersten bild ist ja nur ein stromanschluss abgebildet.
Ich würd mir die ja auch wohl holen
wenn die nicht so viel strom verbrauchen würde.
Was verbraucht denn ne Geforce 2 gts nur als relation.
mfg
Paul
das auf dem bild aus auch keine nv40, sieht sehr komisch aus
betasilie
2004-04-11, 17:25:46
Original geschrieben von WEGA
das auf dem bild aus auch keine nv40, sieht sehr komisch aus
Was dann? Imo ist das eine 6800-non-ultra.
Und mal was anderes: Ist es gesichert, dass der NV40 OGL2.0-compliance ist?
Demirug
2004-04-11, 17:27:17
Original geschrieben von betareverse
Was dann? Imo ist das eine 6800-non-ultra.
Und mal was anderes: Ist es gesichert, dass der NV40 OGL2.0-compliance ist?
Ist OpenGL 2.0 umfang schon entgültig festgelegt?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.