Archiv verlassen und diese Seite im Standarddesign anzeigen : 7800GTX 512MB mit GDDR3 1,7GHz+ Speicher?
deLuxX`
2005-11-13, 18:00:47
So groß ist der dt. Markt nicht, dass er als erstes beliefert werden müsste.
Trotzdem sehe ich in D keine lieferbare X1800XT Karte. Du kannst nicht erwarten, dass die Kunden das alles aus Sicht einer großen, nur nach Gewinn strebenden, Firma sehen. Möglich, dass es für ATI relativ gesehen, nichts ausmacht ob die Chips jetzt einen Monat früher oder später auf den deutschen Markt kommen; auf gute Kundenresonanz brauchen sind dann nicht hoffen.
-deLuxX`
edit: Ach... (http://www.eurodatec.de/product_info.php?products_id=974)
So groß ist der dt. Markt nicht, dass er als erstes beliefert werden müsste.Nein, aber der Europäische und der Rest der Welt außer den USA sicher.
Erzähl mir doch nix. ATi hat wohl große Probleme genügend X1800 XT zu produzieren im Moment.
reunion
2005-11-13, 20:36:36
Erzähl mir doch nix. ATi hat wohl große Probleme genügend X1800 XT zu produzieren im Moment.
Die Massenproduktion von R520 wurde erst vor knapp zwei Monaten aufgenommen. Seit kurzem wird laut ATi damit begonnen, diese Chips auch auszuliefern. Die bis jetzt verfügbaren XL-Karten sind alle von einer älteren, fehlerhaften Revision. Du kannst also noch überhaupt nicht beurteilen, ob ATi irgendwelche Probleme hat, genügend XT-Karten zu produzieren, da schlicht noch überhaupt keine R520-Karten der finalen-Revision verfügbar sind.
Damit meinte ich Karten produzieren. Kann ja auch daran liegen dass einfach nicht genügend R520 fertig sind.
BlackArchon
2005-11-13, 20:54:53
...
Die bis jetzt verfügbaren XL-Karten sind alle von einer älteren, fehlerhaften Revision.
...Inwiefern fehlerhaft?
M2-Master
2005-11-13, 20:55:18
Man muss eigentlich aber auch mal sagen das die 7800gtx jetzt kein absolut schlechtes Bild liefert.Hier wird ja immer nur dasselbe erwähnt,das die 7800gtx keine Ränderglättung bei HDR kann und der AF-Filter winkelabhängig ist.Ich nehme Nvidia nicht in Schutz und bin auch kein Fan,aber mal ganz ehrlich,das sind doch Feinheiten!Ihr werdet in jedem Spiel volle Details einstellen können und sehen das auch die GTX ein gutes Bild macht ;).
Inwiefern fehlerhaft?Dieser Bug in externer IP, der hohe Taktraten verhindert hat angeblich.
Das komische daran ist nur das MisterH mir versichert, dass er seine XL auf >600Mhz bekommt.
Black-Scorpion
2005-11-13, 21:00:51
Meinst du nicht das es da einen kleinen Unterschied gibt?
reunion
2005-11-13, 21:01:05
Das komische daran ist nur das MisterH mir versichert, dass er seine XL auf >600Mhz bekommt.
Nicht nur MisterH, mit XT-Spannung gehen die meisten XLs >600Mhz mit default-Kühlung.
Quasar
2005-11-13, 21:01:48
Dieser Bug in externer IP, der hohe Taktraten verhindert hat angeblich.
Das komische daran ist nur das MisterH mir versichert, dass er seine XL auf >600Mhz bekommt.
Ich glaube, die Qualitätsstandards, die die IHVs haben sind denen, die User selbst anlegen um Längen voraus.
Schau alleine mal, wieviele 8- oder 12-Pipe-Karten sich angeblich problemlos auf 16 Pipelines freischalten lassen. Meine GF6800 ließ das auch mit sich machen - bisher in keinem Spiel irgendwelche Fehler, die mir aufgefallen wären. Anders in einem ~1000-Instruktionen-Raytracing-Shader. Dort gibt es sofort eine kaputte Bildausgabe.
Nicht nur MisterH, mit XT-Spannung gehen die meisten XLs >600Mhz mit default-Kühlung.Ja eben, warum sollten die dann fehlerhafte Chips haben?
Ich glaube, die Qualitätsstandards, die die IHVs haben sind denen, die User selbst anlegen um Längen voraus.
Schau alleine mal, wieviele 8- oder 12-Pipe-Karten sich angeblich problemlos auf 16 Pipelines freischalten lassen. Meine GF6800 ließ das auch mit sich machen - bisher in keinem Spiel irgendwelche Fehler, die mir aufgefallen wären. Anders in einem ~1000-Instruktionen-Raytracing-Shader. Dort gibt es sofort eine kaputte Bildausgabe.Gut, das ist eine mögliche Erklärung.
misterh
2005-11-13, 21:16:10
Ja eben, warum sollten die dann fehlerhafte Chips haben?
Naja ich hab mal gelesen dass es bei XL A13 und A14 gibt. und ich habe A14 Revision. gemeint war wohl bei A13?
reunion
2005-11-13, 22:04:22
Naja ich hab mal gelesen dass es bei XL A13 und A14 gibt. und ich habe A14 Revision. gemeint war wohl bei A13?
Nein, es werden nur A14, A15 und A23 an die Endkunden ausgeliefert AFAIK.
Wobei A14 die "fehlerhaften" Chips darstellen.
misterh
2005-11-13, 22:33:35
Nein, es werden nur A14, A15 und A23 an die Endkunden ausgeliefert AFAIK.
Wobei A14 die "fehlerhaften" Chips darstellen.
glaube ich nicht. was soll an mein GPU fehlerhaft sein? :|
Quasar
2005-11-13, 22:39:03
"Fehlerhaft" in dem Sinne, daß es noch nicht das Stepping ist, bei dem ATi zufrieden genug war, um die XT damit auszustatten. Halt der Bug, der erhöhte Leckströme verursacht und die Taktfähigkeit eingeschränkt hat.
misterh
2005-11-13, 22:50:56
"Fehlerhaft" in dem Sinne, daß es noch nicht das Stepping ist, bei dem ATi zufrieden genug war, um die XT damit auszustatten. Halt der Bug, der erhöhte Leckströme verursacht und die Taktfähigkeit eingeschränkt hat.
naja, also mehr verbraucht?
"Fehlerhaft" in dem Sinne, daß es noch nicht das Stepping ist, bei dem ATi zufrieden genug war, um die XT damit auszustatten. Halt der Bug, der erhöhte Leckströme verursacht und die Taktfähigkeit eingeschränkt hat.Es war ein Bug in externer IP, das kann auch durchaus mit kritischen Pfaden zusammenhängen.
naja, also mehr verbraucht?Nein weniger Takt mitmacht bis der Chip Fehler produziert. Dass du sie vielleicht nicht bemerkst ist dabei unerheblich.
misterh
2005-11-13, 22:59:58
Nein weniger Takt mitmacht bis der Chip Fehler produziert. Dass du sie vielleicht nicht bemerkst ist dabei unerheblich.
hab das nicht verstanden. :frown:
hab 655mhz in allen sachen "ohne" fehler bzw keine schwerigkeiten.
Läuft 100% stabil
reunion
2005-11-13, 23:05:31
hab das nicht verstanden. :frown:
hab 655mhz in allen sachen "ohne" fehler bzw keine schwerigkeiten.
Läuft 100% stabil
Erstens verträgt logischerweise jeder Chip eine unterschiedlich hohe Frequenz bis er Fehler produziert, d.h. man kann das nicht verallgemeinern, und zweitens müssen diese Fehler nicht offensichtlich sein - sie können auch nur bei für viele Anwendungen irrelevanten Funktionen auftreten.
misterh
2005-11-13, 23:06:42
okok schon kapiert.
aber ich war immer sicher, dass A13 gemeint war. nicht die A14
reunion
2005-11-13, 23:13:56
okok schon kapiert.
aber ich war immer sicher, dass A13 gemeint war. nicht die A14
Ich hab' mich hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3613767&postcount=601) schonmal dazu geäußert.
A13 wird meines Wissens nicht an die Endkunden ausgeliefert.
Ailuros
2005-11-13, 23:19:31
Ist die X1800XT eigentlich irgendwo lieferbar? Es wird langsam knapp und peinlich für ATi.
Wenn sie schon lieferbar in meiner Ecke hier ist, dann ist es ein gutes Anzeichen.
Bist du sicher dass es sich so verhält? 3 statt 4 Layer lässt sich imho auch nicht mit viel mehr Transistoren kompensieren.
Wenn sie schon lieferbar in meiner Ecke hier ist, dann ist es ein gutes Anzeichen.Ich finde im Web nur keinen Händler der sie auf Lager hat.
Ailuros
2005-11-13, 23:21:50
Aber heiss, was hat man lieber ein etwas laute Karte oder eine heisse, die sich dann wahrscheinlich eh nicht mehr weit übertakten lässt?
600MHz geht auf der 512 GTX locker und sie ist genauso laut wie die 256 GTX. Fuer den gigantischen Kuehler bezahlt man ja auch einen ziemlich heftigen Preis.
Ailuros
2005-11-13, 23:24:15
Ich finde im Web nur keinen Händler der sie auf Lager hat.
Oooops es steht tatsaechlich hier 30.11. hier im feingedruckten.
reunion
2005-11-13, 23:26:53
Bist du sicher dass es sich so verhält? 3 statt 4 Layer lässt sich imho auch nicht mit viel mehr Transistoren kompensieren.
Jegliche Behauptungen sind natürlich nur so gut, wie die Quelle, welche dies behauptet hat - ich vertraue dieser Quelle zu 100%.
misterh
2005-11-13, 23:28:14
@ reunion
kann auch sowas gemeint sein?
500/495 geht
500/550 auch
500/711 nein <-- kommt lauter bildfehler.
655/711 geht
bzw wenn ich mehr gpu takt habe und/oder mehr volt, dann geht performance langsamer.
reunion
2005-11-13, 23:31:41
@ reunion
kann auch sowas gemeint sein?
500/495 geht
500/550 auch
500/711 nein <-- kommt lauter bildfehler.
655/711 geht
bzw wenn ich mehr gpu takt habe und/oder mehr volt, dann geht performance langsamer.
Keine Ahnung, halte ich allerdings für unwarscheindlich.
Jegliche Behauptungen sind natürlich nur so gut, wie die Quelle, welche dies behauptet hat - ich vertraue dieser Quelle zu 100%.Was ist mit "Metal-Layer" überhaupt gemeint? Die Interconnects?
reunion
2005-11-13, 23:39:23
Was ist mit "Metal-Layer" überhaupt gemeint? Die Interconnects?
Keine Ahnung, was ich weiß habe ich schon erwähnt. :D
ATi bezeichnet es als "metal-layer-revision-number".
Das Problem was ich damit habe ist dass eigentlich TSMC vorgibt wieviele Layer ein Prozess hat. Ich denke nicht dass sie die ganzen Fabs nur für ATi da umrüsten.
reunion
2005-11-13, 23:44:38
Das Problem was ich damit habe ist dass eigentlich TSMC vorgibt wieviele Layer ein Prozess hat. Ich denke nicht dass sie die ganzen Fabs nur für ATi da umrüsten.
Ich bin in dieser Hinsicht zu wenig gebildet, um darauf eingehen zu können, ich kann nur weitergeben, was ich gehört habe.
Quasar
2005-11-13, 23:52:09
ATi bezeichnet es als "metal-layer-revision-number".
Das klingt IMO eigentlich eindeutig: Die Revision der Interconnects - nicht deren Zahl und eben, zur Unterscheidung, auch nicht die Revision des Cores an sich, sondern nur der Verdrahtungsebenen. Oder ist es einfach nur schon zu spät für heute?
3 Interconnect-Layer in 90nm? Niemals.
Quasar
2005-11-14, 00:06:15
Das klingt IMO eigentlich eindeutig: Die Revision der Interconnects - nicht deren Zahl und eben, zur Unterscheidung, auch nicht die Revision des Cores an sich, sondern nur der Verdrahtungsebenen. Oder ist es einfach nur schon zu spät für heute?
r3ptil3
2005-11-14, 10:25:57
600MHz geht auf der 512 GTX locker und sie ist genauso laut wie die 256 GTX. Fuer den gigantischen Kuehler bezahlt man ja auch einen ziemlich heftigen Preis.
Damit war der Konkurrent der 7800 GTX 512Mb gemeint, da ATI ja auch irgendwie kontern muss, evtl. schon gleich mit dem R580...
seahawk
2005-11-14, 10:38:01
Exakt, ATI ird die 512MB GTX mit dem R580 kontern. 48Pipes @ 700mhz. Muhaha
Anarchy-HWLUXX
2005-11-14, 10:40:58
ATi und kontern, se schaffen es netmal den R520 gebacken zu bekommen aba nen GTX/512 killer schüttelt man locker aus dem Handgelenk ?
Ne, sicherlich nicht ;)
Blaze
2005-11-14, 11:05:59
Exakt, ATI ird die 512MB GTX mit dem R580 kontern. 48Pipes @ 700mhz. Muhaha
ATi kann froh sein wenn sie 24 Pipes schaffen... :ulol:
Blaire
2005-11-14, 12:49:00
Exakt, ATI ird die 512MB GTX mit dem R580 kontern. 48Pipes @ 700mhz. Muhaha
Die haben nichtmal Crossfire fertig, sehr witzig... :tongue:
deekey777
2005-11-14, 12:50:20
EVGA e-GeForce 7800 GTX 512MB (http://www.techwarelabs.com/reviews/video/evga7800gtx512/)
http://www.ixbt.com/video2/g70-7.shtml
Russische Sprache - schwere Sprache....
Exakt, ATI ird die 512MB GTX mit dem R580 kontern. 48Pipes @ 700mhz. Muhaha48 ALUs mit 16 TMUs, 16 ROPs. Das ist genau der gleiche Leistungssprung wie von RV515 auf RV530.
ATI wird zwar versuchen R580 als 48-Pipeline Chip zu verkaufen genauso wie sie RV530 als 12-Pipeline Chip verkaufen, das Ding ist effektiv aber nur ein R520 mit verbesserter Rechenleistung in den Pixelshadern.
Das man für volle 48 TMUs nicht annähernd die nötige Bandbreite hätte brauch ich wohl nicht zu erwähnen.
Die 700Mhz bezweifel ich mal bei gleichem Prozess und gesteigerter Komplexität.
ATi kann froh sein wenn sie 24 Pipes schaffen...Schaffen sie auch nicht in gewisser Hinsicht.
Quasar
2005-11-14, 13:07:25
Nvidia würden mehr TMUs eher gut tun.
seahawk
2005-11-14, 13:12:29
@ Coda das ist mir völlig bewußt.
Mich nervt nur die Ansicht, dass ATI (oder ggf. auch NV) immer eine Antwort auf ein Produkt des Gegners haben muss.
Die gelbe Eule
2005-11-14, 13:15:41
48 ALUs mit 16 TMUs, 16 ROPs. Das ist genau der gleiche Leistungssprung wie von RV515 auf RV530.
ATI wird zwar versuchen R580 als 48-Pipeline Chip zu verkaufen genauso wie sie RV530 als 12-Pipeline Chip verkaufen, das Ding ist effektiv aber nur ein R520 mit verbesserter Rechenleistung in den Pixelshadern.
Das man für volle 48 TMUs nicht annähernd die nötige Bandbreite hätte brauch ich wohl nicht zu erwähnen.
Die 700Mhz bezweifel ich mal bei gleichem Prozess und gesteigerter Komplexität.
Schaffen sie auch nicht in gewisser Hinsicht.
Recht hast Du. Was auch negativ beim R580 auffällt, das man seit Juli wohl ein Sample laufen hat, aber trotzdem so lange für den R520 brauchte.
Ist eigentlich Kundenverarschung mit einem Produkt zu werben, das nicht verfügbar sit und alsbald abgelöst wird. Fast schon so wie beim Facelift für Autos, wo der Händler noch eben schnell das alte Modell zum gleichen Preis loswerden möchte.
Andernfalls könnte ich mir auch vorstellen, das der R580 nur R580 bleibt, also ein Pendant vom Schlage G70 512MB und einfach UberHighEnd zum neuen Markt macht. Karten für über 600€ werden dann wohl standard werden.
Sieht man sich die Benchmarks an, kann nur ein System mit 2 SLi Karten mithalten, die aber dann nochmals 250€ teurer wären. Im Prinzip geht die Rechnung beider Hersteller auf.
Nvidia würden mehr TMUs eher gut tun.Eine TMU pro Pipeline ist optimal. Was du meinst ist nebenläufige TMUs.
DGE das ist keine Kundeverarschung. ATi hatte ja lauffähige Karten, sie konnten nur die Taktraten nicht erreichen wegen einem Käfter in externer IP.
Sie hätten R520 wohl liebend gerne schon früher auf den Markt gebracht.
Black-Scorpion
2005-11-14, 13:21:15
Was auch negativ beim R580 auffällt, das man seit Juli wohl ein Sample laufen hat, aber trotzdem so lange für den R520 brauchte.
Was ist daran negativ?
Der R580 und der R520 wurden von verschiedenen Teams entwickelt.
Der R580 liegt im Zeitplan.
Der R520 hat sich verzögert das beide so eng zusammenliegen.
Der R580 und der R520 wurden von verschiedenen Teams entwickelt.Ich würde eher sagen, dass der Pixelprozessor von R520 und ein paar andere Sachen von einem anderen Team nochmal aufgebohrt wurde. So groß sind die Unterschiede global gesehen sicher nicht.
Gandharva
2005-11-14, 13:22:57
EVGA e-GeForce 7800 GTX 512MB (http://www.techwarelabs.com/reviews/video/evga7800gtx512/)
http://www.ixbt.com/video2/g70-7.shtml
Russische Sprache - schwere Sprache....
Yes, here is this the intriguing name. Indeed if we look at the difference in the frequencies between 256- and shchy2-megabaytnymi versions GeForce 7800 gtx, then to not each "Ul'tre" dreamed this increase! We remember maximum difference in the frequencies in GeForce FX 5800 ultra and 5800 - 100 MHz on the nucleus. And that less in 6800 ultra and 6800GT. But in this case the difference in 120 MHz in the nucleus, and maps are called equally! Truly, the marvellous matters are created in the brains of marketologov! First each revision of one and the same chip is called they otherwise and appropriate another name to product as a whole, then the now completely different maps, which in the name differ only in terms of the storage capacities, was obtained identical designation. Moreover even in the very NVIDIA confuse with the valid question: "A which, will be perhaps still and" ultra "? But if not, then why they did not give this index to this map?" And there is no comprehensible answer. However one is accurately known: 7800 ultra not will be! The following product, which will be even more powerful than the present flag officer, it will bear already another name. Therefore title - in order only to intrigue:) 4 not I will be extended about the future, that expects market 3d- accelerators in the beginning of 2006, to everything its time, but it is until today clear that GeForce 7800 gtx 512MB pretends to the throne and the crown as the most rapid in the world accelerator of play class. Yes, thus it is long and it is complicatedly now necessary to designate accelerator in order to distinguish it of the fact that we saw earlier with 256- yu by megas-byte OZU. Yes even itself GPU so is named: GeForce 7800 GTX 512. Of course this entire the same G70. nothing new was introduced, revision the same (A2). Simply still in summer was accepted the solution to select the most high speed chips, capable of working at the superhigh frequencies, and put aside by the stage of production. At that time still nothing not there they were known about ATI RADEON X1800 XT, its neither characteristics its nor frequencies. And therefore NVIDIA made different motions in order to provide possible reciprocal measures if rival will prove to be stronger than GeForce 7800 GTX 256MB. I this was the very foresighted solution. Now, when it became clear that superiority X1800 XT 512MB over 7800 gtx 256MB is not so great, but sometimes and even there are small delays, it is time to start the accumulated arsenal. Yes, relative to the mass character of the deliveries of the average and cheap solutions the collected number of chips G70 for the shchy2-megabaytnykh maps is certainly small; however, for the beginning of the release of accelerators by price it is above 600 US dollars completely sufficiently. Selection GPU continues now moreover. In proportion to the adjustment of the production (but this process in the essence it can be up to 100% of output of suitable) of such nuclei it can be more than demand for the super-expensive shchy2-megabaytnye maps, and therefore it is completely possible that the part of the usual 7800GTX 256MB will be equipped with such here super-potential GPU, which will become gift overklokeram. I repeat, that the only assumption! There can be demand for the shchy2-megabaytnye products will be so great, that all selected chips will go only to the production of similar maps. Let us return to X1800 XT. by all understandable that the new solution of NVIDIA it let out precisely as the counterweight to flag officer ATI. And precisely during those days, when Canadian company declared about the accessibility in sale of its newest accelerators. Nonaccidentally price of 7800 GTX 512 is established almost on hundreds of dollars higher than original MSRP in X1800 XT ($549) - 649 US dollars. Indeed it is no secret that products on base X1800- series is thus far very small, demand is great, prices are raised to the skies! And of course on 550 dollars X1800 XT in the middle of November of 2005 not to purchase. And even on 600 not to find. Price will be above. And even MSRP is increased to 599 dollars. Why NVIDIA not to extract profit from this? Although, it cannot be forgotten that prime cost 7800 GTX 512 is nevertheless very high. However, give let us study map itself.
Still when only we began to study 7800 gtx, already then they noted that NVIDIA let out the product on PCB, calculated for the use of 512 megas-byte of memory, since half of landing places under the microcircuits was empty. It is clear that the design of that pay was projected still when was planned the production of shchy2-megabaytnoy map with the same frequencies, as in 2shch'-megabaytnogo version. The subsequent events sharply changed plans, and NVIDIA were required the more rapid microcircuits of memory; however, PCB from 7800 gtx 256MB was calculated only for the 144- contact microcircuits in BGA to packing. But more rapid has already been let out in the 136- contact form. Moreover if we already and alter PCB, but it is necessary to use shchy2-megabitnye modules, which will decrease a quantity of microcircuits on the pay. Thus such, we obtained GeForce 7800 GTX 512, in which PCB is very similar to that that it is possible to see in X1800 XT. 7800 GTX 512 it is equipped with two nests DVI, there is VIVO.
Thus: NVIDIA GeForce 7800 gtx 512MB - the most rapid until today 3d- accelerator of play class! This can be taken for granted. Somewhere can be encountered parity with X1800 XT, but as a whole the speed is strongly above. Plus map possesses excellent starting potential! Yes, price is higher than in X1800 XT: 640 dollars against 599. However, taking into account that 7800 gtx 512MB already it began to be sold (to the announcement!), and many maps already on the way into the stores, price on them can easily fall to 600 and even it is lower. What as yet cannot be said about X1800 XT, which it is still extremely small, and price beyond the limits (to the middle of November). One should note also that the use of new carmelized sugar and change PCB in 7800 GTX 512 against the 2shch'-megabaytnogo analog positively affected heating of map as a whole in the plan of its decrease. Pay not as is fiery as it is earlier. Yes even heating nucleus does not exceed 80 degrees even with this super-acceleration as 620 MHz. Cooling system is very quiet, the frequency of the rotation of fan is not above 1000 revolutions per minute, there is blowing out of air beyond the limits of system block. On the whole, if we do not consider very high price, map greatly and greatly was pleased. Deficiency I can name only the poor quality of anisotropy in tuning of drivers in regime Quality, when as with start High Quality this shortage disappears, but at the same time and is disconnected a number of useful optimization. And therefore it is complicated to select - which is better: Quality or High Quality in tuning of drivers. However, this all concerns all 7800- maps, but not only data. In this plan in X1800 XT the situation is better, yes even selection exists on the quality AF. As a whole it is necessary to note again very successful appearance NVIDIA in this year, to which actually thus far shines the fortune, and it proposes very interesting products. About delay ATI to be repeated not to camp, many times has already been spoken. I hope that by the relative mass character of deliveries and by reduction in the prices to X1800 XT they can conquer attention and love of worshippers 3d- games, but thus far it must establish that Hi-End products NVIDIA appear more more attractive (as were not agitated fans and worshippers of red- white, but against the facts not to go). There are information, that the Canadian company recommended to partners the increasing of the frequencies of work X1800 XT. if this truth, then it will very interestingly look - which will come out from this. Although takeing into account starting potential 7800 GTX 512 and already the facts of appearance in sale of officially razogannykh on the nucleus to 580 MHz of such pays, it seems to me that nothing it will leave with this undertaking in ATI. To Canadians it remains to only increase efforts on that so that X1800 XT would be accessible, and also reduce by it prices. Well and to be prepared for the new round of battle, which takes place already in the spring of 2006. The more complete comparative characteristics of videokart of this and other classes you can see also in our 3DGiTogax.
ist grässlich zu lesen, aber besser als russisch ;)
Quasar
2005-11-14, 13:25:14
Eine TMU pro Pipeline ist optimal. Was du meinst ist nebenläufige TMUs.
Nein, ich meine "mehr TMUs". Aus dem Grunde, weil ich nicht glaube, daß nVidia vor ihrer nächsten wirklich neuen Architektur (Unified Shader) das Problem mit ihren TMUs, die ALU-Leistung stallen können, noch lösen wird.
Die gelbe Eule
2005-11-14, 13:25:48
In den Reviews kann man deutlich sehen, das der 900MHz Speicher verbaut ist, komisch nur das dort nur der 81.87 verwendet wurde, der ja nichtmal die Karte unterstützt.
Brauch sich keiner zu wundern, das es da Kinderkrankheiten gibt ;)
Black-Scorpion
2005-11-14, 13:26:54
Ich würde eher sagen, dass der Pixelprozessor von R520 und ein paar andere Sachen von einem anderen Team nochmal aufgebohrt wurde. So groß sind die Unterschiede global gesehen sicher nicht.
Das ändert aber an der Aussage nichts das der R580 im Zeitplan liegt.
Was daran negativ sein soll ist mir ein Rätsel.
Nein, ich meine "mehr TMUs". Aus dem Grunde, weil ich nicht glaube, daß nVidia vor ihrer nächsten wirklich neuen Architektur (Unified Shader) das Problem mit ihren TMUs, die ALU-Leistung stallen können, noch lösen wird.Mehr TMUs ist idiotisch. Was wir in Zukunft brauchen ist mehr ALU-Leistung.
CineFX 1 hatte 2 TMUs pro Pipeline. Diese konnten aber immer nur gleichzeitig samplen in einem VLIW, was eine davon oft unbenutzt ließ.
Und ich bin mir verdammt sicher, dass sie das in einem US lösen müssen. Für Vertexprogramme ist das fast unumgänglich und in der Tat sind die Vertex-TMUs in G70 jetzt schon nebenläufig.
Btw. würden mehr TMUs bei G70 den Stall nicht beseitigen.
Das ändert aber an der Aussage nichts das der R580 im Zeitplan liegt.
Was daran negativ sein soll ist mir ein Rätsel.Nichts. Außer für die Leute die sich jetzt unbedingt R520 kaufen müssen ;)
deekey777
2005-11-14, 13:28:25
ist grässlich zu lesen, aber besser als russisch ;)
Man könnte auch etwas warten und diesen Test auf Englisch bei Digit-Life.com geniessen.
Egal: Auch wenn die 7800GTX 512MB in jedem Test führt, so steht jedesmal das gleich: Die X1800XT liefert die beste und für die 7800GTX unerreichbare Bildqualität.
In den Reviews kann man deutlich sehen, das der 900MHz Speicher verbaut ist, komisch nur das dort nur der 81.87 verwendet wurde, der ja nichtmal die Karte unterstützt.
Brauch sich keiner zu wundern, das es da Kinderkrankheiten gibt ;)
Und für den 512Mbit-Speicher brauchte man ein neues PCB.
Quasar
2005-11-14, 13:30:16
Mehr TMUs ist idiotisch. Was wir in Zukunft brauchen ist mehr ALU-Leistung.
CineFX 1 hatte 2 TMUs pro Pipeline. Diese konnten aber immer nur gleichzeitig samplen in einem VLIW, was eine davon oft unbenutzt ließ.
Ich drücke es mal anders aus:
Nvidia braucht eine Architektur, bei der die einzelne TMU prozentual weniger Rechenleistung blockieren kann. Zufrieden?
Ja, aber da sind mehr TMUs sicher keine Lösung.
Überhaupt überbewertet ihr dieses "Manko" ziemlich. nVIDIA spart damit viel Transistoren die sie in mehr Pipeline stecken was im Endeffekt vielleicht sogar effektiver ist.
Glaubst du denn nVIDIA baut mit Absicht so einen Pixelprozessor wenn es nicht an anderer Stelle wieder einen Vorteil gäbe?
Ich denke die haben in ihren Pipeline-Simulatoren schon sehr genau analysiert was sinnvoll ist und was nicht, darüber können wir uns eigentlich kein Urteil erlauben.
Die gelbe Eule
2005-11-14, 13:37:16
Und für den 512Mbit-Speicher brauchte man ein neues PCB.
Die sind aber eher marginal, soviel wurde nicht verändert. Vorgesehen war es allemal, Platzhalter für die RAMs gab es bereits auf dem alten PCB.
Das PCB ist identisch soweit man das von außen beurteilen kann. Es ist ja auch kaum sinnvoll bein 256MiB-PCB schon Platz für 512MiB frei zu halten um es dann eh nochmal neu zu designen.
deekey777
2005-11-14, 13:42:51
Die sind aber eher marginal, soviel wurde nicht verändert. Vorgesehen war es allemal, Platzhalter für die RAMs gab es bereits auf dem alten PCB.
Jein. Die "alten" langsamen Speicherchips passen auch auf das PCB, das die 7800 seit dem 22. Juni hat, die kann man also einfach drauf pflanzen.
Dagegen sind die neuen schnelleren Speicherchips nicht mehr Pin-kompatibel (144 alt vs. 136 neu und schnell), ein anderes, angepaßtes PCB war nötig; die neuen 512Mbit-Chips mit 136Pins sind etwas länglich.
Die gelbe Eule
2005-11-14, 13:44:46
NV hat nun einen Geschwindigkeitsvorteil inne, der muss ausgebaut werden. Dieser Überschuß sollte dann in Zukunft in ein winkelunabhängiges AF und effizienteres TSAA/AA eingesetzt werden. Mit dem jetzigen Design steht man ganz gut da, gleiche BQ zum ATi Pendant für den G80 ist schon Pflicht.
Quasar
2005-11-14, 13:45:57
Ja, aber da sind mehr TMUs sicher keine Lösung.
Überhaupt überbewertet ihr dieses "Manko" ziemlich. nVIDIA spart damit viel Transistoren die sie in mehr Pipeline stecken was im Endeffekt vielleicht sogar effektiver ist.
Glaubst du denn nVIDIA baut mit Absicht so einen Pixelprozessor wenn es nicht an anderer Stelle wieder einen Vorteil gäbe?
Ich denke die haben in ihren Pipeline-Simulatoren schon sehr genau analysiert was sinnvoll ist und was nicht, darüber können wir uns eigentlich kein Urteil erlauben.
Ich bin mir nicht sicher - in diesem Punkt baut das komplette Design ja noch auf der Ur-CineFX auf. Und wie verkorkst die dann an der Spiele-Realität vorbeiging, wissen wir ja. Ich glaube, Nvidia ist an ihr wenig paralleles Design, was TMU und ALU angeht, gebunden und muss das nun bis zum bitteren Ende durchziehen.
robbitop
2005-11-14, 13:46:32
Nvidia würden mehr TMUs eher gut tun.
wenn man denn die Bandbreite hätte, diese zu versorgen. Ohne Texturinfos keine Filterung.
robbitop
2005-11-14, 13:48:47
CineFX 1 hatte 2 TMUs pro Pipeline. Diese konnten aber immer nur gleichzeitig samplen in einem VLIW, was eine davon oft unbenutzt ließ.
Wie oft ist eine Texturkoordinate nur mit einem bi sample verbunden? Zumeist muss eh länger gefiltert werden. Klar stimmt es in gewissen Situationen aber IMO übertreibst du mit "oft unbenutzt" ziemlich.
alpha-centauri
2005-11-14, 13:48:50
s warten und diesen Test auf Englisch bei Digit-Life.com geniessen.
Egal: Auch wenn die 7800GTX 512MB in jedem Test führt, so steht jedesmal das gleich: Die X1800XT liefert die beste und für die 7800GTX unerreichbare Bildqualität.
.
Oh mann.. Nicht das schon wieder... "Ich ignoriere alle Performancerelevanten Messungen und interessiere mich nur für Bildqualität. An sich würd ich auch lieber auf ner 9800 Pro spielen, da die die beste Filterqualität hat"
deekey777
2005-11-14, 13:54:42
Spielst du im Wireframe-Modus?
Sunrise
2005-11-14, 13:58:22
EVGA e-GeForce 7800 GTX 512MB (http://www.techwarelabs.com/reviews/video/evga7800gtx512/)
http://www.ixbt.com/video2/g70-7.shtml
Russische Sprache - schwere Sprache....http://www.digit-life.com/articles2/video/g70-7.html
Blaire
2005-11-14, 13:58:41
NVIDIA GeForce 7800 GTX 512MB is currently the fastest 3D gaming accelerator! That's a proved fact. It may be on a par with the X1800 XT sometimes, but on the whole it's much faster. Besides, the card possesses an excellent overclocking potential! Yes, its price is higher than that for the X1800 XT: $640 versus $599. But considering that the 7800 GTX 512MB is already available on sale (before the announcement!) and many cards are already on their way to the stores, their price may just as well drop to $600 or even lower.
^^ Verfügbarkeit muss wohl gut sein
Quasar
2005-11-14, 14:03:35
wenn man denn die Bandbreite hätte, diese zu versorgen. Ohne Texturinfos keine Filterung.
Es geht mir primär darum, die nutzbare Rechenleistung pro Takt zu erhöhen. Das "Mehr" an TMUs soll dazu dienen, dass prozentual weniger Rechenleistung brach liegt.
Die gelbe Eule
2005-11-14, 14:07:37
Irgendwie ist das die Standardausrede aller ATi Fans, das die BQ doch besser ist. Ob die BQ auch performant für flüssiges spielen wäre, davon redet keiner.
alpha-centauri
2005-11-14, 14:13:46
weil real die meisten eh nur die Lautstärke und nicht der Stromverbrauch interessiert.
Bei mir ist das nicht so. Mit der Kombination aus Messung vom Stromverbrauch, verwendetem Lüfter auf der Karte und der Möglichkeit der Lüfterregelung, kann man schon ohne Messgerät abschätzen, ob die Karte laut ist, oder nicht.
Black-Scorpion
2005-11-14, 14:16:19
Spielst du im Wireframe-Modus?
Du willst dich doch nicht etwa mit ihm über Bildqualität unterhalten?
Nach solchen Aussagen würde ich mir das verkneifen. ;)
ja, das tue ich bewusst. 9/10 spiele, die ich zocke, sind so schnell, dass eigentlich jede form der filterung und AA unnötig ist.
mir gehts nur um frames und preis/leistung. am liebsten würd ich noch in High Performance-Qualität zocken
Wechselbalg
2005-11-14, 14:18:01
Das HQ AF der neuen ATI Generation schlägt zumindest nicht so dermaßen stark ein, als dass man mit den Top Karten hier Probleme bekommen würde. Muss ich an sonstigen Einstellungen im Spiel und auch AA Graden z.B. nichts einsparen damit es spielbar bleibt, wird der BQ Vorteil ja gut umgemünzt.
Als Ausrede würde ich das ganze daher nicht sehen, sondern eher als Vorliebe und Gewichtung bei der Produktwahl. Auch wenn ich es eigentlich schon länger sage: Beide Seiten haben ihre Berechtigung da sie unterschiedliche Vorlieben abdecken und beides gute Produkte eigentlich sind.
Anarchy-HWLUXX
2005-11-14, 14:24:49
Jetzt geht ab die post ;D
http://www.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JBXX11&#tecData
derfarmer
2005-11-14, 14:26:35
Jetzt geht ab die post ;D
http://www.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JBXX11&#tecData
Wenn ich das Geld hätte und nen PCI MOBO... aber mal im Ernst 680 Euro :confused: :eek:
Black-Scorpion
2005-11-14, 14:26:38
Irgendwie ist das die Standardausrede aller ATi Fans, das die BQ doch besser ist. Ob die BQ auch performant für flüssiges spielen wäre, davon redet keiner.
Wenn es nicht mehr reicht kann man ja immernoch auf den anderen AF Modus umschalten.
Nur ob es bei nVidia eine gute Idee ist in dem Fall von HQ AF auf Q AF umzuschalten wirst du bestimmt am besten wissen.
Blaire
2005-11-14, 14:27:31
Jetzt geht ab die post ;D
http://www.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JBXX11&#tecData
Danke! ;)
Die gelbe Eule
2005-11-14, 14:33:03
Wenn es nicht mehr reicht kann man ja immernoch auf den anderen AF Modus umschalten.
Nur ob es bei nVidia eine gute Idee ist in dem Fall von HQ AF auf Q AF umzuschalten wirst du bestimmt am besten wissen.
Bei statischen Spielen wie RTS fällt sowas eher auf, als bei FPS.
Jetzt geht ab die post ;D
http://www.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JBXX11&#tecData
Ist die Triple X Variante, also das schnellste Modell von XFX, das sollte man nicht als Maßstab nehmen. Bei der 6800GS hat XFX auch 3 Versionen.
Ich denke er meinte eher, dass sie lieferbar ist.
Blaze
2005-11-14, 14:40:47
Danke! ;)
Du willst doch nicht wirklich...?
Krank, einfach nur krank ;)
Ich bin mir nicht sicher - in diesem Punkt baut das komplette Design ja noch auf der Ur-CineFX auf. Und wie verkorkst die dann an der Spiele-Realität vorbeiging, wissen wir ja.Das lag an Designentscheidungen. CineFX 1 war nicht auf FP ausgelegt sondern auf FX12 und war damit auch recht schnell.
alpha-centauri
2005-11-14, 14:48:17
Spielst du im Wireframe-Modus?
habi ch mal in bf2 per wallhack probiert. ist aber nicht so der knüller gewesen.
Irgendwie ist das die Standardausrede aller ATi Fans, das die BQ doch besser ist. Ob die BQ auch performant für flüssiges spielen wäre, davon redet keiner.
nun ja. balkenlänge um jeden preis ist auch nicht besonders toll.
aber wenn man mal betrachtet, wie wenig wirklich performancevernichtender einfluss gescheites filtering hat, ist es doch schade, dass besonders mit 7800GT/GTX/ULTRA sich das nicht verbessert hat.
schade find ich es aufd er nvidia seide. dämlich finde ich, dass ati fanboyz nicht eingestehen können, dass es a )hardware gibt, die schneller ist (deutlich), b) verfügbar ist(egal wie wenig auch) und c) es hardware gibt, die besseres P/L haben.
ja, das tue ich bewusst. 9/10 spiele, die ich zocke, sind so schnell, dass eigentlich jede form der filterung und AA unnötig ist.
hey, da hatte ich noch die 6600GT im spiel. soll ich jetzt meine 7800 langweilen lassen?
mir gehts nur um frames und preis/leistung. am liebsten würd ich noch in High Performance-Qualität zocken
da hatt ich auch noch die 6600GT. ne ne... bekommt man hier noch die eigenen worte in den mund gelegt. so ist es hier im forum.
(darfst nicht alles so ernst nehmen ;) )
Davon abgesehen, sind meine Prioritäten immer noch:
1280 er Auflösung> Grafiksettings in Games hoch > AF > AA
alpha-centauri
2005-11-14, 14:50:54
Spielst du im Wireframe-Modus?
habi ch mal in bf2 per wallhack probiert. ist aber nicht so der knüller gewesen.
Irgendwie ist das die Standardausrede aller ATi Fans, das die BQ doch besser ist. Ob die BQ auch performant für flüssiges spielen wäre, davon redet keiner.
nun ja. balkenlänge um jeden preis ist auch nicht besonders toll.
aber wenn man mal betrachtet, wie wenig wirklich performancevernichtender einfluss gescheites filtering hat, ist es doch schade, dass besonders mit 7800GT/GTX/ULTRA sich das nicht verbessert hat.
schade find ich es aufd er nvidia seide. dämlich finde ich, dass ati fanboyz nicht eingestehen können, dass es a )hardware gibt, die schneller ist (deutlich), b) verfügbar ist(egal wie wenig auch) und c) es hardware gibt, die besseres P/L haben.
ja, das tue ich bewusst. 9/10 spiele, die ich zocke, sind so schnell, dass eigentlich jede form der filterung und AA unnötig ist.
hey, da hatte ich noch die 6600GT im spiel. soll ich jetzt meine 7800 langweilen lassen?
mir gehts nur um frames und preis/leistung. am liebsten würd ich noch in High Performance-Qualität zocken
da hatt ich auch noch die 6600GT. ne ne... bekommt man hier noch die eigenen worte in den mund gelegt. so ist es hier im forum.
(darfst nicht alles so ernst nehmen ;) )
Davon abgesehen, sind meine Prioritäten immer noch:
1280 er Auflösung> Grafiksettings in Games hoch > AF > AA
Verfügbar
XFX GF7800 GTX Extreme XXX
aktfrequenz
580 MHz
Taktfrequenz
1730 MHz
Das haut mich doch aus den latschen.
soviel dazu:
7800GT, verfügbar.
7800GTX, verfügbar
7800 Ultra verfügbar
Ati:
x1800 XL, kaum verfügbar
x1800 XT, nicht verfügbar
xxxxx, gerüchtweise.
Ach ja: Die Bildqualität bei Ati ist besser :)
So, und jetzt issa wieder gut. Als SMT/SMP, und Nvidia Fanboy bin ich wieder ruhig.
Quasar
2005-11-14, 14:55:30
Das lag an Designentscheidungen. CineFX 1 war nicht auf FP ausgelegt sondern auf FX12 und war damit auch recht schnell.
Das meine ich nicht. Ich meine damit das synchrone Design von CineFX. Und das wird sich, m.E., auch nicht ändern, bis eine komplett neue Architektur kommt.
seahawk
2005-11-14, 15:03:33
Es geht mir primär darum, die nutzbare Rechenleistung pro Takt zu erhöhen. Das "Mehr" an TMUs soll dazu dienen, dass prozentual weniger Rechenleistung brach liegt.
Ist halt ne Abwägung, ob man eine relative Ineffizienz hinimmt, wenn man dafür gesamt mehr Leistung realisieren kann. Auch wird man abwägen müssen onb man lieber weniger effiziente Pipelines hat, oder viele weniger effiziente.
Ich glaube nicht, dass NV vor der Longkorn / VISTA Generation noch konsequent angehen wird.
Quasar
2005-11-14, 15:04:22
Ist halt ne Abwägung, ob man eine relative Ineffizienz hinimmt, wenn man dafür gesamt mehr Leistung realisieren kann. Auch wird man abwägen müssen onb man lieber weniger effiziente Pipelines hat, oder viele weniger effiziente.
Ich glaube nicht, dass NV vor der Longkorn / VISTA Generation noch konsequent angehen wird.
Sag' ich doch die ganze Zeit...
seahawk
2005-11-14, 15:06:36
Sag' ich doch die ganze Zeit...
Ich stimme Dir ja auch nur zu. :smile:
r3ptil3
2005-11-14, 15:10:22
Du willst doch nicht wirklich...?
Krank, einfach nur krank ;)
Obwohl es immernoch eine "GTX" ist, besteht eine ordentlicher Abstand zwischen GTX und GTX 512Mb.
580Mhz sind einfach genial und dazu gleich noch über 1.7Ghz Speichertakt und dann noch im SLI Modus...
Das meine ich nicht. Ich meine damit das synchrone Design von CineFX. Und das wird sich, m.E., auch nicht ändern, bis eine komplett neue Architektur kommt.Natürlich nicht. Ich hab es so verstanden dass du gemeint hast dass das auch beim US noch so sein wird.
Blaire
2005-11-14, 15:21:39
7800GTX 512MB Review:
http://anandtech.com/video/showdoc.aspx?i=2607
Quasar
2005-11-14, 15:22:58
Natürlich nicht. Ich hab es so verstanden dass du gemeint hast dass das auch beim US noch so sein wird.
Das hoffe ich (für Nvidia) doch eher nicht, denn irgendwann kriegen sie damit Probleme - spätestens, wenn Ati ihre momentane Schwächeperiode überwunden haben.
Die gelbe Eule
2005-11-14, 15:29:48
Das hoffe ich (für Nvidia) doch eher nicht, denn irgendwann kriegen sie damit Probleme - spätestens, wenn Ati ihre momentane Schwächeperiode überwunden haben.
Wie z.B. bei F.E.A.R. mit Treiberproblemen?
Was nützt eine schnelle Karte, wenn man immer erst einen Monat auf einen möglichen Fix warten muss?
7800GTX 512MB Review:
http://anandtech.com/video/showdoc.aspx?i=2607
Freaks. Gleich 2 im SLi gehen mal derbe ab ;D
Final Words
This week we have another successful hard launch from NVIDIA with parts available on the day of the announcement. We would once again like to commend NVIDIA on the excellent job they have done in setting the standard for handling product launches. The benefits to reviewers, vendors, merchants, and consumers alike are huge. We can talk about a product without having to worry if what we are playing with will ever exist or not, and consumers can avoid the confusion that vaporware and paper launches add to the market.
Immer schön in die Wunde rein :P
Das hoffe ich (für Nvidia) doch eher nicht, denn irgendwann kriegen sie damit Probleme - spätestens, wenn Ati ihre momentane Schwächeperiode überwunden haben.Das kannst du überhaupt nicht beurteilen. Die Pixelshaderleistung von G70 ist auch mit synchronen TMUs völlig ausreichend im Moment.
mapel110
2005-11-14, 15:41:32
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=260172
Machen wir da weiter, hat ja nichts mehr mit Spekulationen zu tun.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.