Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation
Nichtmal in einem 2-Pass Verfahren? Warum dann nicht?
Alles nochmal rendern? Klar ginge das, aber es ist dann evtl. günstiger einfach gleich mehr Samples zu nehmen :ugly:
Nein ohne nochmal alles zu rendern kannst du bei einem IMR nicht nachträglich mehr Samples hinzufügen falls du darauf hinaus willst.
Frage: wozu im NVIO einen großen SRAM Buffer?
Sagtest du doch. SLI-Zeugs oder so. Übrigens muss das sogar da liegen, weil die Bildkombination der GPUs da ja stattfindet. Ich denke der Datenaustausch zwischen den GPUs wird einfach durchgeschleift.
Wieso schmeißt mich das Forum immer raus? :|
Naja oder ein seltsames jittered Grid. Ein sparsed Grid >= 8xAA ist jedenfalls nicht drin.
Sparse bitte ohne d. Auf einem NxN-Grid kann man natürlich gleichmäßig verteilte sparse Grids mit jedem ganzzahligen Teiler von N realisieren. Mit 12x12 geht also 2, 3, 4, 6 und 12. Kann man mit einer etwas ungleichmäßigen Verteilung leben, dann ist aber auch 8x mit recht guter Qualität möglich.
Mir ist aufgefallen, dass bei 1280x1024 in vielen Bereichen des Bildes oftmals zu wenig "Pixelplatz" da ist, für mehr als 4 Zwischenstufen. Bei einer höheren Auflösung und gleichem FOV und gleicher Fläche würden mehr Samples auch mehr Pixelplatz bekommen und theoretisch sogar sinnvoller sein, oder? 8abgesehen davon, dass man es dann kaum noch wahrnimmt X-D)
Erhöht man die Auflösung in Höhe und Breite gleichmäßig, ändert sich an der "Stufenlänge" in Pixeln überhaupt nichts. Diese ist dann rein vom Winkel der Linie/Kante abhängig.
robbitop@work
2006-11-21, 16:08:06
Alles nochmal rendern? Klar ginge das, aber es ist dann evtl. günstiger einfach gleich mehr Samples zu nehmen :ugly:
Ich meinte eher ein Z-Pass Verfahren. ;)
Sagtest du doch. SLI-Zeugs oder so. Übrigens muss das sogar da liegen, weil die Bildkombination der GPUs da ja stattfindet. Ich denke der Datenaustausch zwischen den GPUs wird einfach durchgeschleift.
Ja natürlich. Wo habe ich meinen Kopf gelassen?
robbitop@work
2006-11-21, 16:10:42
Kann man mit einer etwas ungleichmäßigen Verteilung leben, dann ist aber auch 8x mit recht guter Qualität möglich.
Das kann ein IHV sicher nicht. (damit leben)
Das kann ein IHV sicher nicht. (damit leben)
Wirklich? Hast du schon einmal die Qualität von 8x SG mit einem 8x "SG" auf 12x12-Grid verglichen? Nicht dass das letztlich jemand tun würde, aber so groß sind die Unterschiede sicherlich nicht.
NVidia konnte offensichtlich auch lange Zeit mit 2x2 OG leben...
Ailuros
2006-11-21, 18:08:23
Das wird bei einem IMR nie möglich sein :)
Wem sagst Du das? :biggrin:
Ne eher nicht, weil das ja Supersampling ist und so wie für jedes Fragment ne andere Farbe entsteht. Zudem geht es schon mal gar nicht wenn TSSAA (und AAA) so funktioniert wie ich glaube ;)
Lies nochmal nach ich meinte Transparenz Multisampling. Ich bestehe ja nicht darauf, ich frage eigentlich warum Coverage Sampling theoretisch nicht so hingedreht werden kann, dass bei 16x auch 16x Transparenz Multisampling dazugeschaltet werden kann.
Wieso schmeißt mich das Forum immer raus?
Dein Avatar ist schuld daran :D
Lies nochmal nach ich meinte Transparenz Multisampling. Ich bestehe ja nicht darauf, ich frage eigentlich warum Coverage Sampling theoretisch nicht so hingedreht werden kann, dass bei 16x auch 16x Transparenz Multisampling dazugeschaltet werden kann.
TMSAA ist doch nur Alpha to Coverage...
Dein Avatar ist schuld daran :D
*scnr*
Sowas habe ich nirgends behauptet.
Klang halt so, wenn doppelte Breite so gut wie nichts kosten soll. Beim R600 wird sich ja extrem das Maul über die Bitbreite bsw. des SI zerissen.
"Dual Link DVI ist doch nur die Breite des Interfaces selbst. Das kostet so gut wie nichts. 10 Bit Ausgabe ist übrigens in DVI nicht spezifiziert. 8 oder 16 gibts."
Q
Ailuros
2006-11-22, 04:16:19
TMSAA ist doch nur Alpha to Coverage...
Eben; wieso soll es bei 16x coverage dann nur 4xTMAA anstatt 16x liefern ist meine Frage.
robbitop@work
2006-11-22, 13:02:26
Wirklich? Hast du schon einmal die Qualität von 8x SG mit einem 8x "SG" auf 12x12-Grid verglichen?
Es geht nicht um mich. Es geht um hohe Standards die eingehalten werden wollen. Ingenieure sind so (schau dir mal die Normen der DIN an und vergleiche die mit der Praxis ;-).
NVidia konnte offensichtlich auch lange Zeit mit 2x2 OG leben...
Das waren andere Zeiten. AA war damals ein Checklistfeature, das kaum Verwendung fand. Außerdem ist dort kein Kriterium gebrochen worden.
NV hat nicht grundlos auf ein 16x16 Raster gewechselt. (natürlich hauptsähclich für 16x SGCSAA)
robbitop@work
2006-11-22, 13:18:11
Klang halt so, wenn doppelte Breite so gut wie nichts kosten soll. Beim R600 wird sich ja extrem das Maul über die Bitbreite bsw. des SI zerissen.
"Dual Link DVI ist doch nur die Breite des Interfaces selbst. Das kostet so gut wie nichts. 10 Bit Ausgabe ist übrigens in DVI nicht spezifiziert. 8 oder 16 gibts."
Q
Man braucht halt 4x TMDS statt nur 2x. Ein TMDS kostet nicht die Welt. Aber darum geht's schon lange nicht mehr. Die Analogie zum SI einer GPU verstehe ich hier nicht ganz (das sind zwei völlig andere Dimensionen).
Man braucht halt 4x TMDS statt nur 2x. Ein TMDS kostet nicht die Welt. Aber darum geht's schon lange nicht mehr. Die Analogie zum SI einer GPU verstehe ich hier nicht ganz (das sind zwei völlig andere Dimensionen).
Dimensionen sind bei einer, wie du richtig bemerkst, Analogie irrelevant. Die wären nur bei einem Vergleich wichtig.
Trotzdem kostet nach wie vor jedes Feature Transistoren - dass ihr die Diskussion bereits wieder verlassen habt, habe ich bemerkt. Ich habe nunmal nicht jeden Tag mehrere Stunden Zeit um alles hier zu verfolgen.
Q
Es geht nicht um mich. Es geht um hohe Standards die eingehalten werden wollen. Ingenieure sind so (schau dir mal die Normen der DIN an und vergleiche die mit der Praxis ;-).
Hohe Standards? Gibts jetzt schon eine DIN-Norm für AA-Muster?
Das waren andere Zeiten. AA war damals ein Checklistfeature, das kaum Verwendung fand. Außerdem ist dort kein Kriterium gebrochen worden.
Das war noch bis NV38 so, da war AA schon länger kein "Checklistfeature" mehr. Von welchem Kriterium sprichst du, das bei 8 Samples auf einem 12x12-Raster gebrochen würde?
robbitop@work
2006-11-22, 15:41:58
Hohe Standards? Gibts jetzt schon eine DIN-Norm für AA-Muster?
Das war eine Analogie :rolleyes:
Das war noch bis NV38 so, da war AA schon länger kein "Checklistfeature" mehr. Von welchem Kriterium sprichst du, das bei 8 Samples auf einem 12x12-Raster gebrochen würde?
Seit NV20 hatte man 2x-SGMSAA und zusätzlich noch 2x2 OGMS.
Ok NV hat verpennt, im NV3x ein 4x SG Modus hinzuzufügen.
Sparse sollte bei keinem Drehwinkel ein OG ergeben, jedes Sample sollte eigene X und Y Koordinaten haben und die Abstände zu den jeweiligen Achsen müssen gleich sein. Bei 8xMS wäre letzteres auf einem 12x12 Raster nicht ganz erfüllt.
Das ist mit Sicherheit keine Definition aus einem Dokument, aber die Kriterien sollten auf der Hand liegen.
Da du dazu eine andere Ansicht hast als ich: We agree to disagree. ;)
Ailuros
2006-11-22, 18:21:40
--------------------------
-----------------*--------
----*---------------------
--------------------------
---------------------*----
*-------------------------
-----------*--------------
-----------------------*--
--------------------------
-------*------------------
---------------*----------
--------------------------
...ist zwar Bloedsinn, aber mir war's gerade mal wieder langweilig ;)
Moralelastix
2006-11-23, 18:15:54
Ja ja, S3 aber bestimmt auch interessant bezüglich der angeblichen Überraschung des R700 bei ATI.
S3 roadmap reveals DX10 and 10.1 chips
http://uk.theinquirer.net/?article=35932
"Multicore GPUs clocked to stratospheric levels"
Inq mit seinen Multicores... irgendwann müssten sie es doch raffen.
Ja ja, S3 aber bestimmt auch interessant bezüglich der angeblichen Überraschung des R700 bei ATI.
S3 roadmap reveals DX10 and 10.1 chips
http://uk.theinquirer.net/?article=35932
"Multicore GPUs clocked to stratospheric levels"
Naja, 08 dürfte Ati auch bei solchen Taktraten angelangt sein...
Was für eine Überaschung soll der R700 denn sein?
Ailuros
2006-11-23, 18:41:27
Inq mit seinen Multicores... irgendwann müssten sie es doch raffen.
Das ist ja noch ziemlich harmlos im Vergleich zum folgenden:
It is too early to tell right now, but with S3 XE3/E3, XE2/E2, XE1/E1 and ATI R700 being multi-chip concepts and G80 using a variant of 3dfx "Texture Computer" from 2001. Can you say the old VSA concept is back with a vengeance?
*seufz*
Hvoralek
2006-11-23, 18:43:26
Naja, 08 dürfte Ati auch bei solchen Taktraten angelangt sein...Wer sagt Dir denn, dass sie die überhaupt noch steigern? Die bisherigen Gerüchte zum R600 deuten zwar auf einen vergleichsweise kleinen Chip mit hohen Taktraten hin, aber ich muss wohl nicht an die Gerüchte zum G80 bis Okt erinnern, oder? :biggrin:
Und bei GPUs kann man Mehrleistung ähnlich einfach über höhere Frequenzen und über mehr Recheneinheiten erreichen.
Das ist ja noch ziemlich harmlos im Vergleich zum folgenden:
*seufz*
Inq is zu spät dran. Bei NV3x und NV4x hätts ja halbwegs gepasst ;)
Ailuros
2006-11-23, 18:52:25
Inq is zu spät dran. Bei NV3x und NV4x hätts ja halbwegs gepasst ;)
Each of the texture samplers in the NV40 pipeline is cable of 4 samples per cycle, or single cycle bilinear. In our discussions, David Kirk suggested that the texture units on NV40 will operate not at the pixel level, but at the quad level, such that if it was determined that the texture sampling requirements of the entire quad were less than the overall sampling abilities of the quad of texture units then potentially trilinear sampling may be achievable in a single cycle over the entire quad, where two cycles would be required with each texture sampler fixed to a pipeline. Indeed, such a texturing mechanism sounded similar to 3dfx's fabled "Rampage" chip, and it didn't come as much of a surprise to find that Rampage's chief architect was in charge of NV40's texture and shader engine. We asked Emmett if this was the case with NV40 and he replied that "some in the NV4x range would feature this as it has benefits and drawbacks".
http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=9
Ail bitte sag auch immer noch dazu was du damit sagen willst ;)
deekey777
2006-11-23, 19:06:31
Meint ihr beide das?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3551522#post3551522, zweiter Absatz
Ailuros
2006-11-23, 19:08:06
Ail bitte sag auch immer noch dazu was du damit sagen willst ;)
1. Nur NV4x, denn viel Zeit um die Finger in NV3x zu haben hatten Kilgariff und co. wohl nicht.
2. Gilt nur fuer spezifische GPUs der NV4x Linie und nicht fuer alle.
Und es bezieht sich natuerlich nur auf Kirk's Behauptung oben; sonst erscheint mir Emmet's Aussage fuer (2) ziemlich deutlich.
Ailuros
2006-11-23, 19:11:49
Wir sind schon wieder verdammt OT: aber trilinear ist tatsaechlich anscheinend fast "for free" auf G80; bri-AF gewinnt stattdessen immer noch maximal ~20% im Vergleich zu tri-AF.
Hvoralek
2006-11-23, 19:27:38
bri-AF gewinnt stattdessen immer noch maximal ~20% im Vergleich zu bri-AF.*schüff*
Das riecht nach Tippfehler :wink:
Ailuros
2006-11-24, 05:32:04
:hammer: (siehe edit)
Mr. Lolman
2006-11-24, 07:48:09
1. Nur NV4x, denn viel Zeit um die Finger in NV3x zu haben hatten Kilgariff und co. wohl nicht.
2. Gilt nur fuer spezifische GPUs der NV4x Linie und nicht fuer alle.
Und es bezieht sich natuerlich nur auf Kirk's Behauptung oben; sonst erscheint mir Emmet's Aussage fuer (2) ziemlich deutlich.
Hätt mich ja gewundert, wenn 3dfx für den tw. verbockten NV30 wirklich mitverantwortlich gewesen wäre...
Hätt mich ja gewundert, wenn 3dfx für den tw. verbockten NV30 wirklich mitverantwortlich gewesen wäre...
:uclap:
Oh Gott bist du peinlich manchmal...
Hätt mich ja gewundert, wenn 3dfx für den tw. verbockten NV30 wirklich mitverantwortlich gewesen wäre...
Wieso denn? Im Verbocken ist 3dfx doch Weltmeister gewesen, die haben doch ausser den Voodoos gar keinen Chip fertig gekriegt (Rampage, Sage,...).
Mr. Lolman
2006-11-24, 11:11:39
:uclap:
Oh Gott bist du peinlich manchmal...
Ach was. Ich wollt' diesen Umstand nur mal öffentlich konstatiert haben. :biggrin:
Ailuros
2006-11-24, 12:02:59
Hätt mich ja gewundert, wenn 3dfx für den tw. verbockten NV30 wirklich mitverantwortlich gewesen wäre...
So viele sind es sowieso nicht im GPU Team. Ganz im Gegensatz zum nForce Team. Soll ich die Datenbank jetzt mit "nForce" und "Mr. Lolman" absuchen oder eher nicht? :biggrin:
Mr. Lolman
2006-11-24, 12:29:47
So viele sind es sowieso nicht im GPU Team. Ganz im Gegensatz zum nForce Team. Soll ich die Datenbank jetzt mit "nForce" und "Mr. Lolman" absuchen oder eher nicht? :biggrin:
Kannst du gerne machen. Ich hab ja schon selbst 2 NForce Bretter verbaut gehabt. Mit dem NForce4 hatte ich bisher überhaupt keine Probleme, nur ärgerlich, dass sie wieder Northbridge und Southbridge auf einen Chip gepackt haben und dieser deswegen auf meinem A8N-E aktiv gekühlt werden muss.
Achja, wass mich noch geärgert hat, ist dass mein altes A7M266 (AMD760) beim AGP Readback um bis zu 75% schneller war und dass die Konkurrenz (zumindest früher) ne höhere PCI Performance bieten konnte, aber insgesamt war ich bisher doch sehr zufrieden mit beiden MBs...
http://img218.imageshack.us/img218/7868/r600kn2.jpg
http://img220.imageshack.us/img220/1613/r600mkl9.jpg
http://img215.imageshack.us/img215/4365/r600nyc6.jpg
Mhhh komisch^^
Mhhh. anscheinend fehlen als Gast einige Rechte. Hier der Link.
http://www.beyond3d.com/forum/showpost.php?p=880403&postcount=674
Moralelastix
2006-11-24, 14:39:47
Was ist da komisch?
Ich hab ihn auf den ersten Click erkannt.
deekey777
2006-11-24, 14:40:49
Was ist da komisch?
Ich hab ihn auf den ersten Click erkannt.
Was hast du denn auf ersten Klick erkannt?
Moralelastix
2006-11-24, 14:43:03
Na den Chip.
AnarchX
2006-11-24, 14:43:06
Könnte die seltsame Position des Dies etwas mit dem SI zu tun haben?:|
Hvoralek
2006-11-24, 14:47:04
Na den Chip.Es steht "R600" drauf. Scheint mir auch zumindest keine offensichtliche Fälschung zu sein. Siehst Du das anders oder was meintest Du mit "erkannt"?
Weiß jemand, wie groß diese Münze auf dem einen Foto ist?
AnarchX
2006-11-24, 14:48:00
Weiß jemand, wie groß diese Münze auf dem einen Foto ist?
Schaust du in den Link zu B3D, die haben schon alles ausgerechnet..;)
Thank you! I did measure the component around the core and get a ratio to the real one on CPU beside me...
The core size is estimated to be about 238x238 mm^2 to 240x240 mm^2 .
[Procedure is that the 6 pins components long 4.4mm (on my 2405) and R600 core longs 524mm (same screen).
The 6pins components package on Pentium M longs 2mm (using verniar), thus a ratio of the imagae to the real package is 2.2...
divide 524 by 2.2 gets 238mm.... and it looks square!!]
Anyway, if this core supposed to be the real one... it would be a big smaller than G80 core!!
http://www.beyond3d.com/forum/showthread.php?t=34676&page=28
deekey777
2006-11-24, 14:49:56
Na den Chip.
Wow... :biggrin:
Kennt ihr das noch?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3396116&postcount=6604
Ist das ein Riesending.
Was ist da komisch?
Das 45°-Packaging sieht man nicht soo oft.
Moralelastix
2006-11-24, 14:53:05
Was ech schade is das anscheinend noch keiner die Daukappe von nem G80 runter hat.
Oder gibts wo Bilder?
@Hvoralek
Das war ein eiskalter Bluff!
deekey777
2006-11-24, 14:55:52
Was ech schade is das anscheinend noch keiner die Daukappe von nem G80 runter hat.
Oder gibts wo Bilder?
http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=117&orderby=release_date&order=Order&cname=
484 mm² @90 nm. Selbst wenn der Die des R600 kleiner ausfällt, so sollte man nicht vergessen, dass er in 80 nm gefertigt wird.
Rein theoretisch: Die Die-Fläche des R580 beträgt 352 mm², in 80 nm gefertigt wären das 292 mm² (17 % kleiner). Wenn die Die-Fläche des R600 "nur" 450 mm², dann sind es weniger als 2xR580 (ist auch logisch, denn die Menge an den Transistoren für das SI würde sich nicht verändern, wenn man es beibehält). Ach keine Ahnung.
Die_Allianz
2006-11-24, 14:56:24
Was ech schade is das anscheinend noch keiner die Daukappe von nem G80 runter hat.
Oder gibts wo Bilder?
hab ich auch schon mal im G80 tread gefragt, leider keine antwort bekommen...
Moralelastix
2006-11-24, 14:58:43
http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=117&orderby=release_date&order=Order&cname=
484 mm² @90 nm. Selbst wenn der Die des R600 kleiner ausfällt, so sollte man nicht vergessen, dass er in 80 nm gefertigt wird.
Bilder sind da aber leider keine oder seh nur ich die net?
DrumDub
2006-11-24, 15:02:09
Was ech schade is das anscheinend noch keiner die Daukappe von nem G80 runter hat.
Oder gibts wo Bilder? nope. hab noch nirgendwo welche gesehen... der hs lässt sich wohl nicht so einfach entfernen, da der wohl aufgeklebt ist: http://www.techreport.com/reviews/2006q4/geforce-8800/close-up.jpg
Bilder sind da aber leider keine oder seh nur ich die net? darum gings ja dk777 auch nicht. lediglich um die größenangabe. die ist dort angegeben.
Moralelastix
2006-11-24, 15:03:31
Axo, thx!
Aber jede Daukappe is doch aufgeklebt? Ok, die eine fester als die andere.
Aber wenn man die Kappe vorher richtig erwärmt und Vorsicht walten lässt geht sicher auch die ab.
OT: Is hier grad wieder was faul mit dem Forumserver? Hab eben mehrmals versucht die Seite neu zu laden es passierte aber nix.
AnarchX
2006-11-24, 15:22:37
Aber jede Daukappe is doch aufgeklebt? Ok, die eine fester als die andere.
Vielleicht ist sie ja gar verlötet, wie bei Intel ab Prescott.;)
Moralelastix
2006-11-24, 15:26:02
Vielleicht ist sie ja gar verlötet, wie bei Intel ab Prescott.;)
Verlötet? Haste da mal Bilder zu?
Du meinst die Dieoberfläche mit der Daukappenunterseite?
:biggrin:
Da war ein Künstler mit dem Brecheisen am Werk.
http://www.tomshardware.pl/motherboard/20040301/alderwood-14.html
Gibts den Artikel auch auf Deutsch?
Das sieht ähnlich aus wie Unfälle mit dieser Metall Wärmeleitpaste, was?
Die hätten halt die Kappe vorher auf mindestens 100°C erwärmen müssen.
Was für Daukappen! *lol*
Die_Allianz
2006-11-24, 15:44:02
Vielleicht ist sie ja gar verlötet, wie bei Intel ab Prescott.;)
sollte mit nem gut verarbeiteten schraubenzieher kein problem sein ;)
leute kaufen sich auch konsolen, um sie dann gleich vorm laden 'auseinanderzubauen'. da sollte doch so ein G80 die schmerzgrenze nicht überschreiten
Schaust du in den Link zu B3D, die haben schon alles ausgerechnet..;)
http://www.beyond3d.com/forum/showthread.php?t=34676&page=28
Kann jemand diese haarstreubende Rechnung erklären?
Wieviel Fläche sind den bitteschön 238x238 mm^2 ?!
Dann wäre der Die aber sehr groß^^, 23,8 cm für jede Kante ist schon mal falsch......
StefanV
2006-11-24, 17:18:39
Kann jemand diese haarstreubende Rechnung erklären?
Wieviel Fläche sind den bitteschön 238x238 mm^2 ?!
Du weißt, was 'ne Wurzel ist?!
Ganz ab gesehen das deine Angabe etwas verkehrt ist...
Flamehaze
2006-11-24, 17:53:34
Ich hab gerade die Anzahl der Transistoren für den R600 ausgerechnet und komm so auf 585 Millionen. Die Kantenlänge von 238mm die oben angegeben ist ist falsch! Wenn der Chip so viel Fläche hätte, dann müsste er etwa 1 Milliarde Transistoren haben.
Zum Vergleich der R520 hat 321 Millionen Transistoren und ist in 90nm gefertigt.
Hier gibts n Bild vom R520 und dem R600 Chipkern:
http://img108.imageshack.us/img108/6292/r520r600dieshotvf6.th.jpg (http://img108.imageshack.us/my.php?image=r520r600dieshotvf6.jpg)
Die Kantenlänge ist beim R600 1.20 mal länger und der hat 80nm.
-> 321 Millionen Transistoren*1,2^2/80^2*90^2=Etwa 585 Millionen Transistoren beim R600
AnarchX
2006-11-24, 18:00:10
Ganz so einfach ist die Rechnung auch nicht wieder, da wir ja nicht wissen ob ATi vielleicht die Packdichte der Transistoren verbessern konnte.
Ich persönlich würde nach dem aktuellen Die-Shot, 600Mio+ schätzen.
Nun größer als der G80 wird er wohl nicht, da er ja in 80Nm gefertigt ist.
Manno ich will endlich richtige Specs...
noch mehr PIX. falls ihr die restlichen im B3D thread nicht gesehen habt:
http://i21.photobucket.com/albums/b299/Genocide737/R600_3.jpg
http://i21.photobucket.com/albums/b299/Genocide737/R600_2.jpg
http://i21.photobucket.com/albums/b299/Genocide737/R600_1.jpg
http://i21.photobucket.com/albums/b299/Genocide737/R600.jpg
das sind mal ne menge Pins :-)
Morpog
wohl wir hoffen das es ne echte 512bit karte wird
wohl wir hoffen das es ne echte 512bit karte wird
Man weiss es nicht TIM :)
Greuel
2006-11-25, 04:19:00
also das ganze jt durchzustöbern is mir zu viel
wann soll denn die neue von ATI kommen?
Hvoralek
2006-11-25, 04:21:00
also das ganze jt durchzustöbern is mir zu viel
wann soll denn die neue von ATI kommen?Q1 2007, wahrscheinlich Ende Januar.
Botcruscher
2006-11-25, 08:54:59
Also mal grob überschlagen komm ich da auf 1864 "Pins".
DrumDub
2006-11-25, 09:57:18
Also mal grob überschlagen komm ich da auf 1864 "Pins". hmm... r5x0 hat laut jemanden im b3d-forum ca. 1265. wären als ca. 600 (!) mehr. das deutet in jedme falle auf ein breiterers si als 256bit hin. denn wozu sollen die pins sonst gut sein?
p.s.: sind wohl sogar 2140, weil die in der mitte auch dichter gepackt sind: http://www.beyond3d.com/forum/showpost.php?p=880736&postcount=737
robbitop
2006-11-25, 10:13:16
Ein paar davon sind sicher Masse Pins
DrumDub
2006-11-25, 10:17:57
Ein paar davon sind sicher Masse Pins aber nicht 800. ;)
Gouvernator
2006-11-25, 10:25:39
Jep. 2140 habe gerade selbst nachgezählt. Geht eigentlich ganz einfach die sind sehr struktuiert eingeordnet.
Uii das sind aber viele Pins. Ich hoffe mal das die auch genutzt werden....
Godmode
2006-11-25, 11:05:17
Der G80 hat laut Google ca. 1400-1500 Pins, könnte also wirklich ein 512 Bit SI haben!
Gouvernator
2006-11-25, 11:12:32
Und damit so gut wie sicher 1gb Ram, geil.
deekey777
2006-11-25, 11:18:47
Und damit so gut wie sicher 1gb Ram, geil.
Es gibt mit der X1800 FireGL eine Grafikkarte mit 1024 MiB. Ein 512-bit-SI hat sie nicht. Abwarten.
dargo
2006-11-25, 11:22:15
Es gibt mit der X1800 FireGL eine Grafikkarte mit 1024 MiB. Ein 512-bit-SI hat sie nicht. Abwarten.
Hat Diese auch >2000 Pins?
AnarchX
2006-11-25, 11:26:44
Der G80 hat laut Google ca. 1400-1500 Pins, könnte also wirklich ein 512 Bit SI haben!
AFAIK sollte die Anzahl der Pins doch auch etwas mit der Granularität des SI zu tun haben:
R600 8*32bit /12*32bit
G80 6*64bit
Wie sieht es eigentlich im Pin-Vergleich zwischen G70/G71 und R5x0 aus?
:edit:
Hmm... wenn man etwas rechnet könnte durchaus ein 384bit SI mit 12facher Unterteilung hinkommen. ;)
deekey777
2006-11-25, 11:28:30
Hat Diese auch >2000 Pins?
Wer sagt, dass die > 2000 Pins nur auf ein vermeintlich erweitertes SI zurückzuführen sind?
Nur weil der G80 weniger Pins hat, meint jeder gleich, dass der R600 ein 512-bit-SI hat. Das ist zwar nicht undenkbar, aber es können auch weitere Gründe dafür sein. Abwarten.
dargo
2006-11-25, 11:31:02
Wer sagt, dass die > 2000 Pins nur auf ein vermeintlich erweitertes SI zurückzuführen sind?
Ich nicht. :D
Nur weil der G80 weniger Pins hat, meint jeder gleich, dass der R600 ein 512-bit-SI hat.
Nö, ich habe kein 512Bit SI erwähnt. Aber vielleicht was zwischen 256 und 512Bit?
Flamehaze
2006-11-25, 11:35:24
Zitat von Drumdub
Wie sieht es eigentlich im Pin-Vergleich zwischen G70/G71 und R5x0 aus?
Der G70 hat 1220 Pins, ich habs gerade nachgezählt, liegt also sehr nah am R5x0 der ca 1265 Pins hat.
Du weißt, was 'ne Wurzel ist?!
Ganz ab gesehen das deine Angabe etwas verkehrt ist...
Sicher. Evtl bin ich ganz firm darin. ich seh aber kein "-" o.ä. in der Gleichung.
nagus
2006-11-25, 12:27:34
HA-HA! Wo sind jetzt diese super-druper selbsternannten "Experten" die behauptet haben, ein 512bit Speicherinterface ist zu teuer, zu aufwändig etc.... ?
:P
So viel zu deren "Experten"wissen. Vielleicht sollte man ATI nicht unterschätzen, es könnte nämlich sein, dass man damit komplett falsch liegt.
robbitop
2006-11-25, 12:29:36
Noch ist doch gar nicht bewiesen, dass es ein 512 Bit DDR Interface ist. Vieleicht ist es ja auch ein 384 Bit SI?
Ist schon lustig, dass hier einige Leute immer nur dann aus ihren Löchern gekrochen kommen, wenn deren IHVs die f3tt3 sh1ce raushauen.
Winter[Raven]
2006-11-25, 12:31:13
@ nagus
Lesen? Da steht eindeutig, die Pins müssen nicht undbedingt für einen 512Bit SI sprechen.
Ronny145
2006-11-25, 12:33:00
Noch ist doch gar nicht bewiesen, dass es ein 512 Bit DDR Interface ist. Vieleicht ist es ja auch ein 384 Bit SI?
Ist schon lustig, dass hier einige Leute immer nur dann aus ihren Löchern gekrochen kommen, wenn deren IHVs die f3tt3 sh1ce raushauen.
Ja, aber auch mit dem 384 bit Interface würden manche falsch getippt haben. Von 256 bit und hohem Takt war die Rede.
nagus
2006-11-25, 12:33:50
Noch ist doch gar nicht bewiesen, dass es ein 512 Bit DDR Interface ist. Vieleicht ist es ja auch ein 384 Bit SI?
Ist schon lustig, dass hier einige Leute immer nur dann aus ihren Löchern gekrochen kommen, wenn deren IHVs die f3tt3 sh1ce raushauen.
*LOL* nur vielleicht hast du schon mal daran gedacht, dass ich vielleicht mehr weiß als du ;) :D
*LOL* nur vielleicht hast du schon mal daran gedacht, dass ich vielleicht mehr weiß als du ;) :DJa ne, ist klar. Du weißt gar nichts genaues, abgesehen von Spekulationen aus diversen Internetforen. Hast du nicht auch beim R520 bis zum Schluss von 8 Quads geredet, während die angeblichen Pseudo-Experten schon Monate vor dem Launch von 16 Pipelines sprachen?
Ja, aber auch mit dem 384 bit Interface würden manche falsch getippt haben. Von 256 bit und hohem Takt war die Rede.Niemand hat gesagt, dass ein 384-bit-SI für R600 nicht möglich ist. Es hieß lediglich, dass man ein 256-bit-SI mit hoch taktendem GDDR4 für wahrscheinlicher hält.
robbitop
2006-11-25, 12:41:51
Ja ne, ist klar. Du weißt gar nichts genaues, abgesehen von Spekulationen aus diversen Internetforen.
Sagst du so. Nagus ist Entwickler bei ATI ;)
Du weißt, was 'ne Wurzel ist?!
Ganz ab gesehen das deine Angabe etwas verkehrt ist...
So, jetzt hat es sich aufgeklärt. Im Quote von AnarchX fehlen die die Kommas.
Sicher. Evtl bin ich ganz firm darin. ich seh aber kein "-" o.ä. in der Gleichung.
Das war natürlich Käse. Blöder Dreher, passiert mir immer wieder a^(1/2) =! a^(-2/1). Tschuldigung
Gouvernator
2006-11-25, 12:55:01
Niemand hat gesagt, dass ein 384-bit-SI für R600 nicht möglich ist. Es hieß lediglich, dass man ein 256-bit-SI mit hoch taktendem GDDR4 für wahrscheinlicher hält.
Zum Glück wird es nicht im pro-NV 3dCenter entschieden was ATi so baut (bauen sollte) :D
Wenn G80 1700 Pins hat dann ist es meiner Meinung nach logisch das mit 2140 Pins ein 512bit SI ansteht.
Ronny145
2006-11-25, 12:56:59
Niemand hat gesagt, dass ein 384-bit-SI für R600 nicht möglich ist. Es hieß lediglich, dass man ein 256-bit-SI mit hoch taktendem GDDR4 für wahrscheinlicher hält.
Hat jemand behauptet 512 Bit wäre nicht möglich? Es kam immer das Argument mit den Kosten und dem Platz. Bei manchen hat sich das immer schon wie als Fakt angehört mit den 256 Bit, so meinte ich das.
[MK2]Mythos
2006-11-25, 13:23:17
Falls der R600 mit einem 512 Bit Speicherinterface kommt, wird ein halbes Jahr später von den Experten hier wieder behauptet das dies keine Überraschung war, wie beim R300 mit dem 256 Bit SI auch, ich kann mich noch ganz genau an die 3DCenter News und die Forenbeiträge erinnern... Im Endeffekt ist mir die Breite des Interfaces aber egal, wenn dabei genug Geschwindigkeit am Ende rum kommt. :) Hautpsache ATi und NVIDIA liefern sich einen für uns alle günstigen Preiskampf.
deekey777
2006-11-25, 13:59:12
Zum Glück wird es nicht im pro-NV 3dCenter entschieden was ATi so baut (bauen sollte) :D
Mehrere Leute haben sich über solche Formulierungen deinerseits beschwert, unterlass das!
deekey777
2006-11-25, 14:02:55
HA-HA! Wo sind jetzt diese super-druper selbsternannten "Experten" die behauptet haben, ein 512bit Speicherinterface ist zu teuer, zu aufwändig etc.... ?
:P
So viel zu deren "Experten"wissen. Vielleicht sollte man ATI nicht unterschätzen, es könnte nämlich sein, dass man damit komplett falsch liegt.
Zu teuer und zu aufwendig != nicht machbar.
Und genau dieser Punkt macht die Möglichkeit eines 512-Bit-SI so schwer vorstellbar.
€: Ob die Speicherbandbreite das einzige Problem ist, um ein konkurrenzfähiges Produkt auf den Markt zu bringen.
lilgefo~
2006-11-25, 14:05:28
Ich versteh nicht, wieso sich die Leute hier über die "Experten" ereifern müssen. DAs hier ist das Spekulationsforum und wenn die "Experten" spekulieren moechten dann soll man sie doch lassen und nicht hier rumkäsen, dass sie sich ja schonmal geirrt haben. Abgesehen davon gibt es ja durchaus einige Leute, die mehr Informationen (oder auch Hintergrundwissen) als der 08/15 3dc-User haben. Warum sollten sie das hier nicht kundtun und andere spekulative Meinungen (z.b. 512Bit DDR Speicehrinterface) aufgrund dem aktuellen Informationsstand und der Erfahrung kritisch zurückweisen/kommentieren koennen?
Ich finds jedenfalls interessant auch wenn es eben nur Spekulation ist obwohl andererseits bereits einige Male erstaunlich präzise Informationen durchgesickert sind.
daher: Frieden im 3dc Forum und Ut2007 vor Weihnachten ;)
Ich versteh nicht, wieso sich die Leute hier über die "Experten" ereifern müssen. DAs hier ist das Spekulationsforum und wenn die "Experten" spekulieren moechten dann soll man sie doch lassen und nicht hier rumkäsen, dass sie sich ja schonmal geirrt haben. Abgesehen davon gibt es ja durchaus einige Leute, die mehr Informationen (oder auch Hintergrundwissen) als der 08/15 3dc-User haben. Warum sollten sie das hier nicht kundtun und andere spekulative Meinungen (z.b. 512Bit DDR Speicehrinterface) aufgrund dem aktuellen Informationsstand und der Erfahrung kritisch zurückweisen/kommentieren koennen?
Ich finds jedenfalls interessant auch wenn es eben nur Spekulation ist obwohl andererseits bereits einige Male erstaunlich präzise Informationen durchgesickert sind.
daher: Frieden im 3dc Forum und Ut2007 vor Weihnachten ;)
Wenn jemand mit einer gewissen Arroganz ob seines "Experten-Statuses" Aussagen anderer als unrelevant bzw. unbedeutsam und unglaubwürdig abtut, dann braucht er sich über eine eventuelle spätere Hähme nicht zu wundern. Also, alles ganz normal hier *g*
Der G70 hat 1220 Pins, ich habs gerade nachgezählt, liegt also sehr nah am R5x0 der ca 1265 Pins hat.
Wow also hat der hat der R600 doppelt soviele Pins.Der R600 wird wohl richtig gut werden.
Wow also hat der hat der R600 doppelt soviele Pins.Der R600 wird wohl richtig gut werden.
Wow, jetzt wird sogar schon die Anzahl der Pins als als Indiz für die Leistung eines grafikchips herangezogen. Wird ja immer doller hier ;D
MSABK
2006-11-25, 14:27:31
Der Chip ist ja mal "Fett".
Wenn ich überleg wieweit wir in 4 Jahren sind wenn es so weiter geht. Dann haben wir Chips mit 3 mrd. Transistoren und mehr.:eek:
deekey777
2006-11-25, 14:34:57
Sagst du so. Nagus ist Entwickler bei ATI ;)
Wenn das so ist, dann könnte das erklären.
also laut aktuellen gerüchten sieht die sache folgendermaßen aus (aus dem rage3d-forum zusammengefasst)
R600
700-800Mhz core
64 Unified ALUs (256 scalar units)
16ROPs
1024-bit Ring Bus
512-bit External
1024MB-2048MB GDDR4 @ bis zu 2.2Ghz (140GB/s)
also ich find das super ;)
AnarchX
2006-11-25, 15:11:09
Wow, jetzt wird sogar schon die Anzahl der Pins als als Indiz für die Leistung eines grafikchips herangezogen. Wird ja immer doller hier ;D
ack.
Vielleicht kann man ja auch etwas aus dem 45° Packaging schliessen, welches schonmal bei bestimmten nV-GPU zum Einsatz kam,was aber dann nicht so gut wäre.:biggrin:
http://img135.imageshack.us/img135/6539/nv38mw7.jpg
Wenn das so ist, dann könnte das erklären.
Aber die Quelle steht doch da? -> rage3d :|
Zudem wäre ich mir bei nagus auch nicht so sicher, wenn er wirklich bei ATi angestellt ist, ob er nicht einfach nur Verwirrung zu den Specs schaffen will. ;)
ack.
Vielleicht kann man ja auch etwas aus dem 45° Packaging schliessen, welches schonmal bei bestimmten nV-GPU zum Einsatz kam,was aber dann nicht so gut wäre.:biggrin:
http://img135.imageshack.us/img135/6539/nv38mw7.jpg
Aber die Quelle steht doch da? -> rage3d :|
Ich glaube er meint eher die Gleichsetzung von 64 Vec mit den 256 ScaALUs.
Wow also hat der hat der R600 doppelt soviele Pins.Der R600 wird wohl richtig gut werden.Also ist ein Sempron für AM2 mit 940 Pins auch besser als ein Core 2 Extreme mit nur 775 Lands?
Black-Scorpion
2006-11-25, 15:53:12
Also ist ein Sempron für AM2 mit 940 Pins auch besser als ein Core 2 Extreme mit nur 775 Lands?
Der Vergleich hinkt und das gewaltig.
Ailuros
2006-11-25, 16:10:14
Ja ne, ist klar. Du weißt gar nichts genaues, abgesehen von Spekulationen aus diversen Internetforen. Hast du nicht auch beim R520 bis zum Schluss von 8 Quads geredet, während die angeblichen Pseudo-Experten schon Monate vor dem Launch von 16 Pipelines sprachen?
Gott sei Dank haben manche ein besseres Gedaechtnis als ich LOL :biggrin:
Niemand hat gesagt, dass ein 384-bit-SI für R600 nicht möglich ist. Es hieß lediglich, dass man ein 256-bit-SI mit hoch taktendem GDDR4 für wahrscheinlicher hält.
Seit wann definiert die Busbreite sowieso die Effizienz einer Architektur? Eigentlich klingt alles >256bit fuer R6xx besser, aber das hauptsaechlich weil mir der mainstream Markt mehr Sorgen gemacht hat.
Das heisst aber immer noch gar nichts, bis die finalen Specs ans Tageslicht kommen. Der Laecherlichkeit zuliebe redet man trotz allem von einer sehr hohen Frequenz die schon mehrere Male angedeutet wurde.
Was jetzt die Shader-Einheiten betrifft, wenn ich dem obrigen glauben soll dann sind es 8 Vec16 ALUs gegen 64 Vec4 ALUs. Es wird noch einige Zeit dauern bis einige den Unterschied zwischen skalaren und vector ALUs schnallen werden, aber ganz so nebenbei 1.35GHz vs. 700-800MHz ;)
Jemand spielt hier wohl einen ueblen Witz: 1 scalar MADD = 2 FLOPs, 1 Vec4 MADD = 8 FLOPs; ergo entweder 256*2 oder 64*8. In beiden Faellen kommt 512 raus mal die Taktrate.
Ich erhoffe mir von so einer brachialen Bandbreite (wenn das mit dem 512 bit Interface stimmen sollte) einen geringen Einbruch bei HDR.
Ich erhoffe mir von so einer brachialen Bandbreite (wenn das mit dem 512 bit Interface stimmen sollte) einen geringen Einbruch bei HDR.
Ohne oder mit AA brechen die Karten eher ein weil die Recheneinheiten mehrere Takte brauchen bis sie das Ergebnis haben, als dass ihnen die Bandbreite ausgeht. Wie immer wird erst in hohen Auflösungen die Bandbreite knapp bzw. die Speicherkapazität.
Spielt halt alles zusammen und wenn ich nicht gerade in 2000er Auflösung HDR+AA aktiviere, limitiert einfach die GPU (vieleicht auch wieder die CPU), weil sie "HDR" nicht schnell genug berechen kann. Sagen wir mal lieber MDR da wir ja auf 32Bit Float bald kommen werden.
deekey777
2006-11-25, 20:31:43
Aber die Quelle steht doch da? -> rage3d :|
Zudem wäre ich mir bei nagus auch nicht so sicher, wenn er wirklich bei ATi angestellt ist, ob er nicht einfach nur Verwirrung zu den Specs schaffen will. ;)
Eher das zweite. Und das fängt an zu nerven. Wenn Fanatiker oder grüne Fanboyz sich klopfen und mit wahnwitzigen Specs herumwerfen, ist es normal, aber solche Aktionen wie seine nicht.
Was jetzt die Shader-Einheiten betrifft, wenn ich dem obrigen glauben soll dann sind es 8 Vec16 ALUs gegen 64 Vec4 ALUs. Es wird noch einige Zeit dauern bis einige den Unterschied zwischen skalaren und vector ALUs schnallen werden, aber ganz so nebenbei 1.35GHz vs. 700-800MHz ;)
Hoffentlich hört jetzt dieser Quatsch mit 64 Vec4-ALUs = 256 scalare ALUs auf. Zumindest wenn es PS angeht.
Edit: Das wichtigste vergessen... ;(
http://www.hexus.net/content/item.php?item=7177&page=2
Shading takes place on 128 scalar ALUs, grouped in clusters of 16 (4 quads effectively, as a concern when pixel shading), each cluster capable of 16 scalar MADD+MULs per cycle, 16 scalar interpolations or 1/4 of 16 special function (SF) ops, and 8 bilerps of data filtering (4 pixels of address and pixel setup), all in one clock. That shading, interpolation/SF and data fetch and filtering setup is the core of G80. Each SP is basically a slot waiting to be filled in any given cycle, G80 doing away with the fixed-ratio vector processing of all its consumer forebears.
Es werden pro Vec16-ALU 16 Pixel bearbeitet, dazu kommt noch der hohe Takt.
*LOL* nur vielleicht hast du schon mal daran gedacht, dass ich vielleicht mehr weiß als du ;) :DDas ist ok. Nur du mußt halt drauf achten, daß du zwischen NDA und dem allgemeinen Rumspacken einen Mittelweg findest. Sonst nimmt dich bald keiner mehr für voll und ATI wird auch noch gezielte Desinformation und PR-Bullshit unterstellt. Was sie vielleicht aber garnicht wollen.
Darfst du was, sag es. Kannst du was halbwegs brauchbar andeuten, tue es. Siehst du keine Möglichkeit sich halbwegs vernünftig auszudrücken, behalte es für dich. Wie das Prollen selbst. Danke.
BH
robbitop
2006-11-25, 21:26:36
Zudem wäre ich mir bei nagus auch nicht so sicher, wenn er wirklich bei ATi angestellt ist
*lol* Mensch Leute ihr habt's nicht so mit dem Sarkasmus, hm? ;)
deekey777
2006-11-25, 21:31:21
*lol* Mensch Leute ihr habt's nicht so mit dem Sarkasmus, hm? ;)
Das ist kein Sarkasmus. :P
Das ist X!!!XXAXAXA!;(
*lol* Mensch Leute ihr habt's nicht so mit dem Sarkasmus, hm? ;)du meinst Spam? ;)
Ailuros
2006-11-26, 01:17:39
Hoffentlich hört jetzt dieser Quatsch mit 64 Vec4-ALUs = 256 scalare ALUs auf. Zumindest wenn es PS angeht.
Edit: Das wichtigste vergessen... ;(
http://www.hexus.net/content/item.php?item=7177&page=2
Es werden pro Vec16-ALU 16 Pixel bearbeitet, dazu kommt noch der hohe Takt.
Das dumme ist eben wenn dieser 64 ALU=256 scalar Quatsch fuer etwas besseres angenommen wird, nur eben nach der Logik hoehere Zahl=besser. Ich bin nichtmal bis jetzt ueberzeugt dass R600 ein 4-way chip ist, sondern tendiere eher auf 6-way. Ausser dem Fall wo die angeblichen 64 ALUs ueber dual-issue a la R3/4/5xx (MADD+ADD) faehig sein wuerden, sind 64*8 FLOPs viel zu wenig fuer D3D10.
Ich erwartete von Anfang an =/>500GFLOPs fuer diese chips (wobei die fehlende MUL des G80 immer noch ein Fragezeichen darstellt).
Ergo entweder 64*12* (=/>)700MHz oder 96*8* (=/>)700MHz.
256 skalare Einheiten mit 1 MADD sind 256*2*0.7= 358 GFLOPs. Rechne ich jetzt die VS auf einem R580 zu den PS FLOPs kommt da mehr raus. Und ja ich uebersehe nicht dass GFLOP Zahlen nur theoretischer Quark sind, aber R580 hatte nicht die gleichen Effizienz-Probleme wie G7x mit seinen entkoppelten TMUs und dynamischem branching. Falls das Zeug alles oben stimmen sollte, sieht es eher nach einem ziemlich merkwuerdig balancierten chip a la R520 aus und wohl kein besonderer Grund zum jubeln.
Ich unterschaetzte ATI tatsaechlich nicht; anscheinend sind aber selbst die fanatischen ATI Fans anfaelliger in letzter Zeit sie erst richtig zu unterschaetzen :P
reunion
2006-11-26, 09:32:06
256 skalare Einheiten mit 1 MADD sind 256*2*0.7= 358 GFLOPs.
Wer sagt, dass ATi die ALUs nicht auch höher takten kann wie den restlichen Chip? 256*2*1.35 = 691 GFLOPs. Wobei das momentan ohnehin alles an den Haaren herbeigezogen ist.
Flamehaze
2006-11-26, 09:42:58
Laut hardspell.com könnte der R600 vielleicht gleich mit Direct3D 10.1 an Bord kommen.
Maschinelle Übersetzung von http://www.hardspell.com/news/showcont.asp?news_id=31823&pageid=14460
5th page: Will cast off the match, the next year January R600 soon arrives, wishes the R600 good luck!
And some did not confirm the news said, R600 possibly crossed DirectX10 but directly to support DirectX10.1, but at present announces the DirectX10.1 news only was restricted in it to join the support which the GPU multi- cores exaggerated, penetrated the API stratification plane to optimize many GPU core the joint operation and the load, like this could thoroughly liberate the double calliper system to the driver dependence, caused multi- GPU to display a higher potency in any DX10 game.
http://666kb.com/i/ajkk0veu1c9dfbmep.jpg
In other words, if R600 supports DirectX10.1, then CrossFire will have a stronger performance, a higher efficiency and bigger game widespread. This merely is the DirectX10.1 announcement few information but by, if DirectX10.1 has the more characteristics support, then R600 thoroughly in technology leading match.
robbitop
2006-11-26, 09:50:32
sondern tendiere eher auf 6-way
Das wäre sehr ineffizient, da pro Quad selten zur exakt gleichen Zeit (also auf den Takt genau) 2x Vec3 Operationen mit derselben Instruktion anstehen. Das würde eher ins Gegenteil einschlagen. Statt Effizienz durch feinere Granularität -> the other way round.
Laut hardspell.com könnte der R600 vielleicht gleich mit Direct3D 10.1 an Bord kommen.Glaube ich nicht dran.
Ailuros
2006-11-26, 10:29:06
Wer sagt, dass ATi die ALUs nicht auch höher takten kann wie den restlichen Chip? 256*2*1.35 = 691 GFLOPs. Wobei das momentan ohnehin alles an den Haaren herbeigezogen ist.
Ueberraschungen koennte es ebenso wie beim G80 geben; was klingt aber moeglicher dass R600 um ein moderates Prozentual schneller ist oder fast 2x mal so viel? Im ersten Fall der eigentlich auch am moeglichsten klingt gewinnt man dann um ein konservatives Prozentual mit 690 vs. 346GFLOPs die Konkurrenz.
Ich wuerde auch von Dir nicht erwarten dass Du einen ziemlich unbalancierten chip vorschlaegst :P
Ailuros
2006-11-26, 10:32:10
Das wäre sehr ineffizient, da pro Quad selten zur exakt gleichen Zeit (also auf den Takt genau) 2x Vec3 Operationen mit derselben Instruktion anstehen. Das würde eher ins Gegenteil einschlagen. Statt Effizienz durch feinere Granularität -> the other way round.
Nur sind vielleicht diesmal die ALUs flexibler als viele erwarten; G80 hat 8 clusters ja und?
AnarchX
2006-11-26, 10:43:31
Laut hardspell.com könnte der R600 vielleicht gleich mit Direct3D 10.1 an Bord kommen.
[...]
http://we.pcinlife.com/attachments/forumid_206/Multi-sample%20AA_uCqeM2L9rKy2.jpg
Der G80 sollte das AFAIK aber auch schon können, also nix besonderes.
robbitop
2006-11-26, 10:49:39
Nur sind vielleicht diesmal die ALUs flexibler als viele erwarten; G80 hat 8 clusters ja und?
Tja bei SIMD ALUs kann man aber gegen das Granularitätsproblem nicht viel machen. Deshalb ging NV ja den Weg in Richtung skalare Units. MIMD Units wäre immerhin ein Schritt in die richtige Richtung (auch wenn es noch immer nicht an die Effizienz der skalaren ALUs herankäme)
Ailuros
2006-11-26, 11:01:05
Tja bei SIMD ALUs kann man aber gegen das Granularitätsproblem nicht viel machen. Deshalb ging NV ja den Weg in Richtung skalare Units. MIMD Units wäre immerhin ein Schritt in die richtige Richtung (auch wenn es noch immer nicht an die Effizienz der skalaren ALUs herankäme)
There are 128 such processors (called SPs by NVIDIA) in a full G80, grouped in clusters of 16, giving the outward appearance of an 8-way MIMD setup of 16-way SIMD SP clusters.
http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=08
Dabei kommt es natuerlich auch darauf an was man genau mit MIMD meint, denn aehnliches kann man auch fuer G7x/R5x0 behaupten.
http://www.beyond3d.com/forum/showpost.php?p=879577&postcount=218
http://www.beyond3d.com/forum/showpost.php?p=879996&postcount=235
Wieso jetzt volle MIMD Einheiten zu diesem Zeitpunkt eine bessere Idee waeren, entgeht mir voll. Erstens gibt es immer noch Faelle wo um die negativen Aspekte zu umgehen es immer noch zusaetzliche HW kostet, wobei ohnehin MIMD teurer in HW ist als SIMD.
robbitop
2006-11-26, 11:19:53
Das ist natürlich immer eine Frage der Sichtweise.
Sieht man Quadpipelines haben G70 und R5xx vereinfacht ausgedrückt 16 way SIMD Einheiten. (ich nehme das Splitting jetzt mal raus)
Die 16 Komponenten ergeben sich aus 4xRGBA. Diese werden alle zur gleichen Zeit mit der gleichen Instruktion ausgeführt. Daraus ergibt sich ein starker Verschnitt.
Bei einer 16 way MIMD Unit kann man immerhin für die einzelnen Komponenten (RGBA) unterschiedliche Instruktionen ausführen (aber natürlich ist die Instruktion von allen 4xRs zB. die gleiche -> Quadpipelines eben). Das verringert den Verschnitt. Allerdings müssen alle 16 Komponenten zur gleichen Zeit berechnet werden. Und das kommt eben nicht immer so hin. Aber schonmal besser als reines SIMD in diesem Falle.
Beim G80 verhällt es sich ähnlich wie im MIMD Falle, nur eben, dass RGBA nicht mehr zur selben Zeit berechnet werden müssen, sondern dann, wenn man sie benötigt. Das bringt schonmal einiges. Natürlich haben die einzelnen Komponenten immernoch die gleiche Instruktion, aber das stört nicht, da das bei Quadpipelines nunmal so ist.
Bei einer normalisierten Rechenleistung (also gleiche GFLOPs Anzahl) bringt dieses skalare Konzept dem G80 im Shadermark einen Effizienzvorteil von ~50%. Nicht schlecht oder? :)
Jetzt ist die Frage, welchen Weg ATI geht.
Beherscht der G80 jetzt auch Direct3D 10.1 oder nicht?
Ich erhoffe mir von so einer brachialen Bandbreite (wenn das mit dem 512 bit Interface stimmen sollte) einen geringen Einbruch bei HDR.HDR-Rendering kann man in D3D 10 effizienter implementieren, da es zwei neue 32-Bit-Formate gibt, die für viele Fälle 64-Bit-Formate ersetzen können.
also laut aktuellen gerüchten sieht die sache folgendermaßen aus (aus dem rage3d-forum zusammengefasst)
R600
700-800Mhz core
64 Unified ALUs (256 scalar units)
16ROPs
1024-bit Ring Bus
512-bit External
1024MB-2048MB GDDR4 @ bis zu 2.2Ghz (140GB/s)
also ich find das super ;)So gesehen hat die X1900 schon 232 "skalare units". 256 wären da keine so deutliche Steigerung.
Rechnen wir beim R600 mit 750 MHz Core und MAD-ALUs. Das wären dann 384 GFlop/s. Der G80 bietet ca. 500 GFlop/s. Selbst wenn man das zweite MUL nicht mitzählen will, sind es noch 346 GFlop/s. Dank der skalaren Architektur effizienter als herkömmliche ALUs. Kurz, ich glaube nicht, dass ATI einen so schwachbrüstigen Chip ins Rennen schicken wird.
Dann könnten es doch 96 Vec3 + Scalar sein. Das wären theoretisch 384 Scalar-Units, also bei 750mhz Coretakt etwa 864Gflops.
Ohne die Scalaren immerhin noch 648 Gflops.
seahawk
2006-11-26, 21:00:03
Denke ich auch eher. 50% mehr Lesitung als der G80 dprfte der R600 locker haben.
Godmode
2006-11-26, 21:31:18
Denke ich auch eher. 50% mehr Lesitung als der G80 dprfte der R600 locker haben.
Aber warum, ich verstehe nicht ganz warum fast jeder meint das der R600 soviel schneller sein müsste als der G80? ATI kocht doch auch nur mit Wasser!
w0mbat
2006-11-26, 21:37:18
Es wird wieder auf max. 10% rauslaufen. Beide wollen doch regelmäßig GPUs verkaufen.
Winter[Raven]
2006-11-26, 21:39:01
Denke ich auch eher. 50% mehr Lesitung als der G80 dprfte der R600 locker haben.
Aber auf wessen Kosten....
Gouvernator
2006-11-26, 21:41:11
Aber warum, ich verstehe nicht ganz warum fast jeder meint das der R600 soviel schneller sein müsste als der G80? ATI kocht doch auch nur mit Wasser!
Villeicht weil Ati viel eher an die Grenzen geht als Nvidia. Zum Beispiel letzens mit der X1900 wurde ziemlich heisser Chip produziert alle waren sehr unzufrieden laut, heiss, bla... Nun, über die Leistung kann man sich immernoch nicht beschweren auch nicht in der G80 Gegenwart :rolleyes:
Villeicht weil Ati viel eher an die Grenzen geht als Nvidia. Zum Beispiel letzens mit der X1900 wurde ziemlich heisser Chip produziert alle waren sehr unzufrieden laut, heiss, bla... Nun, über die Leistung kann man sich immernoch nicht beschweren auch nicht in der G80 Gegenwart :rolleyes:
Zum Highend-Sektor kann man den X1900 aber nicht mehr zählen, ist eher Mid-High. Denn gerade in hohen Auflösungen und mit HDR/AA/AF sieht der X1900 keine Sonne. Das war auch der Grund warum ich ihn gegen einen 8800er getauscht habe. Ich bevorzuge klar ATi und hoffe, dass der R600 ein Moster wird, denn ich würde gern wieder welchseln, aber dank TFT (native 1920x1200) bin ich auf einer starken Graka angewiesen. Momentan liegt nVIDIA klar vorne. go Ati
Fetza
2006-11-26, 23:24:38
Aber warum, ich verstehe nicht ganz warum fast jeder meint das der R600 soviel schneller sein müsste als der G80? ATI kocht doch auch nur mit Wasser!
ati-fanboys meinen das die neue ati karte in jedem fall deutlich besser sein wird als die neue nv-karte und nv-fanboys meinen das in jedem falle die neue nv-karte besser sein(ist) wird als die entsprechende ati-karte.
Hab ich noch nicht anders erlebt, in keinem forum.
greetz
Fetza
LovesuckZ
2006-11-26, 23:30:22
Nun, über die Leistung kann man sich immernoch nicht beschweren
Stimmt.
Wenn man Stromaufnahme, Lautstärke und Wärme nicht betrachtet, ist die Leistung nicht schlecht...
Man, man, man.
Stimmt auch wieder. Der G80 hat im Vergleich zu R520 mit nur merkbar höheren Stromaufnahme, Lautstärke und Wärme eine wesentlich höhere Grafikleistung. Ich wäre trotzdem glücklicher, wenn sich NV nicht immer zum Ziel machen würde ATI in allen Belangen zu übertrümpfen...
Haben "wir" die Diksussion jetzt da wo wir sie haben wollten, Lovesuckz? :|
Ailuros
2006-11-27, 05:30:43
Denke ich auch eher. 50% mehr Lesitung als der G80 dprfte der R600 locker haben.
Dann lass Dich aber nicht zu stark enttaeuschen ;) Nur mal so nebenbei, woher kommt der Gedanke von 50%, denn es ist nicht gerade wenig?
Ailuros
2006-11-27, 05:33:02
Villeicht weil Ati viel eher an die Grenzen geht als Nvidia. Zum Beispiel letzens mit der X1900 wurde ziemlich heisser Chip produziert alle waren sehr unzufrieden laut, heiss, bla... Nun, über die Leistung kann man sich immernoch nicht beschweren auch nicht in der G80 Gegenwart :rolleyes:
Dann wird es auch keinen allzu besonderen Grund geben auf R600 aufzuruesten.
seahawk
2006-11-27, 06:59:02
Dann lass Dich aber nicht zu stark enttaeuschen ;) Nur mal so nebenbei, woher kommt der Gedanke von 50%, denn es ist nicht gerade wenig?
Doppelte Bandbreite 96 VEC4 ALUs @ 750+mhz. 1GB Speicher.... 16ROP ala RV530,...
xL|Sonic
2006-11-27, 07:02:19
Ich denke mal schon, dass der R600 etwas schneller sein wird wie der G80, das ganze aber wieder überschaubar eher mehr im einstelligen, als zweistelligen %-Bereich liegen wird.
Entscheidend ist ja, was ATI sonst noch so alles bietet. Ob sie das AA und AF weiter verbessert haben etc.
Ich denke mal schon, dass der R600 etwas schneller sein wird wie der G80, das ganze aber wieder überschaub eher mehr im einstelligen, als zweistelligen Bereich liegen wird.Genau so wird es sein. Letztendlich werden wohl beide quasi gleichauf liegen, wie immer eigentlich. Mal ist G80 schneller, mal R600. Sowas wie NV30/R300 werden wir so schnell nicht nocheinmal erleben, auch wenn einige Leute das wohl gern so hätten.
Ich halte es nicht für sonderlich realistisch, dass R600 50% schneller sein wird. Beim R520 wurde auch immer gesagt, dass dieser den G70 völlig zerstören würde mit 8 Quads und 512-bit-SI. Was war dann letztendendes? R520 war kaum schneller als G70GTX und langsamer als GTX/512.
Das gleiche Spiel beim G71. Hier im Forum haben die Leute von 32 Pipelines @ 750 MHz geredet. Was am Ende rauskam, wissen wir ja. Die 7900GTX konnte gerade so zu den R580-Karten aufschließen.
Die IHVs haben auch gar nicht so wirklich ein Interesse daran, soviel schneller zu sein als die Konkurrenz. 10% reichen doch auch um das Produkt zu verkaufen und man hält die Margen hoch.
Ailuros
2006-11-27, 08:40:53
Doppelte Bandbreite
86.4GB/s * 2 = 173GB/s = 1350MHz@512bit oder 2700@256bit
Das zweite wollen wir wohl eher ausschliessen und im ersten Fall um die Unkosten eines hypothetischen 512bit zu kompensieren waere man wohl um einiges besser angelegt mit ~900MHz GDDR3 die immer noch 115.2 GB/sec ergeben. Realitaetsnaeher sind das dann ~33% mehr Bandbreite wofuer man Ausnahmefaelle finden muss dass man diesen Unterschied erstmal ausspielen kann, wobei Spielbarkeit nicht mehr unbedingt garantiert ist.
Seit wann erhoeht sowieso NUR X Prozent mehr Bandbreite gleich um X Prozent Leistung im Durchschnitt? Falls im Zweifel leg nochmal einen Blick auf X1900XTX vs. X1950XTX.
96 VEC4 ALUs @ 750+mhz
96 * 8 FLOPs * 0.75MHz = 576 GFLOPs
Ich kann leider nicht wissen was genau mit dem MUL auf G80 los ist, aber wenn ich NV's eigenen theoretischem Mist folge:
128 * 3 FLOPs * 1.35GHz = 518 GFLOPs
Das sind nur 11% mehr theoretische GFLOPs, wobei eine R580 mit theoretischen mehr GFLOPs von 54% als G71 die letztere wohl doch nicht gnadenlos in den Boden stampfen kann, noch gibt es einen 50% Leistungsunterschied.
. 1GB Speicher....
33% mehr Speicher; ja und?
16ROP ala RV530,...
Ich hab das Gefuehl dass Du die Faehigkeiten der 24 ROPs des G80 immer noch nicht richtig verstanden hast....
***edit: um es Dir etwas realitaetsnaeher zu machen, die bisherigen Geruechte sprechen von einem gemischten Beutel und wenn ich interpretieren soll heisst das je nach Fall Vorsprung oder eben das Gegenteil. Einen logischen Vorsprung von einem gesunden durchschnittlichen Prozentual im 15% Bereich koennte ich akzeptieren. 50% waeren zwar schoen aber es wird wohl noch ein Weilchen dauern bis R6x0 nachgereicht wird ;)
seahawk
2006-11-27, 09:15:01
Naja, das hängt wohl von der finalen Taktung ab.
Ich kann halt gerade momemtan nur öffentlich spekulierte Infos hier wiedergeben und wenn man das das Maximum annimmt, dann könnte er schon bis zu 50% schneller sein.
(Wobei ausgehend von Speicherverfügbarkeit und den Spekualtionen zur 8800GT und den Preisen von R600 ergibt sich auch für mich ein Bild, dass Deinem ziemlich entsprcht)
Ailuros
2006-11-27, 09:26:04
Naja, das hängt wohl von der finalen Taktung ab.
Mit 1GHz haette ich weniger Zweifel.
Ich kann halt gerade momemtan nur öffentlich spekulierte Infos hier wiedergeben und wenn man das das Maximum annimmt, dann könnte er schon bis zu 50% schneller sein.
In wievielen Aussnahmen ist dann die Frage....wenn ueberhaupt.
Doppelte Bandbreite
Im Vergleich wozu? Viel Bandbreite ist natürlich immer gut, nur muss der Kern sie auch nutzen können (s. NV35).
96 VEC4 ALUs @ 750+mhz.
Das bedeutet schlimmstenfalls 288 GFLOPs (das Doppelte, wenn alle single-cycle MAD-fähig sind). Allein die Anzahl und Takt der ALUs sagt leider noch nicht genug - was sie können ist wichtig.
1GB Speicher....
IMO genauso ein Null-Vorteil wie G80s 640/768 MByte RAM ggü. 512 MByte.
16ROP ala RV530,...
Das wäre nun echt ein wenig wenig. ;) Unter 24 ROPs braucht ATi mit dem Next-Gen-Schwergewicht nicht anzutreten und schonmal gar nicht, wenn sie nur das können, was sie im RV530 können. Schätze ich.
Q
Ailuros
2006-11-27, 10:15:13
Quasar,
Mit =/>8xQ Multisampling kann es schon ziemlich eng werden in sehr hohen Aufloesungen.
***edit: dass heisst jetzt natuerlich nicht dass man momentan 768 oder 1000MB Framebuffer braucht, aber wenn man auf ganz extreme Faelle stoesst, kann es dann schon sein dass der Speicher auslaeuft; und Du weisst ja wohl besser als ich wie Marketing solche Einzelheiten ausnuetzen koennte.
Wie ich schonmal irgendwo erwaehnte drehte ich in SS2 alles auf, schaltete TC ab und mit 16xQ/16xAF HQ war der Verbrauch auf stolzen ~870MB insgesamtem Speicher in 2048*1536 und einer Durchschnittleistung von 5 fps. 15 fps waeren zwar in einem Gegenfall wohl dann schon 3x mal schneller LOL ;)
Ja, sicher. Extreme Fälle kann ich immer provozieren, aber wer schaltet schon unter normalen Umständen TC ab?
Q
Ja, sicher. Extreme Fälle kann ich immer provozieren, aber wer schaltet schon unter normalen Umständen TC ab?
Q
Jeder, der maximale Texturqualität haben will...
Jeder, der maximale Texturqualität haben will...
Mach doch mal eine Umfrage ;)
Q
Mach doch mal eine Umfrage ;)
Q
P.S.: Der schaltet allerdings auch A.I. und alle anderen möglichen Optimierungen, bsw. im Forceware, ab.
Q
Ailuros
2006-11-27, 11:15:17
Ja, sicher. Extreme Fälle kann ich immer provozieren, aber wer schaltet schon unter normalen Umständen TC ab?
Q
Die meisten Spiele erlauben es gar nicht.
Jeder, der maximale Texturqualität haben will...
In der handvoll von Aussnahemen wo man TC erstmal abschalten kann, wuerde ich gerne mal wissen ob und wieso jemand so gute Augen hat die Unterschiede in Echtzeit zu sehen.
Was ist denn TC jetzt schon wieder?
ScottManDeath
2006-11-27, 11:29:19
S3TC ;)
boxleitnerb
2006-11-27, 11:31:04
Texturkompression nehme ich an.
Ich denke, man kann das mit der Pingeligkeit auch bis auf die Spitze treiben. Es kann mir keiner erzählen, dass er z.B. in Doom3 den Unterschied zwischen Ultra und High sieht, das wäre ja einmal komprimierte und einmal unkomprimierte Texturen.
Ich habe mir seinerzeit die Screenshots genauestens angesehen und konnte nichts erkennen.
In manchen Fällen heiligt der Zweck auch die Mittel.
Ailuros
2006-11-27, 11:36:53
Texturkompression nehme ich an.
Ich denke, man kann das mit der Pingeligkeit auch bis auf die Spitze treiben. Es kann mir keiner erzählen, dass er z.B. in Doom3 den Unterschied zwischen Ultra und High sieht, das wäre ja einmal komprimierte und einmal unkomprimierte Texturen.
Ich habe mir seinerzeit die Screenshots genauestens angesehen und konnte nichts erkennen.
In manchen Fällen heiligt der Zweck auch die Mittel.
Eine der Aussnahmen die ich meinte; probier es mal mit zoom auf den Screenshots ;) Deshalb wundert es mich auch was fuer Adleraugen manche haben LOL :wink:
Ich denke mal schon, dass der R600 etwas schneller sein wird wie der G80, das ganze aber wieder überschaub eher mehr im einstelligen, als zweistelligen Bereich liegen wird.
Entscheidend ist ja, was ATI sonst noch so alles bietet. Ob sie das AA und AF weiter verbessert haben etc.
ihr habts immer noch ned kapiert hm,man kauf ATI nicht weils nen bissl schneller ist. ich mein sie ist schneller unter AA/AF aber man kauft ATI weils die bessere Bildqualität hat.
genau wie die masse der comments bei computerbase usw usw, man redet nur davon wer schneller ist. naja wenn man keine ahnung hat von details hat,kann man nur über speed reden.
Ailuros
2006-11-27, 14:11:21
ihr habts immer noch ned kapiert hm,man kauf ATI nicht weils nen bissl schneller ist. ich mein sie ist schneller unter AA/AF aber man kauft ATI weils die bessere Bildqualität hat.
genau wie die masse der comments bei computerbase usw usw, man redet nur davon wer schneller ist. naja wenn man keine ahnung hat von details hat,kann man nur über speed reden.
Wobei der Vergleich gegen G80 nicht mehr so leicht ist was die Bildqualitaet betrifft. Mit der Leistung wird es ATI diesmal wieder nicht besonders schwer haben; deren primaeres Problem ist eben eher dass ihnen fuer diese Generationnicht mehr viel Luftraum fuer Verbesserungen gelassen hat.
ihr habts immer noch ned kapiert hm,man kauf ATI nicht weils nen bissl schneller ist. ich mein sie ist schneller unter AA/AF aber man kauft ATI weils die bessere Bildqualität hat.Öhm, im Moment ist es aber Nvidia, die mit dem G80 die bessere Bildqualität bieten. Da hast wohl eher du etwas immer noch nicht kapiert. ;)
xL|Sonic
2006-11-27, 14:24:49
ihr habts immer noch ned kapiert hm,man kauf ATI nicht weils nen bissl schneller ist. ich mein sie ist schneller unter AA/AF aber man kauft ATI weils die bessere Bildqualität hat.
genau wie die masse der comments bei computerbase usw usw, man redet nur davon wer schneller ist. naja wenn man keine ahnung hat von details hat,kann man nur über speed reden.
Vielleicht solltest du auch erstmal lesen, was du da quotest :rolleyes:
DrumDub
2006-11-27, 14:27:48
Erste Bilder des R600. (http://www.hartware.de/news_41132.html) manchmal frage ich mich, warum nicht einfach der thread gelesen wird, anstatt zum xtenmal das gleiche zu posten...
lilgefo~
2006-11-27, 19:13:32
Ist eigentlich schon bekannt, ob ATI AAA beibehalten wird? Beim G80 wurde TSAA ja,soweit mir bekannt ist, gestrichen.
AnarchX
2006-11-27, 19:19:07
Ist eigentlich schon bekannt, ob ATI AAA beibehalten wird? Beim G80 wurde TSAA ja,soweit mir bekannt ist, gestrichen.
Woher hast du den diese Falschinformation, natürlich gibt es noch TRSAA und es wird auch bei ATI AAA geben.
Nur mit D3D10.1 wird das ganze noch etwas interessanter werden:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5027556&postcount=621
;)
lilgefo~
2006-11-27, 19:24:59
Woher hast du den diese Falschinformation, natürlich gibt es noch TRSAA und es wird auch bei ATI AAA geben.
Nur mit D3D10.1 wird das ganze noch etwas interessanter werden:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5027556&postcount=621
;)
Hmm..ach echt? Hab nur auf Computerbase von dem neuen CSAA gelesen und TSAA wurde da nirgendwo erwähnt. Hat mich acuh gewunder aber naja...bin zumindeste erleichtert, dass es immer noch da ist..waere ja acuh ziemlich panne das rauszunehmen und stattdessen nur noch 16x MSAA reinzukloppen was eh net soviel bringt. (im vergleich zu 4x oder 6x und besonders zu 4bzw.6xAAA/tsaa)
reunion
2006-11-27, 19:46:55
Ich halte es nicht für sonderlich realistisch, dass R600 50% schneller sein wird. Beim R520 wurde auch immer gesagt, dass dieser den G70 völlig zerstören würde mit 8 Quads und 512-bit-SI. Was war dann letztendendes? R520 war kaum schneller als G70GTX und langsamer als GTX/512.
Das wurde höchstens vom INQ behauptet, hier im Forum wurde R520 vollkommen unterschätzt. Man sprach von einem R420 mit angeflaschten SM3, der nur mittels wahnwitzig hoher Taktraten mit G70 halbwegs mithalten könnte. Jegliche Vorzüge im Vergleich zum G70 wurde ihm schon im vorhinein abgesprochen. Selbst ATi-Folien, wonach R520 eine gute dB-Performance bieten würde, wurden als pures Marketing abgestempelt. Dinge wie FP16 HDR + MSAA oder gar winkelunabhängiges AF wurden höchstens belächelt.
Nichtsdestotrotz halte ich 50% natürlich für unrealistisch. Heutige Spekulationen um R600 wurden meiner Meinung nach zu einem hohem Prozentsatz, wenn nicht sogar gänzlich ohnehin von irgendwelchen Möchtegern-Insidern aus der Nase gezogen. Die Vergangenheit hat gezeigt, dass verlässliche Informationen immer erst kurz vorm Releasing öffentlich wurden. Und so sollte man das Ganze auch mit entsprechender Distanz sehen.
Man sprach von einem R420 mit angeflaschten SM3, der nur mittels wahnwitzig hoher Taktraten mit G70 halbwegs mithalten könnte.
Naja ist das nicht zu einem gewissen Grad nicht auch so eingetreten, wenn man jetzt "halbwegs mithalten" mit einem gesunden "leicht übertreffen" ersetzt (was ja nötig war nach der Zeit die er nach G70 kam).
Zumindest ich habe damals immer gesagt, das er nicht so viel schneller sein kann mit nur 16 Pipelines wie viele im Vorfeld angenommen haben, und so war es dann ja auch (ne ich möchte jetzt keine extremen Ausnahme-Benchmarkergebnisse zu gunsten ATi sehen bitte...)
R600 wird sicher etwas schneller sein als G80 - alles andere wäre eine Katastrophe für ATi. Aber 50% ist übertrieben, vor allem wenn man überlegt welche technischen Innovationen nVIDIA mit der Generation gebracht hat.
Es wird mal wieder Zeit das ATi vorlegt, sonst seh ich immer so grün aus in den Augen mancher Leute. Ich bin einfach ein skeptischer Mensch ;)
Ich hab damals das mit NV3x z.B. auch nicht gefressen was da so im Vorfeld herumschwirrte und mir trotzdem nen R300 gekauft.
Ailuros
2006-11-27, 21:01:44
Das wurde höchstens vom INQ behauptet, hier im Forum wurde R520 vollkommen unterschätzt. Man sprach von einem R420 mit angeflaschten SM3, der nur mittels wahnwitzig hoher Taktraten mit G70 halbwegs mithalten könnte. Jegliche Vorzüge im Vergleich zum G70 wurde ihm schon im vorhinein abgesprochen. Selbst ATi-Folien, wonach R520 eine gute dB-Performance bieten würde, wurden als pures Marketing abgestempelt. Dinge wie FP16 HDR + MSAA oder gar winkelunabhängiges AF wurden höchstens belächelt.
Das was ich persoenlich damals andeutete ist dass R520 wohl nicht der Schreier sein wird was floating point power betrifft und daran gibt es auch heute noch keinen einzigen Zweifel. Waere es anders gewesen haette ATI nie den R580 nachgereicht und dass mit 3x so hohem theoretischer FP power.
Dass die R580 nicht so stark abschiesst wie man haette erwarten koennen liegt an den Flaschenhaelsen des eigentlichen Designs, aber wie mehr als oefters erwaehnt es war ein billiger Weg die Leistung gegenueber R520 zu erhoehen sonst waere die letztere hoffnungslos gegen den G71 ausgeliefert gewesen.
Von angeflaschtem SM3.0 gab es von mir zumindest nichts.
Nichtsdestotrotz halte ich 50% natürlich für unrealistisch. Heutige Spekulationen um R600 wurden meiner Meinung nach zu einem hohem Prozentsatz, wenn nicht sogar gänzlich ohnehin von irgendwelchen Möchtegern-Insidern aus der Nase gezogen. Die Vergangenheit hat gezeigt, dass verlässliche Informationen immer erst kurz vorm Releasing öffentlich wurden. Und so sollte man das Ganze auch mit entsprechender Distanz sehen.
Dann kannst Du mich gerne erschiessen dass ich mal wieder mehr als Du erwarten koenntest im Aermel versteckt habe. :P
Ailuros
2006-11-27, 21:05:05
R600 wird sicher etwas schneller sein als G80 - alles andere wäre eine Katastrophe für ATi. Aber 50% ist übertrieben, vor allem wenn man überlegt welche technischen Innovationen nVIDIA mit der Generation gebracht hat.
Ich halt mal vorsichtshalber noch meine Klappe denn es ist noch viel zu frueh und zwei Monate sind eine lange Zeit um Treiber auszubuegeln. Bis jetzt lassen mir die hereinfliessenden Daten eher gemischte Gefuehle; einmal ein quasi "hoppla" und einmal ein niederlassendes "hmmm".
Nach einem "G80-Killer" sieht das Ding auf jeden Fall nicht aus; denn so was wuerde 50% mehr Leistung (bei gleicher IQ) auch vorschlagen.
xL|Sonic
2006-11-27, 21:15:14
Naja ist das nicht zu einem gewissen Grad nicht auch so eingetreten, wenn man jetzt "halbwegs mithalten" mit einem gesunden "leicht übertreffen" ersetzt (was ja nötig war nach der Zeit die er nach G70 kam).
Zumindest ich habe damals immer gesagt, das er nicht so viel schneller sein kann mit nur 16 Pipelines wie viele im Vorfeld angenommen haben, und so war es dann ja auch (ne ich möchte jetzt keine extremen Ausnahme-Benchmarkergebnisse zu gunsten ATi sehen bitte...)
R600 wird sicher etwas schneller sein als G80 - alles andere wäre eine Katastrophe für ATi. Aber 50% ist übertrieben, vor allem wenn man überlegt welche technischen Innovationen nVIDIA mit der Generation gebracht hat.
Es wird mal wieder Zeit das ATi vorlegt, sonst seh ich immer so grün aus in den Augen mancher Leute. Ich bin einfach ein skeptischer Mensch ;)
Ich hab damals das mit NV3x z.B. auch nicht gefressen was da so im Vorfeld herumschwirrte und mir trotzdem nen R300 gekauft.
Bloß gut, dass AMD ja auch grün ist ;D
Aber solange Nvidia keinen Mist baut und mal Probleme bei der Fertigung oder ähnliches hat, dürfte es für ATI wohl sehr schwer werden mal wieder vorzulegen, weil das würde ja zur Folge haben, dass man eine GrKa Generation massiv beschneiden würde, was die Zeit auf dem Markt angeht, da man ja doch schon ein ganzes Stück hinterher hinkt.
X.Perry_Mental
2006-11-28, 11:00:33
Jetzt sollen es laut Inquirer sogar 720M Transistoren sein: "ATI [...] produced a 720-million transistor monster that is currently seeking its final clock speed."
Link (http://uk.theinquirer.net/?article=35995)
Sunrise
2006-11-28, 11:09:33
...einmal ein quasi "hoppla" und einmal ein niederlassendes "hmmm".
Das niederlassende "hmmm" verstehe ich jetzt weniger. Das "hoppla" ist jedoch höchstwahrscheinlich eher berechtigt (eine der Bedingungen: dass der geplante Taktraten-Bereich auch erreicht wird).
Und mit den theoretischen GFLOPS kann ich dieses Mal noch weniger anfangen, als bei allen vorangehenden Generationen. Das könnte allerdings ein Trugschluss sein.
Gouvernator
2006-11-28, 12:18:46
Jetzt sollen es laut Inquirer sogar 720M Transistoren sein: "ATI [...] produced a 720-million transistor monster that is currently seeking its final clock speed."
Link (http://uk.theinquirer.net/?article=35995)
Ach du schei...! 80nm@mehr Transistoren@mehr Bandbreite@mehr Takt als G80 :eek: Meine Vermutung liegt wohl richtig das NV wieder mal erst durch SLi eine Karte schalgen wird.
xL|Sonic
2006-11-28, 12:33:50
Naja der Inq ist mit Sicherheit nicht die glaubwürdigste Quelle :rolleyes:
Naja der Inq ist mit Sicherheit nicht die glaubwürdigste Quelle :rolleyes:
Ist es schon, wenn es um ''i want to believe'' geht.
Ach du schei...! 80nm@mehr Transistoren@mehr Bandbreite@mehr Takt als G80 :eek: Meine Vermutung liegt wohl richtig das NV wieder mal erst durch SLi eine Karte schalgen wird.
Wie ist doch vollkommen egal. Am Ende entscheidet der Markt und der Kunde.
Übrigens hat der sich seit NV40 immer mehr für Nvidia entschieden. Aktuellen Analysen und natürlich auch Quartalsergebnisse belegen das ja.
Die NV4x Runde ging mit leichten Vorteilen an Nvidia.
Bei der G7X Runde gibts überhaupt keine Diskussion. Da hinkte ATI aus mehreren Gründen insgesamt hinterher.
G8x vs R6xx wird sich im Verlaufe des 1. Halbjahres 2007 entscheiden. Momentan siehts nach einem ähnlichen Verlauf wie bei der letzten Runde aus, da ATI wiedermal sehr spät kommt und ein riesen Zeitfensternachteil hat, der wahrscheinlich auch in anderen Produktsegmenten der Reihe zum Tragen kommen wird.
Naja der Inq ist mit Sicherheit nicht die glaubwürdigste Quelle :rolleyes:
Wir kennen doch seine Vermutungen. Und das die nix wert sind wissen wir auch alle.
Kann man also ALS reinen Spam behandeln.
Gouvernator
2006-11-28, 12:42:00
Haha. Ihr seid witzig. Wenn irgendwas kommt das R600 etwa noch besser dastehen lässt wird was von Ungaubwürdigkeit gefasselt. Also, kommt. Es ist jetzt schon so gut wie klar r600 wird 512bit Chip. Und auf 200 mio. Transistoren mehr oder weniger kommts gar nicht mehr an...
][immy
2006-11-28, 12:43:39
Naja der Inq ist mit Sicherheit nicht die glaubwürdigste Quelle :rolleyes:
aber man muss schon zugeben das sie auch schön öfters richtig lagen obwohl auf anderen seiten noch nichts bekannt gegeben wurde. z.B. AMD/ATi deal und die letzten grafikchipentwicklungen die man auch erst für unglaubwürdig gehalten hat.
ich würde auch nicht alles glauben was da steht, aber die haben eben doch öfters mal recht.
uff, wenn das stimmt mit den 720 mio transistoren.... das würde sich auch mit dem angekündigten stromverbrauch decken. bin mal gespannt ab wann die 1 mrd grenze überschritten wird. die refreshes werden das wohl noch nicht schaffen aber die nachfolgergeneration schon eher.
[immy']aber man muss schon zugeben das sie auch schön öfters richtig lagen obwohl auf anderen seiten noch nichts bekannt gegeben wurde. z.B. AMD/ATi deal und die letzten grafikchipentwicklungen die man auch erst für unglaubwürdig gehalten hat.
Das Problem an der Sache ist, dass sie so vieles Schreiben, dass irgendwas von dem richtig ist.
LovesuckZ
Gouvernator
2006-11-28, 12:59:39
Also wenn ich irgendwo Nachrichten lese dann gehe ich 100% davon aus das die Sache stimmt, ausser da steht ausdrücklich UNSICHER. Was habt ihr denn alle...
Also wenn ich irgendwo Nachrichten lese dann gehe ich 100% davon aus das die Sache stimmt, ausser da steht ausdrücklich UNSICHER. Was habt ihr denn alle...
:ugly:
Tut mir leid, aber das ist das naivste, was ich in letzter Zeit gelesen habe :lol:
Hvoralek
2006-11-28, 13:05:18
Also, kommt. Es ist jetzt schon so gut wie klar r600 wird 512bit Chip.Da musst Du ja NDA- Informationen haben. Die Gerüchte darum sind diesmal dichter als sonst. Ja, ich wäre nicht völlig überrascht, wenn er ein 512er SI hätte. Aber wo siehst Du da ein "so gut wie klar"?
Ach du schei...! 80nm@mehr Transistoren@mehr Bandbreite@mehr Takt als G80 :eek: Meine Vermutung liegt wohl richtig das NV wieder mal erst durch SLi eine Karte schalgen wird.Diese Eckdaten sagen nun allein so ziemlich gar nichts aus. Darf ich an R520 erinnern oder NV35? :rolleyes:
Ich gehe davon aus, dass R600 schneller werden wird als G80, wahrscheinlich auch besser. Alles andere wäre für ATI auch einfach peinlich. Sie haben immerhin 10 Wochen mehr Zeit und einen feineren Fertigungsprozess.
Tut mir leid, aber das ist das naivste, was ich in letzter Zeit gelesen habe "Irgendwo" schließt ja wohl den Inqu*hust* mit ein, insofern...
Gouvernator
2006-11-28, 13:08:52
Da musst Du ja NDA- Informationen haben. Die Gerüchte darum sind diesmal dichter als sonst.
Typisch Techniker solange nix schwarz auf weiss steht gilt als unsicher. Leute, könnt ihr nicht zwischen Gerüchten und hartnäckigen Gerüchten unterscheiden?
:ugly:
Tut mir leid, aber das ist das naivste, was ich in letzter Zeit gelesen habe :lol:
Naja, bei ihm erkennt man Starke Rötungen. Da sind solche beiträge an der Tagesordnung.
ShadowXX
2006-11-28, 13:19:09
Typisch Techniker solange nix schwarz auf weiss steht gilt als unsicher. Leute, könnt ihr nicht zwischen Gerüchten und hartnäckigen Gerüchten unterscheiden?
8 Quads für den r580 waren auch ein hartnäckiges Gerücht.....(auf das manche noch 2 Stunden vor release des Chips bestanden).
Ich gehe davon aus, dass R600 schneller werden wird als G80, wahrscheinlich auch besser. Alles andere wäre für ATI auch einfach peinlich. Sie haben immerhin 10 Wochen mehr Zeit und einen feineren Fertigungsprozess.
Schneller? Wahrscheinlich (um wieviel muss man dann sehen).
Besser? Hmmm....ich wüsste momentan nicht so extrem viele Sachen die man noch großartig besser machen könnte als nV, davon abgesehen, das die 10 Wochen im Bezug auf das Chipdesign (das schon lange lange fertig und abgeschlossen ist) auch nix bringen. ATI braucht diese Zeit um die angestrebten Taktraten bei halbwegs wirtschaftlichen Yield hinzubekommen.
Typisch Techniker solange nix schwarz auf weiss steht gilt als unsicher. Leute, könnt ihr nicht zwischen Gerüchten und hartnäckigen Gerüchten unterscheiden?
So wie Unified Shader beim G80?
LovesuckZ
Hvoralek
2006-11-28, 13:39:31
Typisch Techniker solange nix schwarz auf weiss steht gilt als unsicher. Leute, könnt ihr nicht zwischen Gerüchten und hartnäckigen Gerüchten unterscheiden?Ich bin kein Techniker (Wenn Du es genau wissen möchtest, schau mal in mein Profil). 512 bit bei R600 kommt mir bisher nicht hartnäckiger vor als 8 Quads bei R520. Wenn zwei Wochen vor Veröffentlichung immer noch die allermeisten Angaben in die Richtung gehen, kann man es wahrscheinlich als ziemlich sicher ansehen. Aber überleg es sind noch zwei Monate bis zur Vorstellung. Überleg mal, wie G80 nach den zu dem Zeitpunkt hartnäckigen Gerüchten hätte aussehen müssen.
Schneller? Wahrscheinlich (um wieviel muss man dann sehen).
Besser? Hmmm....ich wüsste momentan nicht so extrem viele Sachen die man noch großartig besser machen könnte als nV, [...]Ich meine mit "besser" v.a. "schneller bei mind. gleicher BQ".
Gouvernator
2006-11-28, 13:40:38
Es ist jedem seine Sache wie man Nachrichten interpretiert, je nach Gefühl kann man sagen.
Es gibt Leute denen es aktuell gar nicht passt das G80 nicht der schnellste Chip bleiben kann, nicht mal auf Papier.
Es gibt Leute denen es aktuell gar nicht passt das G80 nicht der schnellste Chip bleiben kann, nicht mal auf Papier.
Wer den?
LovesuckZ
StefanV
2006-11-28, 13:45:32
Besser? Hmmm....ich wüsste momentan nicht so extrem viele Sachen die man noch großartig besser machen könnte als nV
hm, ich schon.
z.B. was besseres als 'nen Bilinearen Grundfilter.
Gouvernator
2006-11-28, 13:46:31
Wer den?
LovesuckZ
Fanboys :wink:
Fanboys :wink:
Und wer sind diese Fanboys?
Diese Aussage ist sowas von allgemein, dass sie einfach lächerlich ist.
Natürlich wollen nVidia-Fanboys, dass ihre Karte schneller ist. Das ist auf der anderen Seite nicht anders.
Es gibt Leute denen es aktuell gar nicht passt das G80 [...] der schnellste Chip bleiben kann, [auch] auf Papier.
:ugly:
LovesuckZ
Gouvernator
2006-11-28, 14:03:33
Und wer sind diese Fanboys?
Weiss nicht. Meistens tragen sie aber den gleichen Namen.
Weiss nicht. Meistens tragen sie aber den gleichen Namen.
Du redest wirklich Bullshit. :ugly:
LovesuckZ
...eine gesunde Portion Skepsis?
Wahlweise mangelnde Naivität. ;)
Gouvernator
2006-11-28, 14:20:13
...eine gesunde Portion Skepsis?
Wahlweise mangelnde Naivität. ;)
>Was kann man da eventuell ändern? Man freut sich, fragt ob wirklich so ausgeht, aber man freut sich. Andere hingegen Behaupten sofort alles Lügen,SPAM, Wunschdenken, alles unmöglich, alles unrentabel... unnötig..bla. So, und jetzt frage wer von uns dann naiv ist.
Ailuros
2006-11-28, 14:21:30
Typisch Techniker solange nix schwarz auf weiss steht gilt als unsicher. Leute, könnt ihr nicht zwischen Gerüchten und hartnäckigen Gerüchten unterscheiden?
Ein hartnaeckiges Geruecht waere dass bis jetzt doch nicht alles nach Plan gelaufen ist und so wie es aussieht hilft die vorzeitige Jubelei mit so wenigen Daten erstmal gar nichts. Ich hab das komische Gefuehl im Nacken dass es wieder schwer sein wird die Dinger in den Schlepptopp Markt zu bekommen aber was soll ich denn eigentlich wissen? :P
Gouvernator
2006-11-28, 14:32:35
Leute die Geld anlegen müssen leben nur mit Gerüchten,Intuition und Erfahrung. Man kann doch abschätzen wie Ati ihre Strategie nach grösstmöglicher Leistung fortsetzen wird. Es gibt auch Grenzen ich zum Beispiel hätte nie 2 Milliarden GPU für möglich gehalten, aber was bis jetzt so durchgekommen ist liegt im realistischen Bereich.
Fetza
2006-11-28, 14:34:26
Ein hartnaeckiges Geruecht waere dass bis jetzt doch nicht alles nach Plan gelaufen ist und so wie es aussieht hilft die vorzeitige Jubelei mit so wenigen Daten erstmal gar nichts. Ich hab das komische Gefuehl im Nacken dass es wieder schwer sein wird die Dinger in den Schlepptopp Markt zu bekommen aber was soll ich denn eigentlich wissen? :P
wen interessiert den der mobile markt? Also ati ist klar, aber ich meine jetzt uns als kunden? Mit nem laptop will ich arbeiten usw. Mit nem high-end beschleuniger will ich nur brutale rechenleistung bzw performance. Der r600 soll mal ruhig so fett und stromhungrig ausfallen, das er nicht bzw nur schwer für den mobile markt einzusetzen ist. Hauptsache die performance rockt.
greetz
Fetza
DrumDub
2006-11-28, 14:38:01
Leute die Geld anlegen müssen leben nur mit Gerüchten,Intuition und Erfahrung. Man kann doch abschätzen wie Ati ihre Strategie nach grösstmöglicher Leistung fortsetzen wird. Es gibt auch Grenzen ich zum Beispiel hätte nie 2 Milliarden GPU für möglich gehalten, aber was bis jetzt so durchgekommen ist liegt im realistischen Bereich. :ulol: wenn bis jetzt noch nicht albern war, dann haben wir nun die grenze wohl überschritten..
Gouvernator
2006-11-28, 14:39:30
Was? 720Mio. Transen ist unrealistisch?
seahawk
2006-11-28, 14:45:40
Gerüchte sind Gerüchte und man weiss nie wer sie streut .Für NV wäre es ja auch garn icht schlecht, wenn man exteem hohe Erwartungen an den R600 aufbaut, die dieser gar nicht erfüllen kann. (Ja ich gehe davon aus, dass NV die wesentlich Dinge des R600 kennt, sowie ATI whl schon länger G80 kannte ,was dann wieder die Vertögerung .. aber lassen wir das)
DrumDub
2006-11-28, 14:48:45
Was? 720Mio. Transen ist unrealistisch? liest du auch, was du schreibst? 2 milliarden gpu...
Ailuros
2006-11-28, 14:51:12
wen interessiert den der mobile markt? Also ati ist klar, aber ich meine jetzt uns als kunden? Mit nem laptop will ich arbeiten usw. Mit nem high-end beschleuniger will ich nur brutale rechenleistung bzw performance.
Gut dann kann ATI/AMD ab morgen nur noch den high end GPU PC Markt bedienen, weil Du gerade nur daran interessiert bist oder? Falls es Dir noch nicht aufgefallen ist beide grossen IHVs bedienen mehrere Maerkte und in manchen verdienen sie sogar mehr als von den oeden high end desktop Teilen. ATI ist und bleibt Marktfuehrer im Schlepptop Markt und hat es bestimmt nicht gerne dass sich ihr Prozentual konstant reduziert.
Der r600 soll mal ruhig so fett und stromhungrig ausfallen, das er nicht bzw nur schwer für den mobile markt einzusetzen ist. Hauptsache die performance rockt.
Ja Hauptsache Du bekommst was Du willst. Es muss wohl verdammt schwer sein zu verstehen dass gute und faustgeballte Konkurrenz von Seiten ATI nur im Interesse aller Verbraucher dieser Maerkte liegt.
Gouvernator
2006-11-28, 14:51:13
Gerüchte sind Gerüchte und man weiss nie wer sie streut .Für NV wäre es ja auch garn icht schlecht, wenn man exteem hohe Erwartungen an den R600 aufbaut, die dieser gar nicht erfüllen kann.
In Moment sind gute Specs des r600 für NV sehr schlecht, denn niemand würde sich ne lahme Ente in Form eines G80 jetzt kaufen wenn er weiss das bald eine viel bessere Variante ansteht. Das sind ja wenige die jeden Scheiss sofort haben müssen, die grosse Masse kann noch das Geld zählen.
Gouvernator
2006-11-28, 14:54:24
liest du auch, was du schreibst? 2 milliarden gpu...
Liest du was ich schreibe?
ich zum Beispiel hätte nie 2 Milliarden GPU für möglich gehalten
So, und jetzt? Damit meine ich das sogar ich eine Ente erkennen kann wenn sie gross genug erscheint
Ailuros
2006-11-28, 14:57:16
In Moment sind gute Specs des r600 für NV sehr schlecht, denn niemand würde sich ne lahme Ente in Form eines G80 jetzt kaufen wenn er weiss das bald eine viel bessere Variante ansteht. Das sind ja wenige die jeden Scheiss sofort haben müssen, die grosse Masse kann noch das Geld zählen.
Ich kann Dir sagen dass NV momentan das uebelste Grinsen auf dem Gesicht hat; ich kann Dir aber nicht sagen warum. Daempft mal ein bisschen die zu hohen Erwartungen soooo rosig ist das Ding ueberhaupt nicht. Ein klaren Gewinner wird es wieder nicht geben.
Gouvernator
2006-11-28, 15:03:06
Ich kann Dir sagen dass NV momentan das uebelste Grinsen auf dem Gesicht hat; ich kann Dir aber nicht sagen warum. Daempft mal ein bisschen die zu hohen Erwartungen soooo rosig ist das Ding ueberhaupt nicht. Ein klaren Gewinner wird es wieder nicht geben.
Was mich angeht bin ich schon so und so eingestellt. Ich bin auch bereit eine Kröte zu schlücken. Mich jukts halt nur, wie lange würde es dauern bis ich meine neusten Spiele wie FEAR in gewohnter 24/21 Auflösung spielen kann, und das schaffen nicht mal die neuen...hoffe ich. Ansonsten muss ich kaufen X-D
deekey777
2006-11-28, 15:06:55
Ach du schei...! 80nm@mehr Transistoren@mehr Bandbreite@mehr Takt als G80 :eek: Meine Vermutung liegt wohl richtig das NV wieder mal erst durch SLi eine Karte schalgen wird.
Und jetzt begründe mal deine Vermutung von A bis Z.
Jetzt sollen es laut Inquirer sogar 720M Transistoren sein: "ATI [...] produced a 720-million transistor monster that is currently seeking its final clock speed."
Link (http://uk.theinquirer.net/?article=35995)
Wo genau verstecken sich diese 720 Mio Transistoren? :D
Man darf eines nicht vergessen: Der G80 ist nur für die Grafikberechnung bzw. Rechenaufgaben zuständig, für die Bildausgabe und SLI ist der NVIO zuständig. Der G80 hat 681 Mio Transistoren, der NVIO eine Zahl X. Wenn man die beiden addiert, auf welche Zahl summiert sich dann die Anzahl der Transistoren?
DrumDub
2006-11-28, 15:08:29
So, und jetzt? Damit meine ich das sogar ich eine Ente erkennen kann wenn sie gross genug erscheint sorry, mein fehler. der satz war aber auch ziemlich komisch formuliert. für mich klang es so, dass du eine 2 milliarden (transistoren) gpu für realistisch hälst...
Gouvernator
2006-11-28, 15:11:59
Und jetzt begründe mal deine Vermutung von A bis Z.
Mehr Transistoren=mehr Leistung. 680vs720=40 millionen mehr Leistung.
90nm VS 80nm = mehr Takt, sprich 50% mehr Takt.
512bit = AA for FREE
meine rechnung ja ich weiss es ist erschreckend
dargo
2006-11-28, 15:12:10
[immy']
bin mal gespannt ab wann die 1 mrd grenze überschritten wird. die refreshes werden das wohl noch nicht schaffen aber die nachfolgergeneration schon eher.
Ob es so schnell überhaupt dazu kommt ist fraglich. Beim R700 könnte man zb. auch von 6x 200 Mio. Transistoren sprechen. :D
hm, ich schon.
z.B. was besseres als 'nen Bilinearen Grundfilter.
Ich auch, zb. den Idle-Stromverbrauch auf max. 30W zu halten. *hust*
deekey777
2006-11-28, 15:30:17
Mehr Transistoren=mehr Leistung. 680vs720=40 millionen mehr Leistung.
90nm VS 80nm = mehr Takt, sprich 50% mehr Takt.
512bit = AA for FREE
meine rechnung ja ich weiss es ist erschreckend
Und wo ist die Begründung deiner Vermutung?
Mehr Transistoren = mehr Leistung? Im Vergleich zu was? Dem G80? Quatsch mit Soße.
681 vs. 720 = gleich mehr Leistung? Aha. Dass do eine Rechnung nicht aufgeht, habe ich geschrieben.
90 nm vs. 80 nm = mehr Takt? Im Vergleich zu was? G80? Quatsch mit Soße.
512 bit = AA for free. Das heißt also: 256 bit = AA for non-free, 384 = AA for half-free?
Irgendwie geht deine Rechnung nicht auf.
boxleitnerb
2006-11-28, 15:33:57
Mehr Transistoren=mehr Leistung. 680vs720=40 millionen mehr Leistung.
90nm VS 80nm = mehr Takt, sprich 50% mehr Takt.
512bit = AA for FREE
meine rechnung ja ich weiss es ist erschreckend
Ich hoffe auch, dass ATI eine gute Karte herausbringt. Ich selbst warte auf den R600, damit
1. die Preise für den G80 etwas sinken
2. ich zwischen den beiden GPUs vergleichen kann
Aber deine Rechnung ist nicht nur erschreckend, sie ist erschreckend naiv!
Einen Shrink auf 80nm und du redest von 50% mehr Takt und lobst 40 Mio. Transistoren mehr in den Himmel?
Das sind ca. 6% mehr als G80, nur um es mal in Relation zu bringen.
Ein bisschen mehr Objektivität, nur ein bisschen - auch wenns schwerfällt...
Gouvernator
2006-11-28, 15:34:18
Und wo ist die Begründung deiner Vermutung?
Mehr Transistoren = mehr Leistung? Im Vergleich zu was? Dem G80? Quatsch mit Soße.
681 vs. 720 = gleich mehr Leistung? Aha. Dass do eine Rechnung nicht aufgeht, habe ich geschrieben.
90 nm vs. 80 nm = mehr Takt? Im Vergleich zu was? G80? Quatsch mit Soße.
512 bit = AA for free. Das heißt also: 256 bit = AA for non-free, 384 = AA for half-free?
Irgendwie geht deine Rechnung nicht auf.
Ähm, das ist so noobig geschrieben das es sich nicht lohnt damit auseinander zu setzen.Betrachte es einfach als joke ;D Aber doch beschreibt das ganz gut meinen Gedankengang :D
Leute ich hab null Anhnung was wollt ihr denn von mir.
Vertigo
2006-11-28, 15:35:19
Mehr Transistoren=mehr Leistung. 680vs720=40 millionen mehr Leistung.
90nm VS 80nm = mehr Takt, sprich 50% mehr Takt.
512bit = AA for FREE
meine rechnung ja ich weiss es ist erschreckend
Nur als kleine Gedankenstütze: Eine GeForce 7900GTX hat ~100Mio. Transistoren weniger als eine X1900XTX und liefert dennoch vergleichbare Leistungswerte. ;)
Mehr Transistoren erfordern lediglich mehr Betriebsspannung und das wiederum bedeutet mehr (elektrische) Verlustleistung, mehr nicht.
deekey777
2006-11-28, 15:40:15
Ähm, das ist so noobig geschrieben das es sich nicht lohnt damit auseinander zu setzen.Betrachte es einfach als joke ;D Aber doch beschreibt das ganz gut meinen Gedankengang :D
Leute ich hab null Anhnung was wollt ihr denn von mir.
Wenn du den Sinn des Begriffs "n00b" nicht kennst, verwende ihn gar nicht. Übrigens trifft er auf deine Postings sehr genau zu, denn du plapperst die ganze Zeit irgendwas vor sich hin und nimmst die Hinweise anderer, dass deine Ansichten verworren, unlogisch und ohne jeglichen Sinn sind. Das ist n00big.
Gouvernator. Halt einfach die Klappe. Muss man so sagen.
Leute die Geld anlegen müssen leben nur mit Gerüchten,Intuition und Erfahrung. Man kann doch abschätzen wie Ati ihre Strategie nach grösstmöglicher Leistung fortsetzen wird. .
Und genau die Leute haben ihr Geld in den vergangenen 2 Jahren besser bei Nvidia als bei ATI angelegt.
Warum das wohl nur so gewesen sein muss...
Und ich hab so ein Gefühl, dass genau aus ähnlichen Gründen ATI über die gesamte Palette hinweg einschliesslich Mobile wieder mal den Kürzeren gegenüber den Grünen zieht.
Das was beim R300 noch clever gemacht wurde - auch vom design - wird seither vermisst und man hat sich von den Grünen auf der Nase herumtanzen lassen. Die haben Produkte erfolgreiche in verschiedenste Marktsegmente gebracht wie es ihnen grad passte.
ATI dagegen konnte wenig bis gar nichts unternehmen und wenn sie diesmal wieder so ineffizient im Aufbau ihrer Produktpalette sind, dann sehe ich schwarz dass wir noch lange HIgh End Produkte von ATI sehen werden. Irgendwann wirds AMD nämlich zu bunt werden. Die wollen Erfolge sehen und Erfolg heisst für AMD nicht, dass man mal kurzfristig vorn ist dafür aber am Ende Marktanteile verliert sondern Erfolg heisst, dass man über die gesamte Palette mithalten wenn nicht sogar Boden gut machen kann.
Beides war bei ATI in seit NV40 nicht mehr der Fall.
In Moment sind gute Specs des r600 für NV sehr schlecht, denn niemand würde sich ne lahme Ente in Form eines G80 jetzt kaufen wenn er weiss das bald eine viel bessere Variante ansteht. Das sind ja wenige die jeden Scheiss sofort haben müssen, die grosse Masse kann noch das Geld zählen.
Ich freu mich schon zu sehen was du sagst, wenn die ersten Nvidia Fanboys kommen und die Gerüchte zum Super Duper G81 breittreten, durch den natürlich eine voreilige Investition in den R600 überhaupt keinen Sinn mehr machen wird :)
Ehrlich du bist einfach nur lächerlich. ATI muss sich enorm anstrengen um nicht langsam aber sicher am Markt zurückgedrängt zu werden.
AIL ist anscheinend der einzige hier der das kapiert. Die letzten 24 Monate haben für ATI am Gesamtmarkt nur eine Tendenz gekannt - nach unten.
Das einzige Segment, dass sie früher fast für sich hatten (Mobile) ist extrem am Wanken. In allen anderen Segmenten ist Nvidia ohnehin schon an ihnen vorbeigezogen.
Gouvernator
2006-11-28, 15:51:53
Gouvernator. Halt einfach die Klappe. Muss man so sagen.
Das tu ich.
DK777 hat sich mit meinem Posting noch auseinandergesetzt... war für mich überraschend. Als ich es nochmal las musste ich ziemlich lachen, besonders über "40 milllionen mehr Leistung" ;D Und wenn ihr euch mit sowas noch auseinandersetzt statt einfach ein Smilie zu setzen tztzt bin ich wirklich enttäuscht.
X.Perry_Mental
2006-11-28, 15:53:51
Mehr Transistoren=mehr Leistung. 680vs720=40 millionen mehr Leistung.
Nimm es mir nicht übel, aber Guybrush Threepwood würde dazu schreiben: "Das ist der zweit-gewagteste Vergleich, den ich je gesehen habe".
Das Einzige, was man an der Anzahl der Transistoren ZUVERLÄSSIG sehen kann, ist wie viele Transistoren das Ding hat - nicht mehr und nicht weniger.
deekey777
2006-11-28, 15:55:47
Das tu ich.
Gut so.
DK777 hat sich mit meinem Posting noch auseinandergesetzt... war für mich überraschend. Als ich es nochmal las musste ich ziemlich lachen, besonders über "40 milllionen mehr Leistung" ;D Und wenn ihr euch mit sowas noch auseinandersetzt statt einfach ein Smilie zu setzen tztzt bin ich wirklich enttäuscht.
Entweder schreibstt du in diesem Thread vernünftige Postings oder läßt das gleich sein.
Das tu ich.
DK777 hat sich mit meinem Posting noch auseinandergesetzt... war für mich überraschend. Als ich es nochmal las musste ich ziemlich lachen, besonders über "40 milllionen mehr Leistung" ;D Und wenn ihr euch mit sowas noch auseinandersetzt statt einfach ein Smilie zu setzen tztzt bin ich wirklich enttäuscht.
Dann hör auf die Diskussion hier die ganze Zeit zu stören verdammt! Es gibt auch noch Leute die sinnvoll irgendwas zu dem Thema zu sagen haben und sich ernsthaft dafür interessieren anstatt die ganze Zeit solche Fanboy-Grütze (und ja das bist du, darüber brauchen wir nicht zu diskuttieren - das gilt auch für die Modschaft was mich angeht) reinzuwerfen. Solche Leute wie du sollte man ganz einfach aus dem Forum werfen - meine ganz offene Meinung.
*Hals*
Gaestle
2006-11-28, 15:57:07
Leute ich hab null Anhnung was wollt ihr denn von mir.
Ich will von Dir, dass Du nicht nahezu jeden Thread mit Spam und Geschrei überschüttest. Sachen die schon x-mal erklärt und beschrieben wurden. Ich will von Dir, dass Du auch mal auf die Argumente anderer eingehst, statt wie ein kleines Kind stur und ignorant auf Deiner Meinung zu beharren.
Kurzum: Ich will von Dir eine halbwegs akzeptable Diskussionskultur.
Hast Du stichhaltige Argumente? Wenn ja, dann nenne sie. Nutze Sie zur Argumentation.
Hast Du keine Argumente? Dann reduziere bitte die Anzahl solcher Postings, die Spam und Flame sehr nahe stehen. Mehr will ich nicht von Dir.
Gouvernator
2006-11-28, 15:57:40
Die immernoch auf dem Schlauch stehen... Ich hab das als JOKE geschrieben und ihr statt einfach zu schmunzeln nimmt es ERNST. Ich kann gar nicht vernünftig über diese Sache reden weil ich das nicht studiert habe wie andere hier!
Solche Leute wie du sollte man ganz einfach aus dem Forum werfen - meine ganz offene Meinung.
Und mit solchen Leuten wie Du im Forum da geht man freiwillig weg hier.
Vertigo
2006-11-28, 15:59:33
Die immernoch auf dem Schlauch stehen... Ich hab das als JOKE geschrieben und ihr statt einfach zu schmunzeln nimmt es ERNST. Ich kann gar nicht vernünftig über diese Sache reden weil ich das nicht studiert habe wie andere hier!
Das könnte vielleicht daran liegen, das der Thread nicht als JOKE gemeint ist.
Mehr Transistoren=mehr Leistung. 680vs720=40 millionen mehr Leistung.
R300 107M / NV30 115M ergo FX5800u schneller als R9700p.
90nm VS 80nm = mehr Takt, sprich 50% mehr Takt.
110nm vs. 130nm: ~400 MHz vs. 540 MHz (Ati-intern beim X8x0).
512bit = AA for FREE
Das Geld für das 512-Bit-Interface hätte man genausogut in einen größeren Die mit höherer Grundleistung investieren können. AA kostet immer irgendwas. :)
Und was bringt es bei Spielen, die gar kein FSAA unterstützen? ;)
meine rechnung ja ich weiss es ist erschreckend
Allerdings. Du schaffst es immer wieder, mich noch zu überraschen. ;D
Das könnte vielleicht daran liegen, das der Thread nicht als JOKE gemeint ist.
wenn man sich ältere Grakaspekuthreads anschaut, hat man aber den Eindruck. ^^
gruss mapel110
Die immernoch auf dem Schlauch stehen... Ich hab das als JOKE geschrieben und ihr statt einfach zu schmunzeln nimmt es ERNST. Ich kann gar nicht vernünftig über diese Sache reden weil ich das nicht studiert habe wie andere hier!
jaja, Drehe es dir wie du es brauchst. Deine Jokes kennen wir doch.
OT:
Siehe XTX manchmal schneller als 8800GTX :D
Nichmal anähernt mit einer GTS kann die(XTX) mithalten
Die immernoch auf dem Schlauch stehen... Ich hab das als JOKE geschrieben und ihr statt einfach zu schmunzeln nimmt es ERNST. Ich kann gar nicht vernünftig über diese Sache reden weil ich das nicht studiert habe wie andere hier!Schlechte Witze kannst du auf der Spielwiese machen. In diesem Thread sollte vernünftig über R600 und alles was dazu gehört diskutiert werden.
Andere Sache:
Sadly, the wizard also managed to break the NVIO1 chip, so you can forget about running 1080p video on your freshly-bought G80-based product.Hmm, darüber hab ich ja noch gar nichts gehört. Ist die Videobeschleunigung beim G80 bzw. beim NVIO etwa schon wieder kaputt? Der Satz ist sowieso ein wenig komisch formuliert. Selbst wenn die Videobeschleunigung kaputt wäre, kann man sich 1080p-Videos ansehen, dann halt eben ohne Beschleunigung, also nix mit "forget about". Oder meint er was ganz anderes?
Nein Inq labert einfach mal wieder scheiße.
Und mit solchen Leuten wie Du im Forum da geht man freiwillig weg hier.
Ich glaube nicht das dir viele nachweinen würden. Aber du machst es ja leider eh nicht.
StefanV
2006-11-28, 16:08:49
Hm, mal überlegen, was ist wahrscheinlicher:
Das in den nächsten 5min eine Atombombe über Deutschland gezündet wird oder das der R600 ein 512bit Interfache hat :uponder:
Also ich persönlich neige dazu, zur Atombombe zu tendieren...
LovesuckZ
2006-11-28, 16:19:23
Das einzige Segment, dass sie früher fast für sich hatten (Mobile) ist extrem am Wanken.
Laut nvidia wäre man zur Zeit No.1 GPU Lieferant im Mobilesektor.
Notebook: milestone. Number 1 notebook GPU supplier for the first time in their history.
Grew 46% quarter over quarter, 100% year-over-year.
http://www.beyond3d.com/forum/showthread.php?t=35498
Hvoralek
2006-11-28, 16:44:52
Nein Inq labert einfach mal wieder scheiße.ImM scheint da wirklich etwas nicht ganz zu stimmen (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/33/#abschnitt_hdtv_wiedergabe). Ich würde aber eher auf Treiber tippen.
@ Gouvernator: Vlt. solltest Du Dir mal Gedanken darüber machen, dass anscheinend die meisten hier (mich eingeschlossen) Dir diesen Blödsinn (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5034855&postcount=711) als ernsthafte Meinung zugetraut haben :rolleyes:
seahawk
2006-11-28, 17:03:50
In Moment sind gute Specs des r600 für NV sehr schlecht, denn niemand würde sich ne lahme Ente in Form eines G80 jetzt kaufen wenn er weiss das bald eine viel bessere Variante ansteht. Das sind ja wenige die jeden Scheiss sofort haben müssen, die grosse Masse kann noch das Geld zählen.
Ich würde sagen NV könnte excellent damit leben. Der R600 ist für die MAsse, also Leute die sich nicht in Grafikchipforen rumtreiben, bestenfalsl ein Gespenst, der G80 ist im Laden. Und wenn ATI endlich den R600 bringt, dann liefert NV die Mainstreammodelle.
Ich sehe die Sache für ATI zunehmend schlechter, wie mir ein Mensch mit Erfahrung in solchen Dingen erklärte :
Wenn Du einen Chip hast, der 30% schneller ist als die Konkurrenz, Du aber einfach noch nicht die Taktrate für diese Mehrleistung erreichst, läst Du der Konkurrenz dann das Weihnachtsgeschäft oder bringst Du lieber eine Variante Deines Chips, die nur 5% schneller ist und entsprechend weniger Takt braucht ?
ShadowXX
2006-11-28, 17:19:41
hm, ich schon.
z.B. was besseres als 'nen Bilinearen Grundfilter.
Es wurde schon häufiger erwähnt, dass ein trilinearer Grundfilter nicht sinnig ist (das wieso und warum kann die Coda oder Demi sicher besser erklären).
Davon abgesehen ist die Lösung von nV mit den beiden "zusammenhängenden" TMUs doch gar nicht so schlecht. Lt. den Messungen der meisten, ist dadurch Tri-Filtering fast "for Free".
J0ph33
2006-11-28, 17:30:49
Ich freu mich schon zu sehen was du sagst, wenn die ersten Nvidia Fanboys kommen und die Gerüchte zum Super Duper G81 breittreten, durch den natürlich eine voreilige Investition in den R600 überhaupt keinen Sinn mehr machen wird :)
Ehrlich du bist einfach nur lächerlich. ATI muss sich enorm anstrengen um nicht langsam aber sicher am Markt zurückgedrängt zu werden.
AIL ist anscheinend der einzige hier der das kapiert. Die letzten 24 Monate haben für ATI am Gesamtmarkt nur eine Tendenz gekannt - nach unten.
Das einzige Segment, dass sie früher fast für sich hatten (Mobile) ist extrem am Wanken. In allen anderen Segmenten ist Nvidia ohnehin schon an ihnen vorbeigezogen.
da fragt man sich manchmal, warum? die waren immer etwas früher, das war ihr vorteil...doch nach meinen prioritäten (guter kompromiss aus BQ+Speed, lautstärke nebensächlich, da ich gerne selbst hand an die karte lege, stromverbrauch im 1.rechner äußerst nebensächlich), und ich sag jetzt mal das ~50% der spieler diese teilen, hatte ATi ab R300 immer das bessere produkt...
nv40 vs. R420, BQ+Speed bei ATi zumeist, leider keim SM3.0 (vorteil nV, allerdings lange zeit NUR marketingtechnisch)
G70/g71 vs. R520/R580, BQ+Speed bei ATi, G70 war wesentlich früher da, deswegen ist nVs marktvorsprung verständlich
G80 vs. R600, BQ+Speed ca. gleichauf bzw. bisschen mehr bei ati, nv wieder früher da :(
ich hoffe ati packt das, ich kann nicht verstehen wie man sich, wenn meist nur unterschwellig über übermäßigen erfolg einer firma freuen kann, für den kunden ist ein generelles patt immer am besten...
boxleitnerb
2006-11-28, 17:36:17
Woher willst du wissen, wie der Speed und die BQ des R600 ist?
Hört doch um Gottes Willen auf, Luftschlösser zu bauen!
deekey777
2006-11-28, 17:43:12
Andere Sache:
Hmm, darüber hab ich ja noch gar nichts gehört. Ist die Videobeschleunigung beim G80 bzw. beim NVIO etwa schon wieder kaputt? Der Satz ist sowieso ein wenig komisch formuliert. Selbst wenn die Videobeschleunigung kaputt wäre, kann man sich 1080p-Videos ansehen, dann halt eben ohne Beschleunigung, also nix mit "forget about". Oder meint er was ganz anderes?
Da ist nichts kaputt. Besser gesagt, da ist was kaputt, aber das kaputte Teil sitzt nicht auf der 8800, sondern beim Inquirer.
Wenn mich nicht alles täuscht, ist da etwas, was entweder übersehen worden oder auf Grund von Kosten absichtlich nicht gemacht worden ist. Alle Grafikkarten inkl. 8800 leiden daran und zwar: Alle Grafikkarten, die einen HDCP-fähigen DVI-Ausgang haben, können nur einen Link mit HDCP verschlüsseln. Diese "Nachlässigkeit" führt dazu, dass die Wiedergabe vom Videomaterial auf einem Bildschirm über 1600x1200@60Hz nicht möglich ist, weil es eine technische Limitierung des DVI-Transmitters ist.
Laut Inquirer soll R600 dieses Problem nicht haben, da beide DVI-Links HDCP beherrschen.
ImM scheint da wirklich etwas nicht ganz zu stimmen (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/33/#abschnitt_hdtv_wiedergabe). Ich würde aber eher auf Treiber tippen.
Ist alles einwandfrei.
Wenn Du einen Chip hast, der 30% schneller ist als die Konkurrenz, Du aber einfach noch nicht die Taktrate für diese Mehrleistung erreichst, läst Du der Konkurrenz dann das Weihnachtsgeschäft oder bringst Du lieber eine Variante Deines Chips, die nur 5% schneller ist und entsprechend weniger Takt braucht ?Wenn Du einen Chip hast, der 5% schneller ist als die Konkurrenz, Du aber einfach noch nicht die Taktrate für diese Mehrleistung erreichst, dann lässt Du der Konkurrenz dann das Weihnachtsgeschäft und machst Dich nicht lächerlich.
Schreibs etwa so, dann passt ... ;)
da fragt man sich manchmal, warum? die waren immer etwas früher, das war ihr vorteil...doch nach meinen prioritäten (guter kompromiss aus BQ+Speed, lautstärke nebensächlich, da ich gerne selbst hand an die karte lege, stromverbrauch im 1.rechner äußerst nebensächlich), und ich sag jetzt mal das ~50% der spieler diese teilen, hatte ATi ab R300 immer das bessere produkt...
Bist Du Dir da sicher??? Du betrachtest das ganze wiederum nur aus einer Perspektive (HIgh End). Du siehst nicht die ganze Palette, du hast auch Punkte wie Preis nicht einbezogen oder Reifegrad von Treibern und anderen Dingen. Auch Punkte wie SLI hast du aussen vor gelassen.
Das ist eine sehr eingeschränkte Sicht. Seit NV40 hat Nvidia immer einen Zeitvorteil für sich verbuchen können.
Sie haben auch die rundere Produktpalette abgeliefert.
Zu NV40 Zeiten haben ganz entscheidend GF6600GT und 6800GT und SLI zum Erfolg beigetragen. Da sah ATI ganz blass aus. Ich erinner nur mal an die ominöse X700XT die vor Hitze fast in Rauch aufgegangen ist und anschließend nie richtig ausgeliefert wurde. Im 6800GT Segment gabs lange Zeit von ATI nur die X800pro auf völlig verlorenem Posten. Die 6800U konnte man zwar schlagen aber leider konnte man nichts gegen SLI einbringen. Also erneut nur ein Sieg in einem Teilsegment.
Bei G7x vs R5xx wars dann noch drastischer. Halbes Jahr Zeitvorteil für Nvidia, Produkt mit der besten Balance insgesamt. BQ sicherlich beim AF etwas schlechter, beim TSAA aber besser. Wiederum die insgesamt deutlich bessere Palette, Lieferfähigkeit und auch besseren Preise. Die X1800XT wurde gleich durch die 512MB GTX abgekontert. Gegen den R580 wurde einfach eine preislich konkurierende GX2 geboten. Extreme Erfolge im Notebook Segment sind vorhanden, wie man aktuellen Zahlen entnehmen kann. SLI immer noch besser als Crossfire.
Und schließlich hat sich das ganze dann am Markt auch so durchgesetzt. Gegen G7x musste ATI eine eindeutige Niederlage einstecken. Das muss man so sehen. Zu NV40 Zeiten waren die Vorteile für Nvidia insgesamt noch eher klein. Zuletzt haben sie aber überwogen. Aktuelle Zahlen wiederum belegen das.
In meinen Augen hat ATI ein Problem. Sie investieren zu wenig in ein rundes Gesamtkonzept. Es reicht nicht irgendwann mal die schnellste Single Karte zu haben. Was soll das großartig wert sein? Es ist nur eine Frage der Zeit bis man vom Konkurenten wieder überholt wird, wie es ja auch aktuell der Fall ist. Die Wahrnehmung dass der R600 schneller ist, ist auch nicht größer, als das der G80 schneller als das ist, was ATI momentan bietet. Man braucht ein stimmiges Gesamtkonzept mit ausbalancierten Produkten, die zur richtigen Zeit am richtigen Preispunkt und im richtigen Markt (auch Notebook) plaziert werden und dann auch lieferbar sind. Verspätungen sind tötlich. Nur weil die Generationen mal gegeneinander antreten sollten, heisst das noch lange nicht, dass sich das so in den Köpfen der Kunden einbrennt. Wer zu spät ist hat schlicht und ergreifend Pech gehabt und wird das nicht ausspielen können. Im Gegenteil , von dem wird sogar erwartet dass er mehr abliefert, da es sonst peinlich wird (X1800XT).
Somit hat ATI momentan ganz klar das Problem, dass G80 hier und heute zu haben ist und die Meßlatte legt. Wenn R600 kommt ist es für ATI bereits Pflicht den G80 zu schlagen und nichts besonderes mehr. Nvidia wird dann seinerseits mit dem Refresh drohen und vor allem Mainstream bereits ausliefern. Wenn das bei ATI erst im Sommer gelingen sollte - dann prost Mahlzeit. Dann sehe ich extrem schwarz, dass AMD noch lange kostenspielige High End Produkte finanziert. Denen dürfte eher daran gelegen sein, dass die Segmente Mainstream, Low End und Notebook pünktlich und fließend kommen.
Was mich stört ist, daß sich beinahe alle über den G80 auslassen, dies jedoch IMO völlig OT ist. Zudem ist bez. dem G80 die Katze aus dem Sack und Performance+BQ des G80 völlig OK erscheinen - ich denke da gibt es keine 2 Meinungen. Das der G80 in anbetracht der frischen Treiber, oder vielleicht doch des Designs (?) kein Wunderwerk der Technik ist, kann man auch hier im 3DcNV-Forum aufgrund verschiedener Probs einiger (Power)-User, nachvollziehen.
Dies ist jedoch auch völlig OT und gehört IMO nicht diesen Fred.
Wenn mich nicht alles täuscht, ist da etwas, was entweder übersehen worden oder auf Grund von Kosten absichtlich nicht gemacht worden ist. Alle Grafikkarten inkl. 8800 leiden daran und zwar: Alle Grafikkarten, die einen HDCP-fähigen DVI-Ausgang haben, können nur einen Link mit HDCP verschlüsseln. Diese "Nachlässigkeit" führt dazu, dass die Wiedergabe vom Videomaterial auf einem Bildschirm über 1600x1200@60Hz nicht möglich ist, weil es eine technische Limitierung des DVI-Transmitters ist. Der Ausweg wäre einfach, entweder die Bildfrequenz zu senken (auf 55 Hz oder so) oder das Bild interlaced auszugeben, was nicht alle PC-LCDs beherrschen.Ok, danke für die ausführliche Erklärung. Mich störts nicht, da ich in Lebzeiten von G80 sicherlich kein HDCP brauche. Mein (gar nicht mal so alter) Monitor unterstützt es auch gar nicht. Allerdings ist es natürlich schade für die Leute, die wirklich Interesse an legalem HD-Material haben.
Und genau die Leute haben ihr Geld in den vergangenen 2 Jahren besser bei Nvidia als bei ATI angelegt.
Warum das wohl nur so gewesen sein muss...
Und ich hab so ein Gefühl, dass genau aus ähnlichen Gründen ATI über die gesamte Palette hinweg einschliesslich Mobile wieder mal den Kürzeren gegenüber den Grünen zieht.
Das was beim R300 noch clever gemacht wurde - auch vom design - wird seither vermisst und man hat sich von den Grünen auf der Nase herumtanzen lassen. Die haben Produkte erfolgreiche in verschiedenste Marktsegmente gebracht wie es ihnen grad passte.
ATI dagegen konnte wenig bis gar nichts unternehmen und wenn sie diesmal wieder so ineffizient im Aufbau ihrer Produktpalette sind, dann sehe ich schwarz dass wir noch lange HIgh End Produkte von ATI sehen werden. Irgendwann wirds AMD nämlich zu bunt werden. Die wollen Erfolge sehen und Erfolg heisst für AMD nicht, dass man mal kurzfristig vorn ist dafür aber am Ende Marktanteile verliert sondern Erfolg heisst, dass man über die gesamte Palette mithalten wenn nicht sogar Boden gut machen kann.
Beides war bei ATI in seit NV40 nicht mehr der Fall.
da gibt es sicherlich 2 verschiedene sichten...einmal in hinblick auf absatzmenge und dann in hinblick auf das qualitativ hochwertigere produkt.
NV hat ab dem NV40 mit Sicherheit die höhere Absatzmenge. Vielleicht haben sie auch vom NV3x mehr abgesetzt. Das mag schön für das Unternehmen sein aber nicht für den mit wissen behafteten kunden. Der NV3x war für den Kunden (ich gehöre auch dazu) ein griff ins klo....der NV40 klang von den features her sehr ansprechend konnte aber leistungsmässig wenig nutzen daraus ziehen...im prinzip R420/480 auch wieder das kundenfreundlichere Produkt. Die X18xx ist deutlich später als der 40 gekommen und schien erstmal ein Rohrkrepierer zu sein...stellte sich aber mit der zeit doch als besser heraus -> wieder das kundenfreundlichere produkt. R580 gewinnt mehr und mehr auch an performancetechnischer überlegenheit zum G71 (bzgl. kundenbrauchbarer BQ und features hatte er dies von anfang an.
Nun ist der G80 schon wieder früher heraus...und NV kann damit sicher wieder mehr absetzen als ATI mit dem R600....das heisst aber noch nicht das der R600 aus kundensicht das schlechtere produkt ist (er ist ja noch nichtmal raus ^^). Der G80 wird sich am R600 messen lassen müssen so wie derzeit sich der R580+ am G80 messen lassen muss....
selbst wenn der R600 nicht 50% schneller (bq etc. mal jetzt ausgeklammert) sondern nur 5% schneller sein wird wird er für den kunden das bessere produkt sein.
Für ATI heisst natürlich weniger Absatz weniger Geld für zukünftige chipentwicklungen....
von daher ist für den Kunden ein kopf an kopf rennen was absatzzahlen anbelangt von grossem vorteil...
selbst wenn der R600 nicht 50% schneller (bq etc. mal jetzt ausgeklammert) sondern nur 5% schneller sein wird wird er für den kunden das bessere produkt sein.Was macht dich da so sicher? Was könnte ATI denn, abgesehen von der Geschwindigkeit, noch besser machen als NV mit dem G80?
Hvoralek
2006-11-28, 18:42:00
Was macht dich da so sicher? Was könnte ATI denn, abgesehen von der Geschwindigkeit, noch besser machen als NV mit dem G80?Texturfilterung geht kaum besser (Höhere AF- Modi vlt. noch), mehr als 16x MSAA ist wohl schlicht überflüssig. Blieben v.a. geringerer Stromverbrauch und vernünftige SS-/ Hybridmodi. Naja, beides nicht sehr wahrscheinlich.
Armaq
2006-11-28, 18:46:20
da gibt es sicherlich 2 verschiedene sichten...einmal in hinblick auf absatzmenge und dann in hinblick auf das qualitativ hochwertigere produkt.
NV hat ab dem NV40 mit Sicherheit die höhere Absatzmenge. Vielleicht haben sie auch vom NV3x mehr abgesetzt. Das mag schön für das Unternehmen sein aber nicht für den mit wissen behafteten kunden. Der NV3x war für den Kunden (ich gehöre auch dazu) ein griff ins klo....der NV40 klang von den features her sehr ansprechend konnte aber leistungsmässig wenig nutzen daraus ziehen...im prinzip R420/480 auch wieder das kundenfreundlichere Produkt. Die X18xx ist deutlich später als der 40 gekommen und schien erstmal ein Rohrkrepierer zu sein...stellte sich aber mit der zeit doch als besser heraus -> wieder das kundenfreundlichere produkt. R580 gewinnt mehr und mehr auch an performancetechnischer überlegenheit zum G71 (bzgl. kundenbrauchbarer BQ und features hatte er dies von anfang an.
Nun ist der G80 schon wieder früher heraus...und NV kann damit sicher wieder mehr absetzen als ATI mit dem R600....das heisst aber noch nicht das der R600 aus kundensicht das schlechtere produkt ist (er ist ja noch nichtmal raus ^^). Der G80 wird sich am R600 messen lassen müssen so wie derzeit sich der R580+ am G80 messen lassen muss....
selbst wenn der R600 nicht 50% schneller (bq etc. mal jetzt ausgeklammert) sondern nur 5% schneller sein wird wird er für den kunden das bessere produkt sein.
Für ATI heisst natürlich weniger Absatz weniger Geld für zukünftige chipentwicklungen....
von daher ist für den Kunden ein kopf an kopf rennen was absatzzahlen anbelangt von grossem vorteil...
Falsch. Das für den Kunden bessere Produkt ist lediglich das Produkt, welches er zu dem angestrebten Kaufzeitraum für sich evaluiert. Haushalte (kleinste Wirtschaftsgröße) sind Nutzenmaximierer und Kostenoptimierer.
[Kostenoptimierer auch dann, wenn sie für ein Brot 50€ zahlen, weil sie soviel verdienen. Denn subjektiv erhalten sie für ihr eingesetztes Geld auch einen bestimmten, niemals näher evaluierbaren, Gegenwert.]
Ausserdem brennt sich Nvidia mit dem vorweihnachtlichen Launch der G80 sehr stark in die Köpfe der eventuellen Käufer ein. Der R600 ist realerweise nicht auf dem Kaufradar vorhanden.
Will ATI/AMD den r600 wirklich groß rausbringen, müssten sie die ganze Zeit eine Kampagne nach der Anderen fahren. Macht man aber nicht. Warum? Weil es AMD nicht allzu sehr auf den R600 an sich ankommt, sondern auf die dazugehörige Midrangepalette und deren Abverkauf.
Ailuros
2006-11-28, 18:47:53
Mehr Transistoren=mehr Leistung.
Nein und abermals nein. Denn die Transistoren-anzahl definiert auf keinen Fall die Effizienz noch die finale Leistung.
680vs720=40 millionen mehr Leistung.
Dann frage ich mich warum die X800 XT PE mit 160M schneller war als die 222M schwere 6800Ultra. Nach Deiner verkorksten Logik muesste die NV40 um 42Millionen schneller sein.
90nm VS 80nm = mehr Takt, sprich 50% mehr Takt.
Die SP auf G80 sind auf 1.35GHz getaktet.
512bit = AA for FREE
Xenos hat mehr Bandbreite zum eDRAM jedoch ist AA auch nicht for free und schon gar nicht auf einem TBDR die sowieso mit sehr viel weniger Bandbreite auskommen.
meine rechnung ja ich weiss es ist erschreckend
Uhmmmyeahrightsureok....:rolleyes:
Ailuros
2006-11-28, 18:55:44
Ich würde sagen NV könnte excellent damit leben. Der R600 ist für die MAsse, also Leute die sich nicht in Grafikchipforen rumtreiben, bestenfalsl ein Gespenst, der G80 ist im Laden. Und wenn ATI endlich den R600 bringt, dann liefert NV die Mainstreammodelle.
Ich sehe die Sache für ATI zunehmend schlechter, wie mir ein Mensch mit Erfahrung in solchen Dingen erklärte :
Wenn Du einen Chip hast, der 30% schneller ist als die Konkurrenz, Du aber einfach noch nicht die Taktrate für diese Mehrleistung erreichst, läst Du der Konkurrenz dann das Weihnachtsgeschäft oder bringst Du lieber eine Variante Deines Chips, die nur 5% schneller ist und entsprechend weniger Takt braucht ?
Das Ding hatte und hat noch Probleme; es ist zwar kein Grund zum schwarz sehen denn sehr konkurrenzfaehig wird R600 schon sein, nur eben kein G80-Killer. Und die 30% wuerde ich fuer den wahren Durchschnitt mit sehr hoher Vorsicht schlucken. Es gibt Spiele die dem einen mehr und dem anderen weniger gut stehen und andersrum. Je groesser die Anzahl der Spiele desto kleiner wird das Prozentual.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.