PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation


Seiten : 1 2 3 [4] 5

Hvoralek
2006-11-28, 18:56:44
Ganz ruhig, er hat das ja nach eigener Aussage nun doch nicht ernst gemeint

Und jetzt habe ich an Dir auch noch was zu meckern :wink:

Dann frage ich mich warum die X800 XT PE mit 160M schneller war als die 222M schwere 6800Ultra. Nach Deiner verkorksten Logik muesste die NV40 um 42Millionen schneller sein.222 - 160 = ?

w0mbat
2006-11-28, 19:03:59
62

Coda
2006-11-28, 19:19:09
222 - 160 = ?

Ich denke der Punkt war klar.

Ailuros
2006-11-28, 19:22:32
Ich geniesse eigentlich meine brainfarts; danke Hvoralek :)

[MK2]Mythos
2006-11-28, 20:05:19
Auch wenns OT ist, ich finde es schon erwähnenswert das Full HD Video auf der Geforce 88er Reihe per Einhaltung der HDCP Spezifikation nicht funktioniert. Schließlich wirbt ja auch NVIDIA jetzt mit "HD Ready".
Aber zum R600, gut das es bei ihm keine Einbußen geben wird. :D

The_Invisible
2006-11-28, 20:13:52
Mythos']Auch wenns OT ist, ich finde es schon erwähnenswert das Full HD Video auf der Geforce 88er Reihe per Einhaltung der HDCP Spezifikation nicht funktioniert. Schließlich wirbt ja auch NVIDIA jetzt mit "HD Ready".
Aber zum R600, gut das es bei ihm keine Einbußen geben wird. :D

naja, solche highendboliden dürften wohl auch nicht die beste wahl bei nem mediacenter pc sein

mfg

Coda
2006-11-28, 20:19:03
Mythos']Auch wenns OT ist, ich finde es schon erwähnenswert das Full HD Video auf der Geforce 88er Reihe per Einhaltung der HDCP Spezifikation nicht funktioniert.

Wie soll das gehen? HDCP ist ja nur ein relativ einfaches XORing der DVI-Signale. Das sollte bei jeder Auflösung funktionieren.

Godmode
2006-11-28, 20:27:14
Was glaubt, macht ATI und Nvidia mit High-End überhaupt Gewinn, oder sind diese Produkte gerade noch so um den Break-Even-Point?

Black-Scorpion
2006-11-28, 20:29:45
Wie soll das gehen? HDCP ist ja nur ein relativ einfaches XORing der DVI-Signale. Das sollte bei jeder Auflösung funktionieren.
Er bezieht sich wohl auf den Beitrag.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5035389&postcount=740
Und wenn das stimmt gibt es kein FullHD mit HDCP auf dem G80.

Coda
2006-11-28, 20:41:18
Ach jetzt. Naja, so wild is das nich...

deekey777
2006-11-28, 20:41:57
Er bezieht sich wohl auf den Beitrag.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5035389&postcount=740
Und wenn das stimmt gibt es kein FullHD mit HDCP auf dem G80.
Ach doch. Es gibt "Full-HD". Ich hab's hier richtig (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=335937) gestellt bzw. versucht.

seahawk
2006-11-28, 20:42:36
Das Ding hatte und hat noch Probleme; es ist zwar kein Grund zum schwarz sehen denn sehr konkurrenzfaehig wird R600 schon sein, nur eben kein G80-Killer. Und die 30% wuerde ich fuer den wahren Durchschnitt mit sehr hoher Vorsicht schlucken. Es gibt Spiele die dem einen mehr und dem anderen weniger gut stehen und andersrum. Je groesser die Anzahl der Spiele desto kleiner wird das Prozentual.

Ich meinte auch nicht das der R600 30% Vorteil im Durchschnitt hat, ich meitne nur, wenn er sie hätte, dann könnte man eben Abstriche beim Takt machen und ectl. eher am Markt sein.

@ Odal Du setzt aber vorraus, dass der Kunde sich überzukünftige Produkte informiert und ich denke dies tut die Mehrheit nicht.

Erster am MArkt sein ist von Vorteil weil :

a) Der Zweite muss besser sein
b) man hat eine Zeit ohne direkte Konkurrenz
c) Wenn der Nachzieher kommt, dann hat man seine Investitionen zum Teil schon drinne und kann Preise senken.
d) der eigene Refresh wird die Erfolgsdauer des anderen Produktes verkürzen

Natürlich ist die 1950XT die besser Karte, aber NV konnte die Zeit elegant mit der GX2 und der GTO überbrücken. GX2 bitet mehr LEistung für einen erträglichen Aufpreis, während der GTO über die Preisschiene angriff. Erst mit der 1950PRO hatte ATI einen Chip der dem Preiskampf gewachsen ist.

Odal
2006-11-28, 21:31:59
@ Odal Du setzt aber vorraus, dass der Kunde sich überzukünftige Produkte informiert und ich denke dies tut die Mehrheit nicht.


Nein das tu ich gar nicht. Ich unterscheide deshalb ja auch zw. wissenden und unwissenden Kunden. Wenn ich vorraussetzen würde das der Kunde sich intensiv informiert müsste ich NVidia bei einigen Graka Generationen den Absatzvorteil absprechen.

Und selbst als potentiell informierter Kunde kann man schnell einen griff ins klo machen. (NV3X bzw. in weniger drastischem maße NV40/G70)

Ich wollte nur nochmal anmahnen das man separieren sollte zw. dem was gut für den IHV ist (hohe absatzzahlen eines IHV) und dem was gut für den kunden ist (ein qualitativ hochwertiges preisgünstiges produkt). Gerade diese beiden Dinge scheinen einige Kunden des öfteren zu verwechseln. Das sind zwei völlig verschiedene paar schuh und aus dem einen lässt sich auch nicht das andere ableiten.

Simpel gesprochen: Nur weil der G80 früher da ist und potentiell marketing und zeitlich bedingt höhere absatzzahlen schreiben wird ist es noch lang nicht das bessere produkt für den endverbraucher.

TheGood
2006-11-28, 21:33:38
Das Ding hatte und hat noch Probleme; es ist zwar kein Grund zum schwarz sehen denn sehr konkurrenzfaehig wird R600 schon sein, nur eben kein G80-Killer. Und die 30% wuerde ich fuer den wahren Durchschnitt mit sehr hoher Vorsicht schlucken. Es gibt Spiele die dem einen mehr und dem anderen weniger gut stehen und andersrum. Je groesser die Anzahl der Spiele desto kleiner wird das Prozentual.

Da drängt sich doch die Frage auf bei welchem spielen ati denn schneller ist? Bei aktuellen Directx9 spielen oder eher bei den älteren spielen. Oder kann man es nichtmal so eingruppieren.

J0ph33
2006-11-28, 22:56:04
Bist Du Dir da sicher??? Du betrachtest das ganze wiederum nur aus einer Perspektive (HIgh End). Du siehst nicht die ganze Palette, du hast auch Punkte wie Preis nicht einbezogen oder Reifegrad von Treibern und anderen Dingen. Auch Punkte wie SLI hast du aussen vor gelassen.
Das ist eine sehr eingeschränkte Sicht. Seit NV40 hat Nvidia immer einen Zeitvorteil für sich verbuchen können.
Sie haben auch die rundere Produktpalette abgeliefert.
Zu NV40 Zeiten haben ganz entscheidend GF6600GT und 6800GT und SLI zum Erfolg beigetragen. Da sah ATI ganz blass aus. Ich erinner nur mal an die ominöse X700XT die vor Hitze fast in Rauch aufgegangen ist und anschließend nie richtig ausgeliefert wurde. Im 6800GT Segment gabs lange Zeit von ATI nur die X800pro auf völlig verlorenem Posten. Die 6800U konnte man zwar schlagen aber leider konnte man nichts gegen SLI einbringen. Also erneut nur ein Sieg in einem Teilsegment.

Bei G7x vs R5xx wars dann noch drastischer. Halbes Jahr Zeitvorteil für Nvidia, Produkt mit der besten Balance insgesamt. BQ sicherlich beim AF etwas schlechter, beim TSAA aber besser. Wiederum die insgesamt deutlich bessere Palette, Lieferfähigkeit und auch besseren Preise. Die X1800XT wurde gleich durch die 512MB GTX abgekontert. Gegen den R580 wurde einfach eine preislich konkurierende GX2 geboten. Extreme Erfolge im Notebook Segment sind vorhanden, wie man aktuellen Zahlen entnehmen kann. SLI immer noch besser als Crossfire.

Und schließlich hat sich das ganze dann am Markt auch so durchgesetzt. Gegen G7x musste ATI eine eindeutige Niederlage einstecken. Das muss man so sehen. Zu NV40 Zeiten waren die Vorteile für Nvidia insgesamt noch eher klein. Zuletzt haben sie aber überwogen. Aktuelle Zahlen wiederum belegen das.

In meinen Augen hat ATI ein Problem. Sie investieren zu wenig in ein rundes Gesamtkonzept. Es reicht nicht irgendwann mal die schnellste Single Karte zu haben. Was soll das großartig wert sein? Es ist nur eine Frage der Zeit bis man vom Konkurenten wieder überholt wird, wie es ja auch aktuell der Fall ist. Die Wahrnehmung dass der R600 schneller ist, ist auch nicht größer, als das der G80 schneller als das ist, was ATI momentan bietet. Man braucht ein stimmiges Gesamtkonzept mit ausbalancierten Produkten, die zur richtigen Zeit am richtigen Preispunkt und im richtigen Markt (auch Notebook) plaziert werden und dann auch lieferbar sind. Verspätungen sind tötlich. Nur weil die Generationen mal gegeneinander antreten sollten, heisst das noch lange nicht, dass sich das so in den Köpfen der Kunden einbrennt. Wer zu spät ist hat schlicht und ergreifend Pech gehabt und wird das nicht ausspielen können. Im Gegenteil , von dem wird sogar erwartet dass er mehr abliefert, da es sonst peinlich wird (X1800XT).

Somit hat ATI momentan ganz klar das Problem, dass G80 hier und heute zu haben ist und die Meßlatte legt. Wenn R600 kommt ist es für ATI bereits Pflicht den G80 zu schlagen und nichts besonderes mehr. Nvidia wird dann seinerseits mit dem Refresh drohen und vor allem Mainstream bereits ausliefern. Wenn das bei ATI erst im Sommer gelingen sollte - dann prost Mahlzeit. Dann sehe ich extrem schwarz, dass AMD noch lange kostenspielige High End Produkte finanziert. Denen dürfte eher daran gelegen sein, dass die Segmente Mainstream, Low End und Notebook pünktlich und fließend kommen.

das stimmt, ich betrachte es tatsächlich lediglich aus der high-end-perspektive, im midrange-bereich war nV lange zeit unschlagbar (auch wenn die 6600GT und 6800GT stärker gemacht worden sind, als sie es eigentlich waren, quality benchen)
zudem hatten wir letztens hier ein nettes diagramm, das zwar bestätigte, dass im low-mid-range bereich die höchsten stückzahlen abgesetzt werden, der größte anteil das umsatzes allerdings durch den verkauf von mid - highend erzielt wird (ab 7600GT oder so)
SLI war eigentlich durchweg lediglich ein marketing-element, die prozentsatz, der SLI nutzte und nutzt ist sehr klein...

aber es stimmt, ab dem R420 war ATis mid-range über lange strecken katastrophal, der X700XT-reinfall, die nicht wirklich konkurrenzfähige X1600XT usw. usf.

trotzdem bleibt der eindruck der ungerechtigkeit, hatte ATi doch meist das bessere highend-produkt, wenn auch etwas später...

Armaq
2006-11-28, 23:04:19
Nein das tu ich gar nicht. Ich unterscheide deshalb ja auch zw. wissenden und unwissenden Kunden. Wenn ich vorraussetzen würde das der Kunde sich intensiv informiert müsste ich NVidia bei einigen Graka Generationen den Absatzvorteil absprechen.

Und selbst als potentiell informierter Kunde kann man schnell einen griff ins klo machen. (NV3X bzw. in weniger drastischem maße NV40/G70)

Ich wollte nur nochmal anmahnen das man separieren sollte zw. dem was gut für den IHV ist (hohe absatzzahlen eines IHV) und dem was gut für den kunden ist (ein qualitativ hochwertiges preisgünstiges produkt). Gerade diese beiden Dinge scheinen einige Kunden des öfteren zu verwechseln. Das sind zwei völlig verschiedene paar schuh und aus dem einen lässt sich auch nicht das andere ableiten.

Simpel gesprochen: Nur weil der G80 früher da ist und potentiell marketing und zeitlich bedingt höhere absatzzahlen schreiben wird ist es noch lang nicht das bessere produkt für den endverbraucher.

Für den Kunden ist das "beste" Produkt fast immer das gekaufte. Deshalb geben nur wenige zu, dass sie vll. falsch gewählt haben.

Mastermind
2006-11-29, 00:12:30
Habe die letzten Seiten überflogen und diese Nachricht nicht gefunden, hoffentlich also neu für euch:

http://www.gamestar.de/news/pc/hardware/amd/1466482/amd.html

Der Chip des R600 ist um 45° gedreht. :|

deekey777
2006-11-29, 00:20:38
Habe die letzten Seiten überflogen und diese Nachricht nicht gefunden, hoffentlich also neu für euch:

http://www.gamestar.de/news/pc/hardware/amd/1466482/amd.html

Der Chip des R600 ist um 45° gedreht. :|
Ist es nicht, siehe erstes Posting.

LovesuckZ
2006-11-29, 00:44:02
trotzdem bleibt der eindruck der ungerechtigkeit, hatte ATi doch meist das bessere highend-produkt, wenn auch etwas später...

Toll, dann können sie das doch für 200€ anbieten...


im midrange-bereich war nV lange zeit unschlagbar (auch wenn die 6600GT und 6800GT stärker gemacht worden sind, als sie es eigentlich waren, quality benchen)

Diese Karten hatten seit der 9700pro wiedermal ein sehr gutes Preis-Leistungs-Verhältnis.
Nicht umsonst ist die 6600GT zu einer der meist-gekauften Karte geworden. Zur damaligen Zeit konnte die Konkurrenz der Karten nichts entgegensetzen (X800pro, X700pro). Nur mit höherem Aufwand (vorallen X800 Karten als Konkurrenz zur 6600GT) konnte das Bild für ATi leicht verbessern.

da gibt es sicherlich 2 verschiedene sichten...einmal in hinblick auf absatzmenge und dann in hinblick auf das qualitativ hochwertigere produkt.

Du vergisst die dritte: Die des voreingenommenen.


im prinzip R420/480 auch wieder das kundenfreundlichere Produkt.

Nein, nicht wirklich.
Die XT war aufgrund des höheren Taktes schneller, aber die Pro war nicht schneller als die GT.

Die X18xx ist deutlich später als der 40 gekommen und schien erstmal ein Rohrkrepierer zu sein...stellte sich aber mit der zeit doch als besser heraus -> wieder das kundenfreundlichere produkt.

Das ist vollkommen falsch.
Das "kundenfreundlichere Produkt" ist kein Staubsauger, der meine Heizung ersetzen konnte. Die Karte war vielleicht schneller als die 7800GTX (256MB), aber hatte dafür einige Nachteile (Stromaufnahme, Hitze, Lautstärke).

R580 gewinnt mehr und mehr auch an performancetechnischer überlegenheit zum G71 (bzgl. kundenbrauchbarer BQ und features hatte er dies von anfang an.

Und treibt seine Stromrechnung und die Kosten für Arztbesuche wegen Tinitus in die Höhe...
Dein "kundenfreundlicheres Produkt" ist nichts weiter als "mein bestes Produkt" und in keinster Weise objektiv.
Das "kundenfreundlichste Produkt" wird wohl fats immer das sein, welches am meisten verkauft wird.

von daher ist für den Kunden ein kopf an kopf rennen was absatzzahlen anbelangt von grossem vorteil...

Kaufst du Karten nach deinem Geschmack oder nach den niedriegen Absatzzahlen? :rolleyes:

Gast
2006-11-29, 03:05:54
Nicht umsonst ist die 6600GT zu einer der meist-gekauften Karte geworden. Zur damaligen Zeit konnte die Konkurrenz der Karten nichts entgegensetzen (X800pro, X700pro). Nur mit höherem Aufwand (vorallen X800 Karten als Konkurrenz zur 6600GT) konnte das Bild für ATi leicht verbessernEin schöner, feuchter Traum der Alleinstehenden? Preislich war die 6600GT damals eine sehr interessante Karte. Sie bot im Schnitt kleinwenig mehr Leistung als die 9800pro und kostete weniger. Als die 9800pro (!) Nix R4xx.
Sobald man sich aber eine annhmbare bzw. vergleichbare Renderqualität gönnen wollte (wink wink) war sie meist langsamer als eine 9800pro. Ja ich kenne die Güte des OpenGL Treibers von NV. Ich kenn auch ALLE Top10 OpenGL Spiele der letzten 5 Jahre. Aus dem Kopf ;)
Eine 9800pro hat dann auch dank einer größeren Rechenleistung länger überleben können als die 6600GT, die mit kommenden SM2 Spielen auch sehr schnell alt wurde. Das konnte man auch hier im Forum gut beobachten.
Mit gleicher Renderqualität raucht sie die X700pro daher auf.

Was aber nicht heißen sollte, daß ich deinem Versuch die Diksussion wieder ins passende OT zu treiben erlegen muß. Daher, machs gut.

Du vergisst die dritte: Die des voreingenommenenjou :lol:

Gast
2006-11-29, 03:15:31
Ich würde sagen NV könnte excellent damit leben. Der R600 ist für die MAsse, also Leute die sich nicht in Grafikchipforen rumtreiben, bestenfalsl ein Gespenst, der G80 ist im Laden. Und wenn ATI endlich den R600 bringt, dann liefert NV die MainstreammodelleIch frage mich gerade, ob Leute die heiß auf einen G80 sind, wirklich etwas mit Weihnachtsgeschäft und Masse zu tun haben und ob sie noch nie in Grafikforen rumgelesen haben. Das klingt irgendwie so als wenn nur laute sechzehnjährige Tombmänner (nicht abwertend gemeint :up: ) durch Mediamarkt usw. laufen würden.

Gast
2006-11-29, 03:30:30
wen interessiert den der mobile markt? Also ati ist klar, aber ich meine jetzt uns als kunden? Mit nem laptop will ich arbeiten usw. Mit nem high-end beschleuniger will ich nur brutale rechenleistung bzw performance. Der r600 soll mal ruhig so fett und stromhungrig ausfallen, das er nicht bzw nur schwer für den mobile markt einzusetzen ist. Hauptsache die performance rocktErstmal ist so ein halber "17"-Tisch" als Desktopersatz eine Erscheinung der Neuzeit ;) Zweitens gibts es überraschend viele die den "normalen" Notebook für Office und als Kommunikationszentrale benutzen, aber sehr wohl in Ruhe Tunguska, Ankh, PlasmaBalls :D usw. zocken wollen.

15.4" Notebooks mit zwar nicht überragender aber guter 3D Leistung, die unter Office 3.5h-4h durchlaufen, verkaufen sich wie warme Semmeln.

Gast
2006-11-29, 03:32:05
Mit gleicher Renderqualität raucht sie die X700pro daher aufSchon spät. Die x700pro raucht sie daher bei gleicher Renderqualität auf ;)

Nun genug der Gastpostings. Nacht.

Gast
2006-11-29, 07:26:56
Schon spät. Die x700pro raucht sie daher bei gleicher Renderqualität auf ;)Tut sie eigentlich nicht. Was heißt für dich eigentlich gleiche Renderqualität?

The_Invisible
2006-11-29, 09:18:41
Ein schöner, feuchter Traum der Alleinstehenden? Preislich war die 6600GT damals eine sehr interessante Karte. Sie bot im Schnitt kleinwenig mehr Leistung als die 9800pro und kostete weniger. Als die 9800pro (!) Nix R4xx.
Sobald man sich aber eine annhmbare bzw. vergleichbare Renderqualität gönnen wollte (wink wink) war sie meist langsamer als eine 9800pro. Ja ich kenne die Güte des OpenGL Treibers von NV. Ich kenn auch ALLE Top10 OpenGL Spiele der letzten 5 Jahre. Aus dem Kopf ;)
Eine 9800pro hat dann auch dank einer größeren Rechenleistung länger überleben können als die 6600GT, die mit kommenden SM2 Spielen auch sehr schnell alt wurde. Das konnte man auch hier im Forum gut beobachten.
Mit gleicher Renderqualität raucht sie die X700pro daher auf.

Was aber nicht heißen sollte, daß ich deinem Versuch die Diksussion wieder ins passende OT zu treiben erlegen muß. Daher, machs gut.

jou :lol:

hä, gerade dort wo rechenleistung zählt hat ne 9800pro gegen ne 6600gt nix zu melden. und ja, der r300 hatte ja so ne überlegene bildqualität :rolleyes:

mfg

Sternenkind
2006-11-29, 12:09:30
Das ist vollkommen falsch.
Das "kundenfreundlichere Produkt" ist kein Staubsauger, der meine Heizung ersetzen konnte. Die Karte war vielleicht schneller als die 7800GTX (256MB), aber hatte dafür einige Nachteile (Stromaufnahme, Hitze, Lautstärke).
Staubsauger ist übertrieben, ich würde gar behaupten den meisten ist es sogar egal. Eine 1800XT war nicht nur schneller, sondern bot auch die viel bessere Bildqualität, welche Nvidia erst jetzt erreichte. Zumal man AA und AF anschalten konnte ohne gleich auf das Niveau des Vorgängerchips zurückzufallen. ;) Zu den von dir aufgezählten Nachteilen würd ich gern wissen was du über den G80 denkst. ;D

Und treibt seine Stromrechnung und die Kosten für Arztbesuche wegen Tinitus in die Höhe...
G80 anyone? ;D

seahawk
2006-11-29, 12:15:41
Ich frage mich gerade, ob Leute die heiß auf einen G80 sind, wirklich etwas mit Weihnachtsgeschäft und Masse zu tun haben und ob sie noch nie in Grafikforen rumgelesen haben. Das klingt irgendwie so als wenn nur laute sechzehnjährige Tombmänner (nicht abwertend gemeint :up: ) durch Mediamarkt usw. laufen würden.

Ich gehe davon aus, dass ein großter Teil sich nicht gerade bei Beyond3D ooder hier rumtreibt. Würde man jetzt ein Rechereche in Printmedien und im Internet machen, wenn man ne neue Karte sucht, dann stößt man auf die G80, der Hinweis auf eine irgendwann verfügbare R600 ist wenn nur sehr am Rande platziert.

ShadowXX
2006-11-29, 12:23:56
Zu den von dir aufgezählten Nachteilen würd ich gern wissen was du über den G80 denkst. ;D
G80 anyone? ;D
Strom...ja. Aber Lautstärke? Mein G80 ist leiser als meine alte x1900xt mit 3rd-Party-Lüfter (der Originallüfter der x1900xt war unerträglich).

Mastermind
2006-11-29, 12:47:38
Ist es nicht, siehe erstes Posting.
:eek:
OK, werde ab jetzt vor dem Posten auch immer dieses beäugen.

Gast
2006-11-29, 15:00:25
Ein schöner, feuchter Traum der Alleinstehenden? Preislich war die 6600GT damals eine sehr interessante Karte. Sie bot im Schnitt kleinwenig mehr Leistung als die 9800pro und kostete weniger. Als die 9800pro (!) Nix R4xx.
Sobald man sich aber eine annhmbare bzw. vergleichbare Renderqualität gönnen wollte (wink wink) war sie meist langsamer als eine 9800pro. Ja ich kenne die Güte des OpenGL Treibers von NV. Ich kenn auch ALLE Top10 OpenGL Spiele der letzten 5 Jahre. Aus dem Kopf ;)
Eine 9800pro hat dann auch dank einer größeren Rechenleistung länger überleben können als die 6600GT, die mit kommenden SM2 Spielen auch sehr schnell alt wurde. Das konnte man auch hier im Forum gut beobachten.
Mit gleicher Renderqualität raucht sie die X700pro daher auf.

Was aber nicht heißen sollte, daß ich deinem Versuch die Diksussion wieder ins passende OT zu treiben erlegen muß. Daher, machs gut.

jou :lol:
oh man, dass man so einen scheiss hier lesen kann
nchits gegen r300/350 das waren lange zeit sehr gute chips
aber zu behaupten die wären schneller als ne 6600gt oder ne x700pro wäre schneller ist schon peinlich

aths
2006-11-29, 15:20:36
Nein Inq labert einfach mal wieder scheiße.



Ich glaube nicht das dir viele nachweinen würden. Aber du machst es ja leider eh nicht.Geht es auch etwas freundlicher? Und ohne Wörter wie "scheiße"? Und ohne das Gebashe anderer User? Und bitte auch ohne Wörter (in anderen Threads von dir gelesen) wie "Schwachsinn" etc? Seit einigen Wochen bist du kaum noch zu ertragen. Du trittst auf wie Mister Allwissend, wirfst mit Kraftausdrücken um dich und emulierst den Pro, und tauchst dann öfters, wenn es konkret wird, klanglos ab.

Sollen wir uns jetzt alle gegenseitig anranzen und uns den Abgang aus dem Forum nahelegen? Und weiter mit profanen Ausdrücken hantieren, was immer so wirkt als wolle man argumentative Schwäche kaschieren? So stell ich mir ein tragfähiges Miteinander nicht vor. Es würde dem allgemeinen Klima sehr zuträglich sein, wenn gerade ein Vielposter wie du sich ganz besonders an gehobenere Umgangsformen halten würde.

Coda
2006-11-29, 15:35:38
Gouvernator tritt imho ziemlich viel negativer auf für das Forenklima - da werde ich dann schon mal angepisst. Und was Inq angeht stehe ich zu meiner Ausdrucksweise. Wo ich "abgetaucht" bin und als "Mr. Allwissend" auftrete würde ich gern mal wissen.

Ansonsten magst du wohl recht haben, ich werd versuchen mich bissel zu zügeln. Man muss ja nicht aufs gleiche Niveau kommen...

Gouvernator
2006-11-29, 16:07:29
Gouvernator tritt imho ziemlich viel negativer auf für das Forenklima
Ach, nicht gleich hinter anderen verstecken...

Gast
2006-11-29, 16:26:28
G80 anyone? ;DWie Shadow schon sagte, ist die 8800GTX überhaupt nicht laut. Kein Vergleich zu einer dröhnenden x1900xtx. Vielleicht nicht ganz so leise wie eine GTX/512 oder 7900GTX, aber keineswegs laut.

PHuV
2006-11-29, 16:29:07
Wie Shadow schon sagte, ist die 8800GTX überhaupt nicht laut. Kein Vergleich zu einer dröhnenden x1900xtx. Vielleicht nicht ganz so leise wie eine GTX/512 oder 7900GTX, aber keineswegs laut.

Na ja, wenn man die automatische Lüftersteuerung ausschaltet, damit die Karten nicht so heiß werden, und auf Volllast laufen läßt, sind 2 8800GTX SLI nicht gerade leise.

Sternenkind
2006-11-29, 16:30:53
...eigentlich wollte ich ja eher auf den Stromverbrauch abzielen, denn wenn man den bei einer 1800 bzw 1900 bemängelt, dann bitte auch beim G80 (und wohl auch beim R600 :D).

Gast
2006-11-29, 16:37:22
Na ja, wenn man die automatische Lüftersteuerung ausschaltet, damit die Karten nicht so heiß werden, und auf Volllast laufen läßt, sind 2 8800GTX SLI nicht gerade leise.Das finde ich jetzt nicht gerade verwunderlich. Die Lüftersteuerung ist ja gerade dazu da, die Karte so leise wie möglich zu halten. Wenn man sie abschaltet, braucht man sich über einen auf 100% drehenden Lüfter nicht zu beschweren. Es ist auch gar nicht nötig diese abzuschalten.

LovesuckZ
2006-11-29, 16:47:55
...eigentlich wollte ich ja eher auf den Stromverbrauch abzielen, denn wenn man den bei einer 1800 bzw 1900 bemängelt, dann bitte auch beim G80 (und wohl auch beim R600 :D).

Der G80 geht unter Load deutlich effektiver mit dem Strom um als eine X1800/X1900.
Wem das soviel ist, der hat sich sowieso keine der oben genannten Karten gekauft oder wird sich kaufen.

DrumDub
2006-11-29, 17:01:11
Können wir langsam mal zum Thema zurückommen? Nur weils zum R600 nichts neues gibt, müsst Ihr den Thread nicht mit Stromverbrauchsdiskussionen zu anderern Grakas zuballern. Danke für die Aufmerksamkeit.

Gast
2006-11-29, 17:27:26
Simpel gesprochen: Nur weil der G80 früher da ist und potentiell marketing und zeitlich bedingt höhere absatzzahlen schreiben wird ist es noch lang nicht das bessere produkt für den endverbraucher.

Aber genau das ist er doch für Kunden die in dieser Kategorie unterwegs sind oder siehst du aktuell andere Produkte?
Weder G70 noch R580 sind eine Option für diese Käufer und was anderes gibt es nicht.

Und die Entscheidung was das bessere Produkt ist wird nicht erst getroffen, wenn einer der Kontrahenten irgendwann mal aus dem Mustopf kommt. Das war es was ich eingangs mal versucht habe auszudrücken.
Es ist völlig irrelevant ob nun R600 gegen G80 geplant war und ist. Demzufolge lassen sich beide auch nicht vergleichen bzw. kann man nicht sagen der R600 ist besser oder sonst was.

Potentielle Käufer entscheiden sich zu einem Zeitfenster X ein Produkt in dieser Preisklasse zu kaufen. Wenn ATI dann durch Abwesenheit glänzt, dann ist G80 das beste Produkt - simpel und einfach. Warten braucht man nicht. Das kann man machen wenns 2 Wochen sind aber nicht 3 Monate und mehr. Damit ist kein direkter Vergleich über den Zeitraum mehr gegeben.

Coda
2006-11-29, 17:27:38
Ach, nicht gleich hinter anderen verstecken...

Ich versteck mich hinter gar niemandem und hinter dir schon gar nicht :tongue:

Gast
2006-11-29, 17:30:40
trotzdem bleibt der eindruck der ungerechtigkeit, hatte ATi doch meist das bessere highend-produkt, wenn auch etwas später...

Again - wenn etwas später heisst 2 Wochen dann ok. Wenn es sich um Monate handelt nicht mehr, da die Produkte dann nicht mehr direkt vergleichbar sind.
Letzteres war zumindest bei G7x der Fall, weswegen ich bei NV40 auch eher von kleinen Vorteilen im gesamten Produktlineup sprach. G7X ging klar an Nvidia aufgrund der unterschiedlichen Zeitfenster und natürlich SLI samt GX2.

Bei G80 kann sich das wiederholen. Wenn 3 Monate dazwischen liegen sollten ist das nicht mehr direkt vergleichbar. Das ist in der heutigen Halbleiterentwicklung eine Ewigkeit.

Gast
2006-11-29, 19:36:38
http://www.beyond3d.com/forum/showpost.php?p=883319&postcount=1068

Hmm, ich schätze es werden 24 TMUs und 12 ROPs sein. Außerdem glaube ich nicht an ein 512Bit SI.

Undertaker
2006-11-29, 20:05:20
Again - wenn etwas später heisst 2 Wochen dann ok. Wenn es sich um Monate handelt nicht mehr, da die Produkte dann nicht mehr direkt vergleichbar sind.
Letzteres war zumindest bei G7x der Fall, weswegen ich bei NV40 auch eher von kleinen Vorteilen im gesamten Produktlineup sprach. G7X ging klar an Nvidia aufgrund der unterschiedlichen Zeitfenster und natürlich SLI samt GX2.

Bei G80 kann sich das wiederholen. Wenn 3 Monate dazwischen liegen sollten ist das nicht mehr direkt vergleichbar. Das ist in der heutigen Halbleiterentwicklung eine Ewigkeit.

was ist denn eigentlich der aktuell wahrscheinlichste termin/zeitraum für den launch?

20.1. steht im beyond3d link, kommt das etwa hin?

deekey777
2006-11-29, 20:39:54
http://www.beyond3d.com/forum/showpost.php?p=883319&postcount=1068

Hmm, ich schätze es werden 24 TMUs und 12 ROPs sein. Außerdem glaube ich nicht an ein 512Bit SI.
12 ROPs?
http://www.beyond3d.com/forum/showpost.php?p=883364&postcount=1073
ATi hasn't asked for developers to open up code ever, they always looked for way around optimization for their hardware. Or make a seperate path.

ATi wants devs to open up code so they can optimize code for the r600. I have quite a few sources that are saying this, it's been going on for the past 2 months or so, and nV gave the ok open it up to them about a week and half back.
Interessant.

DrumDub
2006-11-29, 22:42:48
Interessant. mhh... klingt irgendwie nicht so plausibel, wenn ich das hier lese: http://www.beyond3d.com/forum/showpost.php?p=883437&postcount=1097

Armaq
2006-11-29, 23:00:04
Fakt ist einfach nur, dass selbst wenn ATI die bessere Karte rausbringt, Nvidia durch den früheren Start einen strategischen Vorteil enormer Größe genießt.

Der Bekanntheitsgrad der 8800er-Serie wird bis dahin selbst zu reinen Endverbrauchern getragen und genau wie die 6800er Serie ihren Erfolg in der Preisklasse bis 200€ einheimsen.

ATI braucht ein agressiveres Marketing, um den frühen Start von Nv zu kompensieren - Technik hin oder her.

P.S.: Es spricht auch kaum einer von der technischen UNTERlegenheit des R600, weil es den SuperGAU für ATI bedeutet.

Gast
2006-11-29, 23:09:01
Fakt ist einfach nur, dass selbst wenn ATI die bessere Karte rausbringt, Nvidia durch den früheren Start einen strategischen Vorteil enormer .

nö spielt keine rolle,es gab mal zeiten das kam NV fast ein jahr später nach ner top ati karte,und was hats ausgemacht nüschts

wir pc freaks bilden sich das ein aber für die reale welt ist das völlig wurscht,grad die top modelle sind so unwichtig

Gast
2006-11-29, 23:53:15
P.S.: Es spricht auch kaum einer von der technischen UNTERlegenheit des R600, weil es den SuperGAU für ATI bedeutet.Wird es ja auch nicht geben. Und selbst wenn, ist Nvidia an dem NV30 auch nicht zugrunde gegangen.

Gmax
2006-11-30, 01:19:04
Steckt eigentlich ein bischen BitBoys Technologie im R600, oder kann man erst in den kommenden Chips mit sowas rechnen?
Ati hat ja die Firma gekauft, ja wofür denn :confused:

Gast
2006-11-30, 02:17:26
Bitboys?? "Damit sie nicht mehr nerven" wäre mir Grund genug.

Palpatin
2006-11-30, 04:02:42
Bitboys hmm vielleichten hatten die Patente auf diesen GPU Cache der beim Xbox 360 Grafikchip verwendet wurde ansonst glaub ich hab ich mal was von Handy Grafikchips gelesen.

Ailuros
2006-11-30, 07:44:53
Bitboys hmm vielleichten hatten die Patente auf diesen GPU Cache der beim Xbox 360 Grafikchip verwendet wurde ansonst glaub ich hab ich mal was von Handy Grafikchips gelesen.

Es heisst eDRAM und ist auf Xenos eher ein quasi AA-Framebuffer als eine einfache cache. Weiterhin hat ATI's eDRAM Implementierung rein gar nichts mit vergangenen Bitboys Vaporware Technologien zu tun und zu guter letzt hatten zwar BB Handy-Designs fuer den PDA/Mobile Markt aber nicht einen einzigen Franzen an eDRAM.

Sunrise
2006-11-30, 09:45:45
nö spielt keine rolle,es gab mal zeiten das kam NV fast ein jahr später nach ner top ati karte,und was hats ausgemacht nüschts
Mal davon ab, dass dies komplett Off-Topic ist: Wenn du R300 vs. NV30 meinst, dann hast du dich mit diesem Satz ganz schön in die Nesseln gesetzt.

Gerade NV hat dies sehr wohl etwas "ausgemacht" (in vielerlei Hinsicht). Trotz dessen aber hatten sie immernoch (durch FX5200 und FX5600) mindestens zwei feste Standbeine, die das Ganze etwas relativiert hatte.

Zudem meinte Armaq eher die Mittelklasse-SKUs, weniger die High-End/Enthusiast-Klasse. Und gerade hier ist die Sache "kritisch". Denn wenn ATI hier wieder auf die Reife des 65nm-Prozesses warten muss, und zugleich noch keine einzige Karte am Markt in diesem kundensensitiven Preisbereich (150 bis maximal 300 EUR) vorhanden ist, wird es schwer bis unmöglich, eine große Anzahl an Käufern zu finden.

Armaq
2006-11-30, 09:46:12
nö spielt keine rolle,es gab mal zeiten das kam NV fast ein jahr später nach ner top ati karte,und was hats ausgemacht nüschts

wir pc freaks bilden sich das ein aber für die reale welt ist das völlig wurscht,grad die top modelle sind so unwichtig

Nochmal lesen. Die Klasse bis 200€ entscheidet. Nicht so ganz verstanden?!

robbitop@work
2006-11-30, 10:52:21
Steckt eigentlich ein bischen BitBoys Technologie im R600, oder kann man erst in den kommenden Chips mit sowas rechnen?
Ati hat ja die Firma gekauft, ja wofür denn :confused:

Bitboys haben in den letzten Jahren Portable GPUs (Handhelds, PDA, Handy). ATI hat mit den Bitboys wohl das Imagenon Team verstärkt (gleicher Zweig).

Fetza
2006-11-30, 12:39:42
Fakt ist einfach nur, dass selbst wenn ATI die bessere Karte rausbringt, Nvidia durch den früheren Start einen strategischen Vorteil enormer Größe genießt.

Der Bekanntheitsgrad der 8800er-Serie wird bis dahin selbst zu reinen Endverbrauchern getragen und genau wie die 6800er Serie ihren Erfolg in der Preisklasse bis 200€ einheimsen.

ATI braucht ein agressiveres Marketing, um den frühen Start von Nv zu kompensieren - Technik hin oder her.

P.S.: Es spricht auch kaum einer von der technischen UNTERlegenheit des R600, weil es den SuperGAU für ATI bedeutet.

Der bekanntheitsgrad kommt durch die medien, und wenn ati im februar ein deutlich besseres produkt auf den markt wirft, wird kein hahn mehr nach dem g80 kähen.

Preisklasse 200 euro? dann meinst du wohl die mid and low end abwandlungen des g80, denn der g80 wird nie so billig werden, zumindest nicht so lange wie man damit anständig spielen können wird.

Was anderes ist natürlich das weihnachtsgeschäft, hier könnte der g80 den high-end markt bedarf sättigen, allerdings könnten auch noch viele high-end käufer durch die spekulationen um den r600 noch vom kauf abstand nehmen. Ich zähle mich zu diesen, ich sehe aktuell keinen grund warum ich diese knapp 3 monate nicht mehr warten sollte

greetz

Fetza

Gast
2006-11-30, 12:53:33
Der bekanntheitsgrad kommt durch die medien, und wenn ati im februar ein deutlich besseres produkt auf den markt wirft, wird kein hahn mehr nach dem g80 kähen.

Der R600 wird aber nicht "neu", "innovativ" und "fortschrittlich" sein.
Der G80 wird wohl für viele als Synonym für "Unified Shader", "DX10, "Vista" stehen, der nicht nur leistungstechnisch sondern auch BQ - mäßig neue Maßstäbe setzt.
ATi wird es schwer haben, den Eindruck des "G80 Monsters" aus den Käufer von den Menschen zu holen. Nur "Freaks" werden dafür nicht reichen.

LovesuckZ

Ailuros
2006-11-30, 13:05:22
Der bekanntheitsgrad kommt durch die medien, und wenn ati im februar ein deutlich besseres produkt auf den markt wirft, wird kein hahn mehr nach dem g80 kähen.

Um wieviel deutlich besser waere die Frage? Da es sich wohl nicht um den nennenswerten Unterschied halten wird, sehe ich keine Massenhysterie Anfang 2007.

Preisklasse 200 euro? dann meinst du wohl die mid and low end abwandlungen des g80, denn der g80 wird nie so billig werden, zumindest nicht so lange wie man damit anständig spielen können wird.

Er meinte ja auch offensichtlich nicht den G80 sondern G8x-mainstream.

Was anderes ist natürlich das weihnachtsgeschäft, hier könnte der g80 den high-end markt bedarf sättigen, allerdings könnten auch noch viele high-end käufer durch die spekulationen um den r600 noch vom kauf abstand nehmen. Ich zähle mich zu diesen, ich sehe aktuell keinen grund warum ich diese knapp 3 monate nicht mehr warten sollte


Wer es momentan nicht noetig hat aufzuruesten, kann ruhig bis Anfang 2007 warten. Die eigentliche Reaktionen koennten doch nur zwei Varianten haben:

a) "wow ich bin froh dass ich gewartet habe..."

oder

b) "nun ja ich hab auch nichts besonderes verloren mit der Warterei......"

Mancko
2006-11-30, 13:07:17
Der bekanntheitsgrad kommt durch die medien, und wenn ati im februar ein deutlich besseres produkt auf den markt wirft, wird kein hahn mehr nach dem g80 kähen.


Dann muss es aber schon arg deutlich besser werden. Das bisschen besser bei R580 hat nämlich nicht gerreicht um die Errodierung der Marktanteile bei ATI aufzuhalten.
Auch wird R600 alleine nicht reichen. Wenn Nvidia zu diesem Zeitpunkt Mainstream und Low End liefern kann, ATI aber nicht, dann hat ATI diese Runde 100%ig bereits verloren.

TjP
2006-11-30, 14:41:43
Richtig.
Denn wie viele Leute kaufen sich schon Grafikkarten für 600 € (jetzt mal von den 3dcenter-Membern abgesehen ;) ). Ich schätze die meisten kaufen sich einen Komplett-PC, sodass also meiste über OEM verkauft wird, da da aber meist nicht die absoluten High-End-Karten drin sind, machen diese nur einen geringen Teil des Marktes aus.
Maybe hab ichs überlesen, aber wie viel weiß man schon über ATIs bzw. Nvidias Aufstellung im Mid-Range bzw. Low-End bereich?
(Bitte nicht schlagen wenn es ein paar Seiten vorher steht :D )

Gast
2006-11-30, 15:08:04
Nvidias Aufstellung im Mid-Range bzw. Low-End bereich?Sonderlich viel ist da nicht bekannt. Aus Gewohnheit würde ich mal auf einen mehr oder weniger halben G80 tippen.

Fetza
2006-11-30, 16:01:36
Ich muss meine aussage auch korrigieren, ich meinte nicht "besser wird" sondern "sollte er besser werden". Das bleibt ja in der tat noch fraglich.

Die mainstream karten sollten soweit wie ich gelesen habe übrigends erst im kommenden sommer erscheinen.

greetz

Fetza

Fetza
2006-11-30, 16:03:33
Wer es momentan nicht noetig hat aufzuruesten, kann ruhig bis Anfang 2007 warten. Die eigentliche Reaktionen koennten doch nur zwei Varianten haben:

a) "wow ich bin froh dass ich gewartet habe..."

oder

b) "nun ja ich hab auch nichts besonderes verloren mit der Warterei......"

Genau so sehe ich das! :) was aber in jedem fall wohl zu erwarten sein wird, ist eine preissenkung sobald ati den r600 launcht. Ausser der r600 wird teurer als die aktuellen g80 karten.

Mancko
2006-11-30, 16:08:49
Ich muss meine aussage auch korrigieren, ich meinte nicht "besser wird" sondern "sollte er besser werden". Das bleibt ja in der tat noch fraglich.

Die mainstream karten sollten soweit wie ich gelesen habe übrigends erst im kommenden sommer erscheinen.


Du meinst die von ATI oder? Soweit mir bekannt wird Nvidia im März loslegen. Das wäre aber arg bitter für ATI. Das hoffe ich jetzt mal nicht. Das wär aus Kundensicht und natürlich auch für ATIs Zukunft bei AMD nicht so prickelnd.

The_Invisible
2006-11-30, 16:13:06
Genau so sehe ich das! :) was aber in jedem fall wohl zu erwarten sein wird, ist eine preissenkung sobald ati den r600 launcht. Ausser der r600 wird teurer als die aktuellen g80 karten.

er wird wohl kaum günstiger zu haben sein...

mfg

Mr.Soapdown
2006-11-30, 16:15:58
a) "wow ich bin froh dass ich gewartet habe..."

oder

b) "nun ja ich hab auch nichts besonderes verloren mit der Warterei......"

Zusatz zu B: ...... und noch Geld gespart

Denn ein gewisser Preisverfall wird immer stattfinden.

dargo
2006-11-30, 16:48:59
Ausser der r600 wird teurer als die aktuellen g80 karten.
Ich bin schon richtig gespannt was ATI für den R600 verlangen wird. Theoretisch sollte ATI durch den 80nm Fertigungsprozess einen leichten Vorteil haben oder?

Wie groß ist nochmal die Fläche vom G80 und R600?

Gast
2006-11-30, 16:50:03
Die Fläche ist wohl etwas geringer, aber der Prozess ja auch teurer.

Fetza
2006-11-30, 17:04:16
Du meinst die von ATI oder? Soweit mir bekannt wird Nvidia im März loslegen. Das wäre aber arg bitter für ATI. Das hoffe ich jetzt mal nicht. Das wär aus Kundensicht und natürlich auch für ATIs Zukunft bei AMD nicht so prickelnd.

jup, die von ati

ich denke das auch vor allem der kühler ein kaufagument werden wird, schließlich ist der g80 kühler gut gelungen und sehr leise. Einen r520/580 fön würd ich mir nie antun. Aber ich kann mir nicht vorstellen das sie den fehler machen, schließlich wurde der kühler ja oft genug bemängelt.

Fetza
2006-11-30, 17:05:23
Ich bin schon richtig gespannt was ATI für den R600 verlangen wird. Theoretisch sollte ATI durch den 80nm Fertigungsprozess einen leichten Vorteil haben oder?

Wie groß ist nochmal die Fläche vom G80 und R600?

angenommen das 512 bittige speicherinterface kommt wird die karte bestimmt teurer, ehrlich gesagt wäre mir das dann aber egal :)

Edit: so lange niemand weiß wieviel transistoren das teil haben wird, kann man auch die größe schlecht abschätzen oder?

dargo
2006-11-30, 17:06:04
Die Fläche ist wohl etwas geringer, aber der Prozess ja auch teurer.
Am Anfang vielleicht. Auf längere Sicht aber wohl kaum, zumindest bei guter Ausbeute.
Immerhin passen auf einen Wafer im kleineren Fertigungsprozess mehr GPUs als in 90nm. Ob das aber wirklich sich dann im Preis wiederspiegelt bezweifle ich etwas.

T86
2006-11-30, 20:53:50
nö spielt keine rolle,es gab mal zeiten das kam NV fast ein jahr später nach ner top ati karte,und was hats ausgemacht nüschts

wir pc freaks bilden sich das ein aber für die reale welt ist das völlig wurscht,grad die top modelle sind so unwichtig

ist allerdings wahr - der high end markt macht nur ein par lächerliche prozent aus
low-end bei fertig pc's und midrange im endkundenmarkt is da viel interesanter

worauf du anspielst war die 9700pro oder? was hatte Nvidia da gegenzu setzen? nix die erste zeit die Ti4600 ne dx8 karte - selbst die neue generation die fx5800 konnte net mithalten
dann 9800pro/xt vs 5900ultra sahs auch nicht so viel besser aus :D

seahawk
2006-11-30, 21:22:34
Der bekanntheitsgrad kommt durch die medien, und wenn ati im februar ein deutlich besseres produkt auf den markt wirft, wird kein hahn mehr nach dem g80 kähen.
greetz

Fetza

Wieviel besser muss er sein um einen Preisvorteil des G80 von sagen wir 100 Euro auszugleichen. Eine Summe die der Preis des G80 bis zur Verfügbarkeit des R600 schon nachgegeben haben sollte. Dann hätte man immer noch bei NV die Option eine GTO nach zu schieben.

Fetza
2006-11-30, 21:53:27
Wieviel besser muss er sein um einen Preisvorteil des G80 von sagen wir 100 Euro auszugleichen. Eine Summe die der Preis des G80 bis zur Verfügbarkeit des R600 schon nachgegeben haben sollte. Dann hätte man immer noch bei NV die Option eine GTO nach zu schieben.

Naja zum ersten glaube ich nicht, das man eine GTO einfach so nachschieben kann, ohne einen die-shrink oder nochmal ein redesign vorzunehmen. Der aktuell g80 läuft ja ziemlich auf kante. Die andere sache ist die, das ein performance unterschied von sagen wir mal 20% dafür reichen würde. Ein anderer punkt wäre noch, das hardware freaks sich bestimmt am (falls es denn kommen sollte) 512 bittigen speicherinterface aufgeilen werden. Wenn er wirklich 512 bit verpasst bekommt, wird die karte ein ähnliches auflösungsmonster wie der r520/580. Natürlich nicht so krass wie im vergleich zum g70/71 aber dennoch sollte das einen guten performance gain überhalb von 1920er auflösungen bringen im vergleich zum g80.

Das nv die preise des g80 dann senken wird, wäre die logische konsequenz, ich hoffe sehr darauf :)

Hvoralek
2006-11-30, 22:43:02
Was hat das SI mit der Leistung in höheren Auflösungen zu tun? Wird die Bandbreite im Verhältnis zu den Füllraten in hohen Auflösungen wichtiger? :confused:

Moment: Bei einem USC dürfte es da einen leichten Effekt geben. Die Anforderungen an die Geometrieleistung steigen bei höheren Auflösungen nicht an, deswegen steigen die an die Arithmetikleistung nicht ganz linear.

Ailuros
2006-12-01, 01:10:00
Was hat das SI mit der Leistung in höheren Auflösungen zu tun? Wird die Bandbreite im Verhältnis zu den Füllraten in hohen Auflösungen wichtiger? :confused:

Moment: Bei einem USC dürfte es da einen leichten Effekt geben. Die Anforderungen an die Geometrieleistung steigen bei höheren Auflösungen nicht an, deswegen steigen die an die Arithmetikleistung nicht ganz linear.

Ich hab zwar den zweiten Paragraphen immer noch nicht verstanden aber wenn Du mitberechnest dass in sehr shaderlastigen Faellen AF nur noch einen minimalen Unterschied macht und AA heftig auf den Speicher und die Bandbreite in hohen Aufloesungen haut, dann profitiert natuerlich eine solche GPU unter den richtigen Vorraussetzungen von zusaetzlicher Bandbreite dann schon:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=336351

Ailuros
2006-12-01, 01:27:29
Naja zum ersten glaube ich nicht, das man eine GTO einfach so nachschieben kann, ohne einen die-shrink oder nochmal ein redesign vorzunehmen. Der aktuell g80 läuft ja ziemlich auf kante. Die andere sache ist die, das ein performance unterschied von sagen wir mal 20% dafür reichen würde. Ein anderer punkt wäre noch, das hardware freaks sich bestimmt am (falls es denn kommen sollte) 512 bittigen speicherinterface aufgeilen werden. Wenn er wirklich 512 bit verpasst bekommt, wird die karte ein ähnliches auflösungsmonster wie der r520/580. Natürlich nicht so krass wie im vergleich zum g70/71 aber dennoch sollte das einen guten performance gain überhalb von 1920er auflösungen bringen im vergleich zum g80.

Das nv die preise des g80 dann senken wird, wäre die logische konsequenz, ich hoffe sehr darauf :)

Nur liefert Dir ~35% mehr Bandbreite nicht auch unbedingt ~35% mehr Leistung. Es spielen viel mehr Faktoren mit und dafuer muesste sich die G80 erstmal verdammt Bandbreiten-limitiert zeigen.

Fear 2048*1536 / 4xAA/16xAF

575/900MHz = 54 fps
575/1000MHz = 56 fps

Ergo bekomm ich in diesem Fall fuer eine Steigerung von 11% and Bandbreite, eine zusatzliche Leistung von <4%.

Jetzt sagt mir natuerlich gleich jemand mehr AA samples; nun gut in der Aufloesung schafft die G80 maessige 25 fps mit vollem 8xQ Multisampling. Nun setzt mal 30 oder sogar 50% auf das Zeug auf und sag mir ob es immer noch spielbar ist. Was ATI eher braucht ist eine effektive Antwort auf Coverage sampling; jemand koennte diese modi als "half-assed" bezeichnen aber das End-Resultat ist ausgezeichnet effektiv fuer die gelieferte Leistung.

Das alles soll nur heissen dass das Endresultat von R600 nicht ein paar einfache Rechnungen bestimmen werden, sondern ein ziemlich kompliziertes Buendel an Effizienz-Steigerungen die aber nicht nur alleine von der Bandbreite abhaengen. Ich weiss dass es womoeglich nicht so gemeint hast, aber mehr Bandbreite sagt mir persoenlich gar nichts.

[](-__-)[]
2006-12-01, 01:41:51
Ich hab zwar den zweiten Paragraphen immer noch nicht verstanden aber wenn Du mitberechnest dass in sehr shaderlastigen Faellen AF nur noch einen minimalen Unterschied macht und AA heftig auf den Speicher und die Bandbreite in hohen Aufloesungen haut, dann profitiert natuerlich eine solche GPU unter den richtigen Vorraussetzungen von zusaetzlicher Bandbreite dann schon:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=336351

Sieht man schön, wenn man folgende Karten vergleicht. 9500 Pro und 9700 Pro.

Ailuros
2006-12-01, 03:02:35
(-__-)[]']Sieht man schön, wenn man folgende Karten vergleicht. 9500 Pro und 9700 Pro.

Wobei diese inwiefern zu D3D10 GPUs relevant sind?

seahawk
2006-12-01, 07:05:38
(-__-)[]']Sieht man schön, wenn man folgende Karten vergleicht. 9500 Pro und 9700 Pro.

Kein sinnvoller Vergleich, da der 9500PRo eine beschnittene 9700pro ist. Der Banbdbreitenmangel wurde bewußt zur Leistungsdifferenzierung genutzt.

dreas
2006-12-01, 10:00:13
die 9500 pro gabs auch mit 256bit

mfg dreas

Gast
2006-12-01, 10:06:51
Nein, gab es nicht, eine 9500Pro hat immer ein 128Bit Interface.

dreas
2006-12-01, 11:15:29
Stimmt, hatte ich noch falsch im Hinterkopf
9500 =128/256bit
9500pro=128bit

siehe http://www.3dcenter.de/artikel/2002/10-24_a.php

mfg dreas

AnarchX
2006-12-01, 11:28:12
ATI R600 slated for February launch
Dammit and blast off
http://www.theinquirer.net/default.aspx?article=36106

Ailuros
2006-12-01, 11:37:31
Nichts besonderes; die Treiber schaffen es eben nicht um X Prozent schneller zu sein in 3dfart06 pfff (und ja im gegebenen Fall ist solcher Mist eigentlich nur tragische Ironie weil leider viel zu viele Wert auf diesen Quark legen) :|

seahawk
2006-12-01, 11:53:07
Versteht einer den Inq. eigentlich noch ?

AnarchX
2006-12-01, 12:17:45
ATI R600 to go GDDR-4 only
Good-bye UFO
http://www.theinquirer.net/default.aspx?article=36091

Ailuros
2006-12-01, 12:39:02
Versteht einer den Inq. eigentlich noch ?

Wehe wenn's ihnen darum ginge dass ihre Leser sie auch verstehen werden :biggrin:

DrumDub
2006-12-01, 12:57:19
Wehe wenn's ihnen darum ginge dass ihre Leser sie auch verstehen werden :biggrin: manchmal hab ich das gefühl die sind eh ne satirewebsite und sie verarschen uns alle...

robbitop@work
2006-12-01, 13:25:06
manchmal hab ich das gefühl die sind eh ne satirewebsite und sie verarschen uns alle...
Ich habe das Gefühl, dass es anders rum läuft. So grobe Unwissenheit zu emulieren dürfte durchgängig wirklich schwer sein. IMO ist die authentisch. X-D Die Ingenieure der IHVs oder die Informanten können Fuad und Theo Valich schön verarschen und die schreiben es schön auf. Ich sage nur R520 aka Fudo oder "boom, chaka, laka". Und Fuad bemerkt nicht mal, dass er an der Nase herumgeführt wird und verlacht wird.
Wenigstens kritischer ggü Informationen und offener für Kritik sollten die Leute mal werden (und die Gerüchte 1:1 weiterleiten ohne irgendwelchen Unsinn mit hineinzumischen).

Ailuros
2006-12-01, 13:29:50
Wobei aber auch vielen entgeht dass der Inquirer mit Absicht diverse "Fudos" engagiert. Jemand der wuesste wo es wirklich lang geht wuerden sie sowieso nicht einstellen. Man muss erstmal die gesamte "trash tabloid Philosophie" verstehen koennen, bis man hinter den Sinn/Unsinn solcher Projekte erstmal kommt. Hauptsache man bekommt hits wie man dazu kommt ist sch****egal.

Gaestle
2006-12-01, 15:07:51
Ich habe das Gefühl, dass es anders rum läuft. So grobe Unwissenheit zu emulieren dürfte durchgängig wirklich schwer sein. IMO ist die authentisch. X-D Die Ingenieure der IHVs oder die Informanten können Fuad und Theo Valich schön verarschen und die schreiben es schön auf. Ich sage nur R520 aka Fudo oder "boom, chaka, laka". Und Fuad bemerkt nicht mal, dass er an der Nase herumgeführt wird und verlacht wird.
Wenigstens kritischer ggü Informationen und offener für Kritik sollten die Leute mal werden (und die Gerüchte 1:1 weiterleiten ohne irgendwelchen Unsinn mit hineinzumischen).

Fuad macht es lange genug. Er MUSS es ZWINGEND mitbekommen haben, dass er keine guten Informationen erhält bzw. verarscht wird. So ignorant / vollgekokst kann niemand sein, dass er's nicht schnallt. Ich denke, der Wahnsinn hat Methode und stimme Ailuros zu.

dargo
2006-12-01, 15:35:01
Fear 2048*1536 / 4xAA/16xAF

575/900MHz = 54 fps
575/1000MHz = 56 fps

Ergo bekomm ich in diesem Fall fuer eine Steigerung von 11% and Bandbreite, eine zusatzliche Leistung von <4%.

Könntest du das selbe nochmal in Oblivion testen?
Muss ja nicht so eine extreme Auflösung sein, 1920-er reicht auch. Mich würde mal interessieren ob es bei diesen <4% auch bleibt wenn HDR+AA ins Spiel kommt.

Gast
2006-12-02, 13:13:36
Der R600 soll auf einem QuadFX 10800 Punkte im 06er erreichen.

Godmode
2006-12-02, 13:18:49
Der R600 soll auf einem QuadFX 10800 Punkte im 06er erreichen.

Jetzt müsste man wissen welchen CPU Score QuadFX erreicht um etwas besser vergleichen zu können.

edit:
Bei Computerbase erreicht das QuadFX System 10.674 Punkte im 06er. Leider steht nicht dabei welche Karte verwendet wurde.
http://www.computerbase.de/news/hardware/prozessoren/amd/2006/november/erstes_duell_intel_qx6700_amd_4x4/

AnarchX
2006-12-02, 13:21:56
Jetzt müsste man wissen welchen CPU Score QuadFX erreicht um etwas besser vergleichen zu können.
3800 Punkte erreicht ein QuadFX-Sys mit zwei FX-74:
http://www.hardtecs4u.com/?id=1164819646,36048,ht4u.php

Gast
2006-12-02, 13:31:27
Jetzt müsste man wissen welchen CPU Score QuadFX erreicht um etwas besser vergleichen zu können.

edit:
Bei Computerbase erreicht das QuadFX System 10.674 Punkte im 06er. Leider steht nicht dabei welche Karte verwendet wurde.
http://www.computerbase.de/news/hardware/prozessoren/amd/2006/november/erstes_duell_intel_qx6700_amd_4x4/

Wahrscheinlich der G80, ui das sieht nicht so toll für den R600 aus.

Godmode
2006-12-02, 13:34:47
Wahrscheinlich der G80, ui das sieht nicht so toll für den R600 aus.

Warten wir lieber auf Resultate die wir auch nachprüfen können, bevor wir Schlüsse ziehen!

Gast
2006-12-02, 13:36:39
Warten wir lieber auf Resultate die wir auch nachprüfen können, bevor wir Schlüsse ziehen!

"ui das sieht nicht so toll für den R600 aus"

Damit wollte ich sagen, das der Ersteindruck nicht so toll ist. Das kann sich natürlich noch ändern.

AnarchX
2006-12-02, 13:46:24
R600 kommt ja erst frühestens in zwei Monaten und bis dahin wird man sicherlich noch einiges an den Treibern tun.;)

Gast
2006-12-02, 14:00:49
Wo hat man das Gerücht mit dem R600 und QuadFX denn her *fg* ?

Gast
2006-12-02, 14:10:13
Ist manchmal schon witzig hier ... da schriebt ein Gast 10800 Punkte ohne Quellen usw. und dann kommt "sieht aber nicht gut aus" rofl.

Flamehaze
2006-12-02, 14:14:42
Wo hat man das Gerücht mit dem R600 und QuadFX denn her *fg* ?

Von Beyond3D aus dem R600 Speku Thread.

Gast
2006-12-02, 14:58:08
@ Flamehaze

danke !

w0mbat
2006-12-02, 17:09:17
Der R600 soll auf einem QuadFX 10800 Punkte im 06er erreichen.

Lol, nichtmal die Gerüchte kannst du richtig lesen. Die 10800 Pkt. im 3DMark06 sollen mit einem FX62 entstanden sein und nicht mit QuadFX.

Gast
2006-12-02, 17:36:39
Lol, nichtmal die Gerüchte kannst du richtig lesen. Die 10800 Pkt. im 3DMark06 sollen mit einem FX62 entstanden sein und nicht mit QuadFX.

Nach B3D war es ein QuadFX.

w0mbat
2006-12-02, 17:58:51
Nein, lese nochmal genau. Laut B3D war es ein FX62.

Gast
2006-12-02, 18:05:25
Naja Razor1 im Rage3d meinte es wäre ein Quad-FX denn ansonsten hätte man es nicht verheimlicht.

w0mbat
2006-12-02, 18:07:53
Er hat mit der Sache aber nichst zu tun.

Gast
2006-12-02, 19:09:45
3DMark06 ist nun zwar nicht Mega-Aussagekräftig, aber wenn der Wert von 10800 stimmt, dann wird der R600 nicht alles im High-End-Bereich dominieren.

Bin echt mal gespannt wenn das NDA fällt.

dargo
2006-12-02, 21:49:38
3DMark06 ist nun zwar nicht Mega-Aussagekräftig, aber wenn der Wert von 10800 stimmt, dann wird der R600 nicht alles im High-End-Bereich dominieren.

Wieso? Wenn die 10800P wirklich mit einem FX62 erreicht wurden wäre das Ergebnis hervorragend. Ein FX62 sollte nur ~2000P im CPU-Bench erreichen.

Gast
2006-12-03, 01:44:12
Wieso? Wenn die 10800P wirklich mit einem FX62 erreicht wurden wäre das Ergebnis hervorragend. Ein FX62 sollte nur ~2000P im CPU-Bench erreichen.

Für den Mega-Chip, für den er gehandelt wird, wäre das jetzt aber noch dominieren... momentan habe ich nen Conroe 6600 mit ner 8800GT und habe "schon" 11300. Zumal man noch nichts von der BQ weiss, denn da hat nVIDIA enorm vorgelegt. Versteh mich nicht falsch, die 8800 ist meine erste nVIDIA seit langem und ich würde lieber auf ATi setzen, aber wenn die werte stimmen wüsste eich momentan noch nicht warum... wenn ATi neue AA/AF Modi einführt die genial sind, dann ändere ich natürlich meine Meinung :)

LovesuckZ
2006-12-03, 01:48:33
Wieso? Wenn die 10800P wirklich mit einem FX62 erreicht wurden wäre das Ergebnis hervorragend. Ein FX62 sollte nur ~2000P im CPU-Bench erreichen.

Ca. 9% (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/page4.asp) mehr als eine GTX.
Nicht gerade hervorragend.

AnarchX
2006-12-03, 08:02:38
What kind of clockspeed do you guys expect? Do you think we will see different kind of clocks for different parts of the chip like nvidia did with g70,g80 or a more tradditional approach as ati did in the past?

I'm hearing 750, and no clock domains.
http://www.beyond3d.com/forum/showthread.php?t=34676&page=50

Superheld
2006-12-03, 08:23:52
100 davon abziehen das wäre realistisch:smile:

boxleitnerb
2006-12-03, 08:52:30
Irgendwann muss sich dieses Intrinsic Fast14 oder wie sich das nennt, auch mal auszahlen ;)

dargo
2006-12-03, 09:40:29
Ca. 9% (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/page4.asp) mehr als eine GTX.
Nicht gerade hervorragend.
Man darf aber auch nicht vergessen, dass die Treiber noch ca. 2 Monate Zeit zum reifen haben und der Preis im Endeffekt es regeln wird. Sollte der R600 ca. 50-70€ weniger kosten und der Rest passen wäre das für mich entscheidend. Aber der Preis ist noch Zukunftsmusik.

LovesuckZ
2006-12-03, 10:07:47
Man darf aber auch nicht vergessen, dass die Treiber noch ca. 2 Monate Zeit zum reifen haben und der Preis im Endeffekt es regeln wird. Sollte der R600 ca. 50-70€ weniger kosten und der Rest passen wäre das für mich entscheidend. Aber der Preis ist noch Zukunftsmusik.

Das trifft alles wunderbar auch auf den G80.
Und mit dem "Rest", es gibt bis auf dem IDLE - Stromverbrauch nichts, was der r600 besser machen könnte.

Gast
2006-12-03, 10:40:51
Das trifft alles wunderbar auch auf den G80.
Und mit dem "Rest", es gibt bis auf dem IDLE - Stromverbrauch nichts, was der r600 besser machen könnte.

Sicher kann man da was besser machen, oder meinst du der G80 ist das Ende der Fahnenstange. Zugegeben,der G80 ha einen ordentlichen Sprung gemacht, aber deshalb ist er nicht auf immer und ewig das non plus ultra.

reunion
2006-12-03, 10:44:07
Und mit dem "Rest", es gibt bis auf dem IDLE - Stromverbrauch nichts, was der r600 besser machen könnte.

Das kannst du doch momentan noch gar nicht beurteilen. Wie gut/schlecht ein Produkt ist, wird maßgeblich von der Konkurrenz bestimmt.

dargo
2006-12-03, 10:46:23
Das trifft alles wunderbar auch auf den G80.
Und mit dem "Rest", es gibt bis auf dem IDLE - Stromverbrauch nichts, was der r600 besser machen könnte.
Und genau das ist für mich wichtig. Deswegen hoffe ich, dass ATI es wenigstens gebacken bekommt.

LovesuckZ
2006-12-03, 10:47:01
Wie gut/schlecht ein Produkt ist, wird maßgeblich von der Konkurrenz bestimmt.

Noe, bestimmt nicht.
Dann hätte einige Produkte nie den Status erreicht, welchen sie heute haben (VHS, Playstation 2).

reunion
2006-12-03, 10:54:31
Noe, bestimmt nicht.
Dann hätte einige Produkte nie den Status erreicht, welchen sie heute haben (VHS, Playstation 2).

Ich sehe da jetzt keine Widerspruch. Diese Produkte waren eben in gewissen Dingen der Konkurrenz voraus, und sei es nur in punkto Image, Preis, oder was auch immer.

AnarchX
2006-12-03, 10:56:00
100 davon abziehen das wäre realistisch:smile:
750MHz als Taktziel halte ich durchaus realistisch für den R600, wenn es keine eigene Domain für die Shader gibt(irgendwie muss man ja die Leistung erreichen), zudem folgt es der Philosophie von ATI in den letzten Jahren.

Aber, dass diese Strategie auch daneben gehen kann, haben sie schon mit RV410 und R520 bewiesen.

Da kann man ATi nur die Daumen drücken, dass R600 nicht solche Probleme haben wird.

LovesuckZ
2006-12-03, 10:59:16
Diese Produkte waren eben in gewissen Dingen der Konkurrenz voraus, und sei es nur in punkto Image, Preis, oder was auch immer.

Abgesehen vom VHS (ich bin zu Jung und hörte nur Legenden) hatte die PS2 nun keinen Vorteil gegenüber dem Dreamcast und den restlichen Next-Gen Konsolen und wurde trotzdem zur Zeit verkauftesten Konsole.
Wenn du das Image ansprichst, sehe ich klare Vorteile für den G80 statt den r600.

BiG OnE
2006-12-03, 11:12:35
Moin, moin

Wenn du das Image ansprichst, sehe ich klare Vorteile für den G80 statt den r600.
und wärst Du so gütig uns zu erklären welche es denn wären?

Bis denne ...

reunion
2006-12-03, 11:14:47
Abgesehen vom VHS (ich bin zu Jung und hörte nur Legenden) hatte die PS2 nun keinen Vorteil gegenüber dem Dreamcast und den restlichen Next-Gen Konsolen und wurde trotzdem zur Zeit verkauftesten Konsole.
Wenn du das Image ansprichst, sehe ich klare Vorteile für den G80 statt den r600.

Der Name Playstation war damals eben der Inbegriff für eine "coole" Spielekonsole. Sony ist es gelungen, Mängel durch ein geschicktes Marketing auszugleichen. Wo du jetzt den Imagevorteil des G80 siehst, ist mir zwar schleierhaft, allerdings ist es natürlich eine Binsenweisheit, dass sich nicht immer das technisch bessere Produkt durchsetzt.

Armaq
2006-12-03, 11:20:29
Wenn der R600 auf den Markt kommt, hat der G80 eine ganz andere Marktpräsenz erreicht. Wie ich schonmal erwähnte, AMD sollte so langsam eine offensivere Vermarktungsstrategie der kommenden Generation anleiern, es sei denn ihr Produkt bringt nicht die erhofften Leistungsdaten ...

Gast
2006-12-03, 11:43:55
Ich habe das Gefühl, dass es anders rum läuft. So grobe Unwissenheit zu emulieren dürfte durchgängig wirklich schwer sein. IMO ist die authentisch.

Schön gesagt.


Q

Gast
2006-12-03, 11:55:28
Wo du jetzt den Imagevorteil des G80 siehst, ist mir zwar schleierhaft,[...]
Image ist eine subjektive Produkt- oder Markeneigenschaft. Unter dieser Voraussetzung könnte folgendes dem G80 zum Vorteil werden: Gegen die Konkurrenz zum Launch sieht das Ding einfach nur mordsschnell aus (50% und mehr Vorsprung sind die Regel).

Wenn der R600 herauskommt, wird er vermutlich nicht so stark vorlegen können - sicher wird er mindestens hier und da mal 20% schneller als G80 sein, aber an ein "doppelt so schnell" glaube ich ehrlich gesagt nur in ziemlich konstruierten Situationen.

Und wenn der Termin im Februar stimmt, hat der G80 bis dahin Zeit, sich mit diesem Image ("doppelt so schnell") in den Köpfen festzusetzen.


Q

Ailuros
2006-12-03, 13:01:27
Doppelt so hohe Leistung und Bildqualitaet im Vergleich zu NV's eigenen Vorgaengern.

Ich frage immer noch was genau R600 haben soll um G80 den Teppich unter den Fuessen wegzureissen; etwas mehr Leistung oder ein hypothetischer 512bit bus scheinen das Ganze nicht reissen zu koennen. Ich unterschaetze ATI natuerlich nicht und hoffe dass siw auch etwas "exotisches" im AA-Algorithmus Bereich gerissen haben, aber man braeuchte schon etwas mehr als etwas vergleichbares. NVIDIA ist eben diesmal nicht auf nur 4x MSAA steckengeblieben.

Anfang 2007 wird sich dann jeglicher HW-Enthusiast (der sich noch nicht entschieden hat fuer D3D10) hinsetzen koennen und Vor- bzw. Nachteile jeder Seite auswiegen. Die Frage ist wohl eher ob die heutigen G80 Besitzer ihre GPUs verkaufen werden um schnell umzusteigen und ja natuerlich ausserhalb dieser die IHVs als Religion ansehen.

Beim R520 vs. G70 haette ich noch ein paar sehr wichtige Gruende finden koennen (obwohl das Ganze um einiges mehr beim R580 ausgepraegt war). Die eigentliche Frage ist ob es noch Luftraum gibt diesmal aehnliches zu wiederholen.

Gast
2006-12-03, 13:08:33
Wo du jetzt den Imagevorteil des G80 siehst, ist mir zwar schleierhaft,[...]

Erster Chip mit Unified Shader, der wirklich in der Öffentlichkeit steht (PCGames, Gamestar, PCPowerplay, Egames...).
Erster Chip mit SM4 Unterstützung.
Doppelte Leistung mit überragender Bildqualität.
Verdammt leiser Lüfter und eine hervorragende Lieferbarkeit seit dem ersten Tag.
Das alles sind Punkte, welche in positiver Weise im gedächtnis bleiben.
Wenn der r600 kommt, ist er eben nur zweiter. Und solange wie er nicht deutlich schneller ist, wird er immer daran zu knabbern haben.
Viele Dinge besser machen, wird er wohl nicht können.

LovesuckZ

deekey777
2006-12-03, 13:22:45
Das trifft alles wunderbar auch auf den G80.
Und mit dem "Rest", es gibt bis auf dem IDLE - Stromverbrauch nichts, was der r600 besser machen könnte.
Vielleicht funktionierende D3D10-Treiber?:biggrin:
Oder gibt's die schon?
100 davon abziehen das wäre realistisch:smile:
Dann wären wir wieder bei 650 MHz. :|
Irgendwann muss sich dieses Intrinsic Fast14 oder wie sich das nennt, auch mal auszahlen ;)
Ich glaub, dafür ist es noch zu früh, vielleicht bei der nächsten Generation.

Ailuros
2006-12-03, 13:29:12
Ich darf zwar nicht sagen wann die ersten Vista Treiber verfuegbar sein werden, aber es wird mir doch keiner erwarten dass NV bis dahin immer noch keine relevanten Treiber geliefert hat oder?

LovesuckZ
2006-12-03, 16:38:32
Vielleicht funktionierende D3D10-Treiber?:biggrin:
Oder gibt's die schon?


Mir reichen schon funktionierende "XP" Treiber. :biggrin:
Ansonsten gibt es ja auch noch nicht Vista zu kaufen.

Gast
2006-12-04, 08:38:47
R600 is gonna be da beast.

Expect 50% more GFlops/s and 50% more bandwith with an 512But external Bus an a 1024 bit internal advanced Ringbus. The rumored 3DMark score is wrong and not typical for a production modell. Should be fake or taken on one of the pre-series GPUs.

Pele is gonna blow G80 out of the water.

Gast
2006-12-04, 08:41:32
Nur wann? Wenn der G80-Nachfolger bereits erschienen ist? ;)

Gast
2006-12-04, 14:52:20
R600 is gonna be da beast.

Expect 50% more GFlops/s and 50% more bandwith with an 512But external Bus an a 1024 bit internal advanced Ringbus. The rumored 3DMark score is wrong and not typical for a production modell. Should be fake or taken on one of the pre-series GPUs.

Pele is gonna blow G80 out of the water.

Naja das bezweifle ich mal...

Scose
2006-12-04, 15:48:31
Naja das bezweifle ich mal...

Ich auch, aber schön wärs trotzdem.

Mehr Leistung und BQ ist immer gut und solange sich die beiden gegenseitig
immer weiter Pushen kann's mir nur recht sein.

Nv hat mit dem G80 ordentlich vorgelegt und wenn ATI kontern kann gut so.

Demirug
2006-12-04, 15:55:27
Vielleicht funktionierende D3D10-Treiber?:biggrin:
Oder gibt's die schon?

Gibt es schon ein DX SDK das mit Vista RTM funktioniert? ;)

Ailuros
2006-12-04, 20:28:14
http://www.theinquirer.net/default.aspx?article=36141

Ailuros
2006-12-04, 20:31:15
R600 is gonna be da beast.

Expect 50% more GFlops/s and 50% more bandwith with an 512But external Bus an a 1024 bit internal advanced Ringbus. The rumored 3DMark score is wrong and not typical for a production modell. Should be fake or taken on one of the pre-series GPUs.

Pele is gonna blow G80 out of the water.

Boom shaka laka boom boom ;D

Godmode
2006-12-04, 20:39:42
Boom shaka laka boom boom ;D

Etwas genauer bitte!:rolleyes:

StefanV
2006-12-04, 20:47:53
Etwas genauer bitte!:rolleyes:
Das war eine Anspielung auf einen Inquierer Artikel, wo die genannten Begriffe als Codenamen für R600 Derivate benutzt wurden.

Ailuros
2006-12-04, 21:01:52
Na wenn ich schon "Pele" lese dann muss ich nur lachen. Die 50% mehr GFLOPs enstanden wie folgend:

G80 = 128 * 2 FLOPs (fehlende MUL wird nicht mitgerechnet) *1.35GHz = 346GFLOPs/s

R600 (wird geschaetzt auf) = =/>500GFLOPs

=/>45% Unterschied

Die brennende Frage ist dann eben warum die G80 zumindest zweimal so schnell ist als G71 mit ihren 250GFLOPs (nur 38% mehr GFLOP Durchbruch) oder warum sie eine R580 versaegt mit ihren 400GFLOPs; ach ja die 30% mehr Bandbreite zur R580+ muss wohl den Unterschied machen LOL :biggrin:

Gast
2006-12-04, 21:04:01
http://www.theinquirer.net/default.aspx?article=36141

aber das will doch wirklich keiner wissen, imo :(

Ailuros
2006-12-04, 21:06:46
aber das will doch wirklich keiner wissen, imo :(

Es passt sehr wohl ins Thema da D3D10 Vista Treiber als Vorteil fuer den R600 noch auf dieser Seite erwaehnt wurde. Ob Du das wissen willst oder nicht ist ein anderes Kapitel, ausser Du sprichst hier fuer alle Leser.

Gast
2006-12-04, 21:26:22
Es passt sehr wohl ins Thema da D3D10 Vista Treiber als Vorteil fuer den R600 noch auf dieser Seite erwaehnt wurde. Ob Du das wissen willst oder nicht ist ein anderes Kapitel, ausser Du sprichst hier fuer alle Leser.

hat mit dem R600 trotzdem nicht wirklich was zu tun. respekt möchte ich deinem fachwissen zollen, allerdings gibst du leider oft marketing-gebashe pro NV ab, um es mit äußerungen wie "natürlich unterschätze ich (?) ati nicht", unscheinbar zu mildern. man könnte beinahe annehmen, du bist von NV engagiert worden, um NVs vormachtstellung insbesondere im gpu-markt/bereich, in diversen foren zu untermauern. vielleicht beziehst du deine infos bez. des R600 direkt von NV ?! (das war jetzt ironisch gemeint, sorry!) Und - meine aussage ist als rein subjektiv zu bewerten, von daher alles imo :)!

Ailuros
2006-12-04, 21:59:32
hat mit dem R600 trotzdem nicht wirklich was zu tun.

Was aber nur Deine Meinung bleibt. Es war nur ein Link als Antwort auf 2-3 vorige Posts nicht ausschliesslich von mir und hoppla schon verschwendet man Bandbreite fuer sinnlose Haarspaltereien.

respekt möchte ich deinem fachwissen zollen,

...das sowieso nur sehr leicht ueber dem Durchschnitt bin, denn ich hab schon oefters betont dass ich nur ein Laie bin.

allerdings gibst du leider oft marketing-gebashe pro NV ab, um es mit äußerungen wie "natürlich unterschätze ich (?) ati nicht", unscheinbar zu mildern.

Es tut mir aufrichtig leid wenn ich den feuchten Traeumen mancher kein Glueck schenken kann, denn ich erwarte und weiss dass R600 im Durchschnitt keine bombastischen Unterschiede zeigen wird. Wenn fuer Dich eine solche Ernuechterung keinen Zweck haben sollte, dann entschuldige aber es wird sich trotzdem nichts aendern.

man könnte beinahe annehmen, du bist von NV engagiert worden, um NVs vormachtstellung insbesondere im gpu-markt/bereich, in diversen foren zu untermauern. vielleicht beziehst du deine infos bez. des R600 direkt von NV ?! (das war jetzt ironisch gemeint, sorry!)

Muss der Grund sein warum ich immer noch ausgezeichnete Beziehungen zu ATI habe; nicht dass es irgend einen interessieren sollte aber eins der ATI Interviews hier auf 3Dcenter wurde durch meine eigenen e-mail box geschlaeusst. Damit ich erstmal meine Klappe aufmache, hab ich auch ein paar mehr Kleinigkeiten als im Durchschnittsfall und ja garantiert ist zwar nichts, aber die Chancen tendieren eher auf nicht zu grandiose Unterschiede. Und ja ich hab mehr als nur gerne bei solchen Sachen Unrecht, denn ich kann - im Gegensatz zu vielen anderen - einsehen dass feiste Konkurrenz zu meinem besten Interesse ist.

Und - meine aussage ist als rein subjektiv zu bewerten, von daher alles imo :)!

Es ist mir schon klar dass es fuer jede "Wahrheit" zich Versionen und Interpretationen gibt. Dabei steht Dir natuerlich frei diese je nach Deinen eigenen Bevorzugungen oder je nachdem was Du gerade lesen willst, solche Dinge zu interpretieren.

Wuerde ich wirklich nach irgend welchen merkwuerdigen "Interessen" operieren, wuerde ich viel mehr und um einiges verdrehte Realitaeten andeuten. Es gibt ein paar Kleinigkeiten ueber R600 die das breite Publikum nicht unbedingt wissen muss, denn es wird dann wieder falsch interpretiert und man erwartet einen FLOP. Ein Flop ist er garantiert nicht aber auch kein "G80-Killer". Auf jeden Fall such Dir Dein eigenes Gift aus.

Gast
2006-12-04, 22:09:07
Was aber nur Deine Meinung bleibt. Es war nur ein Link als Antwort auf 2-3 vorige Posts nicht ausschliesslich von mir und hoppla schon verschwendet man Bandbreite fuer sinnlose Haarspaltereien.



...das sowieso nur sehr leicht ueber dem Durchschnitt bin, denn ich hab schon oefters betont dass ich nur ein Laie bin.



Es tut mir aufrichtig leid wenn ich den feuchten Traeumen mancher kein Glueck schenken kann, denn ich erwarte und weiss dass R600 im Durchschnitt keine bombastischen Unterschiede zeigen wird. Wenn fuer Dich eine solche Ernuechterung keinen Zweck haben sollte, dann entschuldige aber es wird sich trotzdem nichts aendern.



Muss der Grund sein warum ich immer noch ausgezeichnete Beziehungen zu ATI habe; nicht dass es irgend einen interessieren sollte aber eins der ATI Interviews hier auf 3Dcenter wurde durch meine eigenen e-mail box geschlaeusst. Damit ich erstmal meine Klappe aufmache, hab ich auch ein paar mehr Kleinigkeiten als im Durchschnittsfall und ja garantiert ist zwar nichts, aber die Chancen tendieren eher auf nicht zu grandiose Unterschiede. Und ja ich hab mehr als nur gerne bei solchen Sachen Unrecht, denn ich kann - im Gegensatz zu vielen anderen - einsehen dass feiste Konkurrenz zu meinem besten Interesse ist.



Es ist mir schon klar dass es fuer jede "Wahrheit" zich Versionen und Interpretationen gibt. Dabei steht Dir natuerlich frei diese je nach Deinen eigenen Bevorzugungen oder je nachdem was Du gerade lesen willst, solche Dinge zu interpretieren.

Wuerde ich wirklich nach irgend welchen merkwuerdigen "Interessen" operieren, wuerde ich viel mehr und um einiges verdrehte Realitaeten andeuten. Es gibt ein paar Kleinigkeiten ueber R600 die das breite Publikum nicht unbedingt wissen muss, denn es wird dann wieder falsch interpretiert und man erwartet einen FLOP. Ein Flop ist er garantiert nicht aber auch kein "G80-Killer". Auf jeden Fall such Dir Dein eigenes Gift aus.

du wirst es nicht glauben, aber selbst ich denke, im schnitt werden es so max. 5% sein, um welche sich die ATI bei gleicher BQ, absetzen kann - bei derzeit aktueller software - und trotz 512-Bit SI. daraus werden jedoch einige ein vernichtendes urteil dem R600 bescheinigen, selbst wenn das preis/leistungsverhältnis noch im rahmen bleibt.

deekey777
2006-12-04, 22:12:11
aber das will doch wirklich keiner wissen, imo :(
Wie wär's, wenn du einfach die letzten Postings genau durchliest, bevor du so etwas schreibst?
Das trifft alles wunderbar auch auf den G80.
Und mit dem "Rest", es gibt bis auf dem IDLE - Stromverbrauch nichts, was der r600 besser machen könnte.
Vielleicht funktionierende D3D10-Treiber?:biggrin:
Oder gibt's die schon?


http://www.theinquirer.net/default.aspx?article=36141
---------------------------
Es passt sehr wohl ins Thema da D3D10 Vista Treiber als Vorteil fuer den R600 noch auf dieser Seite erwaehnt wurde. Ob Du das wissen willst oder nicht ist ein anderes Kapitel, ausser Du sprichst hier fuer alle Leser.
Dir ist schon klar, dass ich etwas rumgeblödelt habe? :wink:
Trotzdem: Jetzt ist dein Schema klar. Wenn du etwas weißt, es aber nicht sagen darfst, sagst du auch nicht. Wenn aber TheInq irgendwas schreibst, was sich mit deinen Kenntnissen überschneidet (worüber du weiterhin nicht sprechen darfst), verlinkst du einfach darauf. Ergo: Wenn du malwieder etwas vom Inquirer hier verlinkst, dann kann man davon ausgehe, dass diese News ihre Daseinberechtigung hat. :)

Ailuros
2006-12-04, 22:14:20
5% ist zu wenig ;)

TheGood
2006-12-04, 22:14:59
Ich weiss nicht wo das problem ist. Wer erwarteast dass der r600 50% schneller als der G80 ist kann doch nicht ganz klar sein?!
Es war und ist zu 90% so dass sich die beiden IHVs nichts schenken, von daher ist der R600 weder flop noch sonstwas. Er wird sich genau neben dem G80 einordnen..

dargo
2006-12-04, 23:25:48
Es gibt ein paar Kleinigkeiten ueber R600 die das breite Publikum nicht unbedingt wissen muss, denn es wird dann wieder falsch interpretiert und man erwartet einen FLOP. Ein Flop ist er garantiert nicht aber auch kein "G80-Killer". Auf jeden Fall such Dir Dein eigenes Gift aus.
Jetzt müsste man nur wissen was du unter einem "G80-Killer" verstehst. :uponder:
10, 20 oder sogar 30%? ;D

PS: 5% sind es schon mal nicht. :rolleyes:

Godmode
2006-12-04, 23:30:24
Jetzt müsste man nur wissen was du unter einem "G80-Killer" verstehst. :uponder:
10, 20 oder sogar 30%? ;D

PS: 5% sind es schon mal nicht. :rolleyes:

Ich könnte mir gut vorstellen das der R600 schneller ist, aber die Bildqualität etwas schlechter ist.

Ich bin recht verwundert das überhaupt keine Zahlen nach außen dringen!

dargo
2006-12-04, 23:38:21
Ich könnte mir gut vorstellen das der R600 schneller ist, aber die Bildqualität etwas schlechter ist.

Was verstehst du unter schlechter? Das AF?
Ich kann mir nicht vorstellen, dass der R600 ein schlechteres AF wie das HQ-AF des R5x0 bieten wird. Eher das Gegenteil sollte man erwarten.

Godmode
2006-12-04, 23:41:16
Was verstehst du unter schlechter? Das AF?
Ich kann mir nicht vorstellen, dass der R600 ein schlechteres AF wie das HQ-AF des R5x0 bieten wird. Eher das Gegenteil sollte man erwarten.

Sicher nicht schlechter als R5xx AF, aber vielleicht nicht ganz so hochwertig wie beim G80. Und beim AA haben sie vieleicht nicht soviele Samples. Irgendwo muss doch gesparrt werden, oder?

san.salvador
2006-12-04, 23:57:05
Sicher nicht schlechter als R5xx AF, aber vielleicht nicht ganz so hochwertig wie beim G80. Und beim AA haben sie vieleicht nicht soviele Samples. Irgendwo muss doch gesparrt werden, oder?
Wieso? Warum sollte der R600 nicht die selbe Bildqualität bieten können wie der G80?

Ailuros
2006-12-04, 23:57:11
Jetzt müsste man nur wissen was du unter einem "G80-Killer" verstehst. :uponder:
10, 20 oder sogar 30%? ;D

PS: 5% sind es schon mal nicht. :rolleyes:

R300 war ein NV30 Killer.

Ailuros
2006-12-04, 23:59:29
Was jetzt die Bildqualitaet betrifft, der Pegel auf R5x0 fuer AF ist hoch genug dass ATI selbst damit ausgezeichnet konkurrieren kann.

dargo
2006-12-05, 00:00:33
Wieso? Warum sollte der R600 nicht die selbe Bildqualität bieten können wie der G80?
Das würde mich auch mal interessieren wie man zu der Erkenntnis kommt, dass der R600 zwar etwas schneller sein kann, dafür aber bei der BQ etwas schlechter sein muss. :|

Was jetzt die Bildqualitaet betrifft, der Pegel auf R5x0 fuer AF ist hoch genug dass ATI selbst damit ausgezeichnet konkurrieren kann.
Ja, aber der Leistungseinbruch mit 16xHQ-AF ist je nach Spiel nicht so schön wie beim G80. Wenigstens das sollte sich verbessern.

deekey777
2006-12-05, 00:04:46
Wieso? Warum sollte der R600 nicht die selbe Bildqualität bieten können wie der G80?
Das hängt immer davon ab, was man unter Bildqualität versteht.
http://www.rage3d.com/reviews/video/nvidia8800/af.php

Ailuros
2006-12-05, 00:11:19
Ja, aber der Leistungseinbruch mit 16xHQ-AF ist je nach Spiel nicht so schön wie beim G80. Wenigstens das sollte sich verbessern.

Wie gross ist denn der Leistungseinbruch beim R580 mit HQ-AF genau Deiner Meinung nach? Um es mal in die richtige Perspektive zu setzen, AF Leistung ist sowieso nebensaechlich heutzutage. Das einzige was einem Sorgen machen kann sind Speicher- und Bandbreitenverbrauch mit hoher AA-Sampleanzahl. Willst Du Dir das letztere nochmal ueberdenken?

Ailuros
2006-12-05, 00:16:01
Das hängt immer davon ab, was man unter Bildqualität versteht.
http://www.rage3d.com/reviews/video/nvidia8800/af.php

Wobei das Gebaeude hinten links sowohl auf G80 (clamp allow) als auch auf R580 verdammt "toll" flackert heh....

dargo
2006-12-05, 00:19:40
Wie gross ist denn der Leistungseinbruch beim R580 mit HQ-AF genau Deiner Meinung nach? Um es mal in die richtige Perspektive zu setzen, AF Leistung ist sowieso nebensaechlich heutzutage.
Naja, ich kann dir nur das anbieten:

29663

Ailuros
2006-12-05, 00:29:32
Naja, ich kann dir nur das anbieten:

29663

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/8/#abschnitt_aa_und_af_skalierung

Da das Ding von dieser Seite stammt, solltest Du mir eher die ganze Geschichte anbieten, anstatt nur das auswaehlen was gerade passt.

dargo
2006-12-05, 00:33:03
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/8/#abschnitt_aa_und_af_skalierung

Da das Ding von dieser Seite stammt, solltest Du mir eher die ganze Geschichte anbieten, anstatt nur das auswaehlen was gerade passt.
Sorry, dass ich den Link vergessen habe. Ändert aber nichts an der Tatsache, dass der R5x0 verhältnismäßig "stark" in CoD2 mit 16xHQ-AF einbricht.

Ailuros
2006-12-05, 00:43:13
Sorry, dass ich den Link vergessen habe. Ändert aber nichts an der Tatsache, dass der R5x0 verhältnismäßig "stark" in CoD2 mit 16xHQ-AF einbricht.

Wobei CB zwei Spiele benutzt und Du nur auf's eine mit Absicht verlinkst; wahlweise "vergessen" kann ich auch. Komischerweise spielt in Shaderlastigeren Spielen wie FEAR AF eine kleinere Rolle und CoD2 ist nicht gerade ein Spiel dass ich als Exemplar fuer die Zukunft ansehen kann.

So und ich vergesse jetzt auch wahlweise den moeglichen TA/TS Aufbau des R600 anzudeuten LOL :D

dargo
2006-12-05, 00:53:03
Wobei CB zwei Spiele benutzt und Du nur auf's eine mit Absicht verlinkst ...
Natürlich mit Absicht. Ich hatte es ja auch schon hier:
Ja, aber der Leistungseinbruch mit 16xHQ-AF ist je nach Spiel nicht so schön wie beim G80.
und hier:
Ändert aber nichts an der Tatsache, dass der R5x0 verhältnismäßig "stark" in CoD2 mit 16xHQ-AF einbricht.
angedeutet.

Fühlst du dich jetzt dadurch irgendwie angegriffen? :|

Ailuros
2006-12-05, 01:08:13
Natürlich mit Absicht. Ich hatte es ja auch schon hier:

Ja, aber der Leistungseinbruch mit 16xHQ-AF ist je nach Spiel nicht so schön wie beim G80.

Wie schwer glaubst Du wird es mir fallen einen aehnlichen Fall zu finden wo die G80 mit etwa gleichem Prozentual einbricht? Ich hab in meinem eigenen write-up in einem Fall schon fast 20% messen koennen, was soll mir das genau sagen?

Und waehrend Du vergebens versuchst Dich aus Deinem eigenem Schlammasel herauszugraben, erreicht die R580 in 1600 mit 4xAA/16xAF 31 fps im default modus und die G80 40.4 fps in CoD2. Ich schneide Dir gerne 30% fuer HQ der R580 ab und was dabei rauskommt ist dass die G80 quasi 2x mal so schnell ist. Wehe wenn R600 im Vergleich zu R580 nicht aehnliches schaffen wird in diesem oeden Spielchen.

Und dabei bin ich sogar noch grosszuegig denn die G80 laeuft mit "quality" im obrigen Fall und nicht "high quality".

und hier:

angedeutet.

Ändert aber nichts an der Tatsache, dass der R5x0 verhältnismäßig "stark" in CoD2 mit 16xHQ-AF einbricht.

Aendert aber auch nichts an den oben praesentierten Tatsachen was die Spiele der Zukunft betrifft, wobei Fear die andere Haelfte der Tatsache ist.

Fühlst du dich jetzt dadurch irgendwie angegriffen? :|

Mich greift jegliche Form von Bullshit die ich lese an im relativen Sinn. Schau Dir genau alle R580 Leistugszahlen in CoD2 an und dann sag mir wie laecherlich Dein Versuch war:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/15/#abschnitt_call_of_duty_2

Odal
2006-12-05, 02:25:12
naja es ist doch so...das der R600 ein 512Bit speicherinterface bekommt pfeifen die spatzen ja schon von den dächern....

in älteren spielen wird er dem G80 ein ganzes stück unterlegen sein dafür kann er in HDRR spielen so richtig auftrumpfen....
AA war schon immer ein ATIs "spezialgebiet" sowohl was Performance als auch Funktionalität anbelangt. ATI wird wohl endlich mit richtigem SSAA aufwarten und Shader AA anbieten. Das AA wird performanter als beim G80 sein. Dafür bleibt beim AF mehr oder weniger alles beim alten. das R600 AF ist minimal winkelabhängig und nicht so performant. Stört in der Gegenwart relativiert sich mit schwindener Texturlastigkeit aber.

Gast
2006-12-05, 07:01:34
More on Pele :

It will come with 1024MB on board GDDR4 in the XTX version, with 1350MHz clock.

It will have 96 fully 4xMADD capable shading processors much more capable then what G80 has. In fact it could be called a 96x2 architekture. Clockspeed will be 750mhz for the XT a bit more for XTX 800mhz is the target.

It will give you real 12xMSAA, even better AF then R580, better filtering (full tri without much of a performance hit) , better AAA, and a new goddie I can´t talk about.

Coda
2006-12-05, 07:40:05
in älteren spielen wird er dem G80 ein ganzes stück unterlegen sein dafür kann er in HDRR spielen so richtig auftrumpfen....

Woraus schließt du das? Die FP16-Performance von G80 ist hervorragend.

AA war schon immer ein ATIs "spezialgebiet" sowohl was Performance als auch Funktionalität anbelangt.

Ich glaube nur nicht, dass sie was "Funktionalität" angeht diesmal mehr als nVIDIA anbieten können. Und nein, es war nicht schon "immer ATIs Spezialgebiet". Sie hatten bis R200 nicht mal Multisampling.

ATI wird wohl endlich mit richtigem SSAA aufwarten und Shader AA anbieten.

SSAA mag sein, aber allgemeines Shader-AA ist unmöglich. Das ist ein von Maschinen unlösbares Problem.

Das AA wird performanter als beim G80 sein.

Dafür hätte ich auch gerne Quellen. Vor allem wie definierst du "performanter". Es muss erstmal äquivalente Modi geben.

Gast
2006-12-05, 07:40:55
ATI wird wohl endlich mit richtigem SSAA aufwarten und Shader AA anbieten.Wie kommst du denn darauf? ATI soll SSAA bringen? Das glaube ich erst wenn ich es sehe. Wobei es natürlich schon eine feine Sache wäre.

Und was meinst du mit "Shader-AA"? Das ist Sache der ISVs. Mir würde auch spontan nichts einfallen, was ATI da machen könnte.

DrumDub
2006-12-05, 09:36:15
Das hängt immer davon ab, was man unter Bildqualität versteht.
http://www.rage3d.com/reviews/video/nvidia8800/af.php wow. in der realität ist das area-af der r5x0 also immer noch besser als jenes des g80. hätte ich jetzt nicht gedacht...

Gast
2006-12-05, 09:41:21
Ist ja klar, wenn Rage3D das schreibt, dann muss es ja stimmen.

btw, was in der Theorie schlechter ist, kann in der Praxis niemals besser sein.

drmaniac
2006-12-05, 09:44:23
ich kann mir gut vorstellen, dass einige ATI alleine deswegen kaufen werden, weil es dann die erste Karte mit 1GB Videoram (und nein, 2x512MB im SLI zählen hier nicht auch nicht auf einer singel karte :D) ist. Alleine aus technikgeilheit. Hmmmm warum kribbelts jetzt in meine Fingern? :D

Gast
2006-12-05, 09:45:55
wow. in der realität ist das area-af der r5x0 also immer noch besser als jenes des g80. hätte ich jetzt nicht gedacht...

Siehst du mal, so kann man sich täuschen (lassen). Da hat die Nvida-Marketing-Maschinerie und ihre Vasallen von den Printmedien und den meisten Online-Schreibern wieder ganze Arbeit geleistet.

Odal
2006-12-05, 10:21:15
Und was meinst du mit "Shader-AA"? Das ist Sache der ISVs. Mir würde auch spontan nichts einfallen, was ATI da machen könnte.

Dazu werden die ROPs vorgezogen partiell mehrmals durchlaufen.

Gast
2006-12-05, 10:22:21
wow. in der realität ist das area-af der r5x0 also immer noch besser als jenes des g80. hätte ich jetzt nicht gedacht...

ja schon klar,mal Augen auf..... AA? usw.... das Bildchen ist so getürkt wie immer wenn man nicht mehr weiter weiß.....

DrumDub
2006-12-05, 10:35:28
Ist ja klar, wenn Rage3D das schreibt, dann muss es ja stimmen. ich seh nur screenshots. oder meinste die sind manipuliert... :ulol:

btw, was in der Theorie schlechter ist, kann in der Praxis niemals besser sein. tja, anscheinend scheints aber immer noch das lod-problem bei nv zu geben... das hat erstmal nichts mit dem af ansich zu tun. das siehste nämlich nicht in einem af-tester.

sieht man ja auch schön, dass das problem mit dem "negative lod-bias allow" nicht mehr auftritt (keine verschwommen streckebegrenzung im hintergrund). dafür filtert der g80 dann aber im vordergrund schlechter als der r5x0.

ja schon klar,mal Augen auf..... AA? usw.... das Bildchen ist so getürkt wie immer wenn man nicht mehr weiter weiß..... :ulol: genau. deshalb geben die jungs auf rage3d ja auch zu, dass das af des g80 in anderen spielen dem r5x0 überlegen ist: http://www.rage3d.com/reviews/video/nvidia8800/af3.php

in gtr2 ist das area-af des r5x0, dem des g80 überlegen. hätte ich wohl eindeutiger formulieren sollen. aber die fanboys springen natürlich wieder direkt drauf an...

deekey777
2006-12-05, 10:39:37
ja schon klar,mal Augen auf..... AA? usw.... das Bildchen ist so getürkt wie immer wenn man nicht mehr weiter weiß.....
Klar ist alles getürkt, insbesondere wenn die Seite Rage3D heißt.

http://www.rage3d.com/reviews/video/nvidia8800/af4.php

Gast
2006-12-05, 10:42:19
fanboys ?aja..wenn man Bildchen einsetzt um was beweisen zu wollen oder auch nicht..sollte man den G80 Treiber schon so einstellen wie es die möglichkeiten zu lassen.
Die Fanboys sitzen ganz wo anders....oder sollte man schreiben Neider?
Hier gibt es irgendwo Bildchen von einer G80 in GTR2......eigenartig das da Himmelweite Unterschiede bestehen.
Aber lassen wir es und träumt mal schön weiter oder besser gesagt warten wir auf den R600.
Eventuell weine ich dann ja wieder.

Gast
2006-12-05, 10:44:38
Klar ist alles getürkt, insbesondere wenn die Seite Rage3D heißt.

http://www.rage3d.com/reviews/video/nvidia8800/af4.php

Ist doch das selbe in grün..biste blind oder was willst Du?
Und nochmal stell den Treiber doch mal richtig ein....das geht da natürlich nicht denn dann könnte man nix von sich geben....

dargo
2006-12-05, 10:51:28
Mich greift jegliche Form von Bullshit die ich lese an im relativen Sinn. Schau Dir genau alle R580 Leistugszahlen in CoD2 an und dann sag mir wie laecherlich Dein Versuch war:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/15/#abschnitt_call_of_duty_2
Sorry, aber ich finde es überhaupt nicht lächerlich. Ich spreche hier auch nicht von den relativen Zahlen die ein R580 und G80 in CoD2 erreichen sondern nur von der HQ-AF Skalierung in diesem Spiel. Und da man in der Regel bei einer neuen Generation "Schwächen" der Alten beseitigt was soll dagegen sprechen, dass ATI die HQ-AF Performance noch ein Stück verbessert?

Wie schwer glaubst Du wird es mir fallen einen aehnlichen Fall zu finden wo die G80 mit etwa gleichem Prozentual einbricht? Ich hab in meinem eigenen write-up in einem Fall schon fast 20% messen koennen, was soll mir das genau sagen?
Schön. Das zeigt mir nur, dass NV beim G90 noch was am AF verbessern kann.

DrumDub
2006-12-05, 11:16:26
Hier gibt es irgendwo Bildchen von einer G80 in GTR2......eigenartig das da Himmelweite Unterschiede bestehen.
na, dann dürfte es ja nicht so schwer sein den gegenbeweis zu bringen... rumheulen kann jeder.

robbitop@work
2006-12-05, 11:49:13
dass ATI die HQ-AF Performance noch ein Stück verbessert?


Das ist keine Frage der Technik, das ist eine Frage der vorhandenen Texelfüllrate und natürlich dem jeweiligen Flaschenhals im Spiel. Je mehr Pixelshading, desto unbedeutender ist der AF Performance Hit. In UT04 wird übelstes Multitexturing betrieben, da haut es am meisten rein. Bei FEAR nur noch sehr wenig, da dort andere Flaschenhälse sein.

Natürlich verschiebt sich beim G80 bsw aufgrund seiner hohen Texelfüllrate (64 bi Samples pro Takt) das Verhältnis und die AF Kosten im Gegensatz zur R580 (16 bi Samples pro Takt).

Coda
2006-12-05, 13:42:00
wow. in der realität ist das area-af der r5x0 also immer noch besser als jenes des g80. hätte ich jetzt nicht gedacht...

Auf Standbildern kannst du sowas gar nicht beurteilen. Um ein total scharfes Bild zu haben kannst auch den LOD auf -100 stellen und fast jeder wird sagen es sieht besser aus als ein LOD 0 Bild mit reinem trilinearen Filter. In Bewegung willst jenes aber nicht sehen...

Was ich damit sagen will: Von der "Schärfe" einer Bildstelle auf die Qualität eines Texturfilters zu schließen ist ein Trugschluss. Es kann genauso sein dass dort unterfiltert wird.

Dazu werden die ROPs vorgezogen partiell mehrmals durchlaufen.

Die ROPs haben leider nur absolut gar nichts mit den Shadern zu tun.

Das hört sich höchstens danach an, dass ATi das AAA-Verfahren für alle Polygone im Bild zulässt, wodurch natürlich jegliches Flimmern durch das Supersampling geglättet wird. Das ist aber kein "Shader AA", sondern stinknormales Supersampling eben.

Gast
2006-12-05, 13:44:29
Dazu werden die ROPs vorgezogen partiell mehrmals durchlaufen.Kannst du das vielleicht ein wenig näher ausführen? Ich kann mir darunter nichts vorstellen, was dem Namen "Shader-Antialiasing" gerecht wird.

DrumDub
2006-12-05, 14:27:11
Auf Standbildern kannst du sowas gar nicht beurteilen. Um ein total scharfes Bild zu haben kannst auch den LOD auf -100 stellen und fast jeder wird sagen es sieht besser aus als ein LOD 0 Bild mit reinem trilinearen Filter. In Bewegung willst jenes aber nicht sehen...

Was ich damit sagen will: Von der "Schärfe" einer Bildstelle auf die Qualität eines Texturfilters zu schließen ist ein Trugschluss. Es kann genauso sein dass dort unterfiltert wird. schon klar, aber schau dir dennoch die streckenbegrenzung an... das ist defintiv das lod-problem, welches es schon bei n4x/g7x gab... die atis sind einfach für rennspiele besser geeignet...

Vertigo
2006-12-05, 14:28:49
schon klar, aber schau dir dennoch die streckenbegrenzung an... das ist defintiv das lod-problem, welches es schon bei n4x/g7x gab... die atis sind einfach für rennspiele besser geeignet...
Wenn das mal alles wäre ... die gleichen Probleme treten ja auch in allen anderen Spielen auf. Nur fällt es dort nicht so stark auf, da die Kontraste nicht so extrem sind.

Ailuros
2006-12-05, 14:31:24
naja es ist doch so...das der R600 ein 512Bit speicherinterface bekommt pfeifen die spatzen ja schon von den dächern....

Ja und? Ein 256bit Bus waere im Gegensatz Grund zur Unruhe was die zukuenftige RV6xx betrifft. Komischerweise blubbert einer der Gast-Papageien sogar von 1350MHz@512bit. 110-120GB koennte ich ja noch schlucken aber 173GB/sec? Es stimmt vieles nicht am Bullshit das kursiert.

in älteren spielen wird er dem G80 ein ganzes stück unterlegen sein dafür kann er in HDRR spielen so richtig auftrumpfen....

Beide GPUs sind USCs; warum R600 in aelteren Spielen dem G80 unterlegen sein sollte entgeht mir. Was jetzt float HDR betrifft, nein R600 ist zu meinem eigenen Bedauern kein TBDR.

AA war schon immer ein ATIs "spezialgebiet" sowohl was Performance als auch Funktionalität anbelangt.

Wie schon erwaehnt sehe ich nichts dergleichen auf bisherigen chips. Natuerlich verlieren R5x0 chips etwas weniger als G7x aber dass eigentlich wegen ihrem SST, was ebenso Vor- als auch Nachteile haben kann.

ATI wird wohl endlich mit richtigem SSAA aufwarten und Shader AA anbieten.

Nein zu beiden und ja im zweiten Fall ist shader AA leider nur durch die Applikationen moeglich. Geht auf allen GPUs uebrigens ;)


Das AA wird performanter als beim G80 sein.

Ja und nein.

Dafür bleibt beim AF mehr oder weniger alles beim alten. das R600 AF ist minimal winkelabhängig und nicht so performant. Stört in der Gegenwart relativiert sich mit schwindener Texturlastigkeit aber.

Wie schon gesagt; es ist gut genug.

DrumDub
2006-12-05, 14:31:59
Wenn das mal alles wäre ... die gleichen Probleme treten ja auch in allen anderen Spielen auf. Nur fällt es dort nicht so stark auf, da die Kontraste nicht so extrem sind. wobei die filterung bei coh dann schon besser beim g80 aussieht als beim r5x0... letztlich müsste aber wohl jemand mal mit fraps videos machen, um das in echtzeit verglichen zu können, da man ja, wie coda schon richtig bemerkte, af nicht absolut anhand von screenshots beurteilen kann.

Ailuros
2006-12-05, 14:36:40
schon klar, aber schau dir dennoch die streckenbegrenzung an... das ist defintiv das lod-problem, welches es schon bei n4x/g7x gab... die atis sind einfach für rennspiele besser geeignet...

Es gibt auch einen shot mit negative LOD auf "allow"; stoebert mal alle shots genau durch und achtet auf die Kleinigkeiten. Sowohl der "allow"/G80 shot als auch ATI's shot zeigt die gleichen stoerenden Nebeneffekte an anderen Stellen. Keiner der gezeigten Faelle ist ideal, deshalb meckerte ich auch etwas in meinem Artikel dass man solche Faelle eventuell auch anders behandeln koennte.

Die "Klammer" ist kein Problem nur eben eine ziemliche naive Notloesung.

Vertigo
2006-12-05, 14:37:09
wobei die filterung bei coh dann schon besser beim g80 aussieht als beim r5x0... letztlich müsste aber wohl jemand mal mit fraps videos machen, um das in echtzeit verglichen zu können, da man ja, wie coda schon richtig bemerkte, af nicht absolut anhand von screenshots beurteilen kann.
Genau das ist auch das Problem. Auf den Screenshots sieht das alles klasse aus. Und genau die Screenshots sieht man dann auch in Testberichten. Dummerweise spiele ich meine Spiele aber gern in bewegten Bildern ... deswegen flog meine G80 nach 3 Wochen wieder raus und ich überbrücke die Wartezeit nun doch mit dem R580 ...

Ailuros
2006-12-05, 14:39:36
Dazu werden die ROPs vorgezogen partiell mehrmals durchlaufen.

Au weia.....lass lieber die Finger von solchen Einzelheiten....:rolleyes: (und nein ich beziehe mich jetzt nicht auf Deine Kenntnisgrad, aber fuer die R600 ROPs spezifisch).

DrumDub
2006-12-05, 14:42:00
Genau das ist auch das Problem. Auf den Screenshots sieht das alles klasse aus. Und genau die Screenshots sieht man dann auch in Testberichten. Dummerweise spiele ich meine Spiele aber gern in bewegten Bildern ... deswegen flog meine G80 nach 3 Wochen wieder raus und ich überbrücke die Wartezeit nun doch mit dem R580 ... nur wegen des afs? welche spielen spielst du hauptsächlich?

Es gibt auch einen shot mit negative LOD auf "allow"; stoebert mal alle shots genau durch und achtet auf die Kleinigkeiten. Sowohl der "allow"/G80 shot als auch ATI's shot zeigt die gleichen stoerenden Nebeneffekte an anderen Stellen. Keiner der gezeigten Faelle ist ideal, deshalb meckerte ich auch etwas in meinem Artikel dass man solche Faelle eventuell auch anders behandeln koennte. hab ich doch gesehen und auch geschrieben. atis lösung scheint aber gerade in rennspielen wesentlich besser zu sein. haben ja auch andere leute hier im forum bestätigt. insane druid fällt mir da sein.

Die "Klammer" ist kein Problem nur eben eine ziemliche naive Notloesung. schon klar.

Ailuros
2006-12-05, 14:43:55
Je mehr Pixelshading, desto unbedeutender ist der AF Performance Hit. In UT04 wird übelstes Multitexturing betrieben, da haut es am meisten rein.

Leistungsdifferenzen in UT2k4 auf einer G80 wirst Du wohl nicht mehr finden koennen; das Spielchen ist auf dem G80 so verdammt CPU limitiert dass es nicht mehr schoen ist. Es macht genauso viel Sinn wie Quake3 auf heutigen Systemen zu testen ;)

Vertigo
2006-12-05, 14:45:24
nur wegen des afs? welche spielen spielst du hauptsächlich?
Ich werde demnächst mal ein paar Screenshots uploaden, die zeigen, was ich meine. Besonders schlimm war es in Flatout2, RACE, FM06 und GTR2. Dazu kam noch die schwache Performance in Anno1701, die Grafikfehler in Oblivion (alle Reviews haben die Performance über den grünen Klee gelobt, seltsam das keinem dabei die Darstellungsfehler aufgefallen sind ...) und die schlechte Kompatibilität zu älteren Spielen (Tropico). Das hat mir fürs erste gereicht, da nützen mir auch die tollen 3D-Mark-Werte herzlich wenig ...

Okay, erstmal genug OffTopic. ;)

Ailuros
2006-12-05, 14:52:01
hab ich doch gesehen und auch geschrieben. atis lösung scheint aber gerade in rennspielen wesentlich besser zu sein. haben ja auch andere leute hier im forum bestätigt. insane druid fällt mir da sein.

Bildqualitaet ist eine verdammt subjektive Angelegenheit; jegliche Radeon die ich seit R3xx beruehrt habe, hatte konstant den MIP bias mit Absicht auf "quality" eingesetzt was eigentlich +0.5 entspricht. Das alte NFS: Porsche Unleashed sah zum kotzen aus auf jeder Radeon nur weil eben der Idiot an Entwickler sich entschieden hatte auf einigen Strecken einen -3.0 LOD zu benutzen. In Rallisport Challenge haute mir jede Radeon das texturing stage Zeug zurueck ins Gesicht (bis es endlich im R5x0 entfernt wurde) und alle Rennspiele die auf der gleichen engine wie F1 2001 basieren (sind schon zumindest mehr als nur eine Handvoll) brauchen eher unbedingt die hybriden Super-/Multisampling modi weil die Hornochsen von Entwickler nicht wussten wie man anstaendig mipmapping angeht.... usw usw. Welche Rennspiele denn genau? Die Mehrzahl der Dinger hat sowieso bekloppten "content", da helfen selbst die extremsten Massnahmen oefters nicht Seiteneffekte zu beseitigen.

DrumDub
2006-12-05, 16:53:44
Welche Rennspiele denn genau? gtr und gtr2 auf jeden fall. siehe hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4695545#post4695545

da waren aber noch mehr. muss noch mal in ruhe suchen. allerdings sind die entwickler da wohl nicht dran unschuldig, wenn sie mit negativem lod arbeiten. dennoch scheinen die texturfilter des r5x0 einfach anders zu funktionieren, sodass dort keine probelme mit negativem lod auftreten.

Gast
2006-12-05, 17:49:52
More on Pele :

It will come with 1024MB on board GDDR4 in the XTX version, with 1350MHz clock.

It will have 96 fully 4xMADD capable shading processors much more capable then what G80 has. In fact it could be called a 96x2 architekture. Clockspeed will be 750mhz for the XT a bit more for XTX 800mhz is the target.

It will give you real 12xMSAA, even better AF then R580, better filtering (full tri without much of a performance hit) , better AAA, and a new goddie I can´t talk about.

Und was sagt uns das jetzt???
Eine 96x2 Architekur sagt mir nicht viel...kann das jemand aufklären?

Hvoralek
2006-12-05, 18:07:39
naja es ist doch so...das der R600 ein 512Bit speicherinterface bekommt pfeifen die spatzen ja schon von den dächern....R600 wird ja wahrscheinlich Ende Januar oder Anfang Februar vorgestellt. Es sind also noch etwa 6 - 8 Wochen bis zur Veröffentlichung. Was pfiffen die Spatzen so lange im Vorfeld über den G80? Gut, Nvidia hat wohl gezielt Fehlinformationen gesteut, aber wer sagt Dir, dass ATI das nicht auch tut? Ein 512- bit- SI halte ich erst einmal für möglich, und für weniger unwahrscheinlich als bei R520 und G80. Wenn das kurze Zeit vor der Veröffentlichung, vlt zwei Wochen, das eindeutig überwiegende Gerücht ist, ohne dass alle von einer Quelle abgeschrieben hätten, würde ich das langsam für überwiegend wahrscheinlich halten. Aber imM erinnerst Du mich ein bisschen an die Leute, die R520 acht Quads andichten wollten.

in älteren spielen wird er dem G80 ein ganzes stück unterlegen sein dafür kann er in HDRR spielen so richtig auftrumpfen....Du meinst wahrscheinlich wegen der Bandbreite? Wenn ja: Warum liegt dann in Far Cry (http://www.behardware.com/articles/644-13/nvidia-geforce-8800-gtx-8800-gts.html) eine 8800 GTS in FX8 knapp hinter einer X1950XT mit gleicher Bandbreite (64 GiB/s), in FP16 aber 30% vorne (jeweils ohne AA)?

Und warum soll R600 in älteren Spielen langsamer sein? Zu geringe relative Füllrate?

ATI wird wohl endlich mit richtigem SSAA aufwartenWäre überraschend, aber sehr zu begrüßen.

und Shader AA anbieten.Ich kann mich da anderen hier nur anschließen: Was genau soll das sein? Vlt SSAA für jeden Pixel mit irgendeinem Shadereffekt? :biggrin:

Anwendungsgesteuert wahlweise MSAA oder SSAA kann mW auch G80. Ich glaube aber nicht, dass sich viele Entwickler die Arbeit machen werden, festzulegen, wann was gemacht werden soll.

Entschuldige bitte, wenn ich nicht annehmen kann, Du hättest irgendwelche wirklich glaubwürdigen Quellen und Dich weiter in Richtung Gouvernator und gegenüber von Invisible in die Fanatikerecke schiebe :wink:

Eine 96x2 Architekur sagt mir nicht viel...kann das jemand aufklären?Nimmst Du den Typen ernst? Wenn der wirklich etwas zu sagen hätte, was er nicht offen sagen darf, würde er es eher jemandem ins Ohr flüstern, der diskret ist, aber glaubwürdiger als ein anomyer Beitrag in einem Forum mit so viel Unsinn wie hier :wink:

96x2 würde ich jedenfalls lesen als 96 ALUs mit je zwei MADDs pro Takt, und das ganze dann wohl über vier Kanäle.

Gast
2006-12-05, 18:26:55
Nimmst Du den Typen ernst? Wenn der wirklich etwas zu sagen hätte, was er nicht offen sagen darf, würde er es eher jemandem ins Ohr flüstern, der diskret ist, aber glaubwürdiger als ein anomyer Beitrag in einem Forum mit so viel Unsinn wie hier :wink:

96x2 würde ich jedenfalls lesen als 96 ALUs mit je zwei MADDs pro Takt, und das ganze dann wohl über vier Kanäle.

Natürlich nehm ich den nicht ernst, aber das er genau auf 96 kommt ist für mich verwundelich. Immerhin denke ich ähnlich über den R600(und es sieht zunehmend danach aus).

Hvoralek
2006-12-05, 18:30:39
Natürlich nehm ich den nicht ernst, aber das er genau auf 96 kommt ist für mich verwundelich. Immerhin denke ich ähnlich über den R600(und es sieht zunehmend danach aus).96 Vektoreinheiten klingt doch nicht unwahrscheinlich und dürfte neben 64 auch eine der bisher meistgenannten Zahlen sein :confused:

Gast
2006-12-05, 18:44:03
96 Vektoreinheiten klingt doch nicht unwahrscheinlich und dürfte neben 64 auch eine der bisher meistgenannten Zahlen sein :confused:

Wobei ich 64, wegen dem Shader TMU-Verhältnis zu schwach finde.
Aber vll überrascht uns ATI...

Ailuros
2006-12-05, 20:43:59
Ich kann mich da anderen hier nur anschließen: Was genau soll das sein? Vlt SSAA für jeden Pixel mit irgendeinem Shadereffekt? :biggrin:

Och es gibt ein paar Geruechte ueber D3D10.1, wo in den specs was von flexibleren Faehigkeiten fuer Shader AA steht; in die Hosen mache ich mir nichts ueber das Zeug denn ob Entwickler wirklich davon Nutzen machen werden verbleibt fraglich. Interessant ist lediglich angepasste downfilter fuer AA, aber es klingt mir alles noch viel zu vorzeitig um solches Zeug schon jetzt in HW zu sehen.


96x2 würde ich jedenfalls lesen als 96 ALUs mit je zwei MADDs pro Takt, und das ganze dann wohl über vier Kanäle.

Man kann Vec4 ALUs auch als SPs interpretieren; 192 klingt halt besser als 128 ;)

Iwan
2006-12-05, 20:56:42
Wobei ich 64, wegen dem Shader TMU-Verhältnis zu schwach finde.
Aber vll überrascht uns ATI...

Und wenn die Shader nvidia-like in einer anderen Takt-Domäne laufen? ;)

Godmode
2006-12-05, 21:09:57
Och es gibt ein paar Geruechte ueber D3D10.1, wo in den specs was von flexibleren Faehigkeiten fuer Shader AA steht; in die Hosen mache ich mir nichts ueber das Zeug denn ob Entwickler wirklich davon Nutzen machen werden verbleibt fraglich. Interessant ist lediglich angepasste downfilter fuer AA, aber es klingt mir alles noch viel zu vorzeitig um solches Zeug schon jetzt in HW zu sehen.




Man kann Vec4 ALUs auch als SPs interpretieren; 192 klingt halt besser als 128 ;)

Jetzt stell ich mir die Frage 48 Vec4, oder 96 Vec2? Würde Vec2 Überhaupt irgenden einen Sinn machen, da eine Vec4 Alu eine 2 zu 2 Aufteilung erlauben sollte?

Ailuros
2006-12-05, 21:17:00
Es handelt sich IMO um ziemlich flexible Vec4 ALUs. Errr....48? Wir reden hier immer noch ueber R6xx und nicht schon ueber RV6xx Moeglichkeiten ;)

LovesuckZ
2006-12-05, 21:18:23
Es handelt sich IMO um ziemlich flexible Vec4 ALUs. Errr....48? Wir reden hier immer noch ueber R6xx und nicht schon ueber RV6xx Moeglichkeiten ;)

96 Vec4 ALUs, 32 TMUs, 256Bit Speicherinterface mit hohem Takt? ;)

Godmode
2006-12-05, 21:29:38
Jetzt müsste man noch wissen wiviele Operationen so eine R600 Vec4 Alu raushauen kann?

LovesuckZ
2006-12-05, 21:45:41
Jetzt müsste man noch wissen wiviele Operationen so eine R600 Vec4 Alu raushauen kann?

Wahrscheinlich genauso viel wie eine beim r580.

seahawk
2006-12-05, 21:56:04
Jetzt müsste man noch wissen wiviele Operationen so eine R600 Vec4 Alu raushauen kann?

2xMADD

deekey777
2006-12-05, 21:56:23
Und wenn die Shader nvidia-like in einer anderen Takt-Domäne laufen? ;)
Und wenn man in das erste Posting reinschaut?;)
750 MHz und keine Taktdomänen ist der aktuelle Stand der Gerüchte.

Demirug
2006-12-05, 22:03:10
R600 = 2*R580 – VS + USA + D3D10

deekey777
2006-12-05, 22:13:28
96 Vec4 ALUs, 32 TMUs, 256Bit Speicherinterface mit hohem Takt? ;)
Vec4 und flexibel? Die heutigen Vec4-ALUs der R580 (3+1) sind eigentlich nicht flexibel. Die Vec16-ALUs des G80 dagegen schon.

R600 = 2*R580 – VS + USA + D3D10
Ist das nicht der G80?:biggrin:
Etwas OT: Was ist der Unterschied zw. D3D10 und D3D10.1? Ist die 8800 D3D10.1-kompatibel oder -compliant?

Demirug
2006-12-05, 22:18:12
Ist das nicht der G80?:biggrin:

Nicht wirklich.

Etwas OT: Was ist der Unterschied zw. D3D10 und D3D10.1? Ist die 8800 D3D10.1-kompatibel oder -compliant?

D3D10.1 ist noch nicht endgültig spezifiziert. Aufgrund der Anforderungen an GPU-Threading und Virtual Video Memory die mit D3D10.1 kommen sollen gehe ich allerdings davon aus das der G80 nicht kompatibel ist.

deekey777
2006-12-05, 22:32:01
Warum die Frage: Es wurde danach in diesem Thread gefragt.

In der vorletzten c't ist ein Artikel zum kommenden "DirectX10" (ja, ich weiß, da wird einiges durcheinander geworfen), ich zitere mal aus diesem (c't 25/06, Seite 232):
[...] Denn der Vista-Vorgänger teilte einfach so lange jeder Applikation den angeforderten Grafikspeicher zu, bis keiner mehr übrig war, und alle folgenden Applikationen verabschiedeten sich mit einer Fehlermeldung. Wechselte man unter Windows XP mit ALT-TAB aus einem Spiel zum Desktop und wieder zurück, musste der Treiber den Spielkontext wieder in den Grafikchip zurückladen, was oft mit einem schwarzen Bildschirm endete; das Spiel ließ sich nicht fortsetzen. Dieser Window-Flip soll jetzt keine Probleme mehr bereiten. [...]
Zurzeit muss das GPU-Multtasking aber noch in Software gesteuert werden, da es noch keine Grafikchps mit virtueller Speicherverwaltung und schnellem Kontext-Switch gibt; die Virtualisierung verbraucht also einen gewissen Teil der CPU-Leistung. Deshalb ist auch Nvidias nagelneuer Geforce 8800 für Microsoft noch nicht der ideale Grafikchip für Windows Vista.

ScottManDeath
2006-12-05, 22:39:18
Nicht wirklich.



D3D10.1 ist noch nicht endgültig spezifiziert. Aufgrund der Anforderungen an GPU-Threading und Virtual Video Memory die mit D3D10.1 kommen sollen gehe ich allerdings davon aus das der G80 nicht kompatibel ist.

Jo, Zustimmung zu beidem. D3D10.1 ist sowieso nur das, wo sie bei D3D10.0 geschludert haben, also nichts so großartiges anderes, abgesehen von einen paar kleinen Annehmlichkeiten. =)

dargo
2006-12-05, 22:47:07
Hat sich erledigt.

Gast
2006-12-05, 22:49:08
R600 = 2*R580 – VS + USA + D3D10

Dann müsste die XTX ja eine 8800 GTX oft schlagen.;)

Demirug
2006-12-05, 22:49:57
Die c’t verbreitet hier wieder Halbwahrheiten. Das D3D Resourcenmanagment ist allerdings auch nicht ganz einfach. Ohne das WDK zu Rate zu ziehen kann man es IMHO nicht verstehen. Entsprechend läßt sich das auch nicht mit ein paar Worten erklären.

ScottManDeath, fragt sich nur wer geschludert hat.

LovesuckZ
2006-12-05, 22:50:20
Dann müsste die XTX ja eine 8800 GTX oft schlagen.;)

Nunja, dort wo nicht die CPU limitiert, ist die GTX meistens doppelt so schnell...

Hvoralek
2006-12-05, 22:51:13
R600 = 2*R580 – VS + USA + D3D10Das wären dann 96 Vec4- ALUs mit 1 MADD + 1 ADD. Auf 750 MHz käme man rechnerisch auf 864 GFLOPS...

Demirug
2006-12-05, 22:52:59
Dann müsste die XTX ja eine 8800 GTX oft schlagen.;)

Das würde ich aus dieser spekulativen Formel nicht zwingend schließen.

Gast
2006-12-05, 22:53:02
Das wären dann 96 Vec4- ALUs mit 1 MADD + 1 ADD. Auf 750 MHz käme man rechnerisch auf 864 GFLOPS...

Wieviel Gflos hat denn eine 8800 GTX?

Coda
2006-12-05, 22:54:34
Och es gibt ein paar Geruechte ueber D3D10.1, wo in den specs was von flexibleren Faehigkeiten fuer Shader AA steht;

Das "ShaderAA" ist imo einfach nur ein Flag ob das Polygon jetzt mit Super- oder Multisampling gerendert werden soll.

Also steuerbares AAA. Das könnte nVIDIA aber auch implementieren.

StefanV
2006-12-05, 22:55:17
R600 = 2*R580 – VS + USA + D3D10
32TMUs und 512bit SPeicherinterface?? ;) ;) ;)

ScottManDeath
2006-12-05, 23:02:56
ScottManDeath, fragt sich nur wer geschludert hat.

Ich wars nicht ;)

AFAIK war es so, das rot/dunkelgrün das Treibermodel entworfen hat, und hellgrün dafür die 3D API.

w0mbat
2006-12-05, 23:05:23
Wieviel Gflos hat denn eine 8800 GTX?

518

deekey777
2006-12-05, 23:08:18
R600 = 2*R580 – VS + USA + D3D10
Noch besser: R600 = 2*AMD Stream Processors + USA + D3D10.
So richtig schlau werde ich daraus aber nicht (jetzt versuche ich es wieder mit dem Lesen-Denken-Schreiben-Schema).
Wenn man einfach 2*R580 schreibt, dann klingt das, ob die Grundarchitektur des R580 einfach verdoppelt worden wäre (ohne Ballast): 4*TMUs <-> Superduper-Dispatcher <-> 12 (US-)ALUs->ROPs?

Gast
2006-12-06, 18:10:43
Ich hoffe dieses Shader AA wird optional.

Ich meine ich würd mir wünschen wenn es dann auch weiterhin MSAA ohne Shader SSAA gibt, weil da sicherlich große Performance verluste entstehen werden.

Allgemein aber ne Super Sache weil SuperSampling wirklich weiterhin nur da eingesetzt wo es nichts besser gibt..
MSAA ist ja letztlich auch nur SSAA halt nur für Kanten :)

Für ungeshaderte Fläche ist ja AF die deutlich besser Wahl als SSAA

Gast
2006-12-06, 18:19:08
518

Falsch. Ob des fehlenden MUL's sind es nur 300 und ein paar Zerklemmte...

derRäuber
2006-12-06, 18:47:33
32 ROPs würden mich schon sehr glücklich machen.

Es ärgert mich schon dass Shader so brutal bevorzugt werden.
Ich jedenfalls brauche mehr Füllrate für anständig aussehende Vegetation usw.

w0mbat
2006-12-06, 18:50:00
Falsch. Ob des fehlenden MUL's sind es nur 300 und ein paar Zerklemmte...

Überall steht 512. Aber du weißt es ja besser :rolleyes:

crux2005
2006-12-06, 19:01:17
Rys and Uttar In The Case Of The Missing MUL

http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=11

tombman
2006-12-06, 19:08:08
Kann vielleicht mal jemand "in-the-know" mal sagen wieviel oder ob überhaupt der R600 schneller als der G80 ist, oder ned? ;D

Gast
2006-12-06, 19:11:48
""in-the-know""?

... einfach Deutsch sprechen.

StefanV
2006-12-06, 19:11:59
Kann vielleicht mal jemand "in-the-know" mal sagen wieviel oder ob überhaupt der R600 schneller als der G80 ist, oder ned? ;D
Nein!
Weil ersteinmal steht das schon im Thread, zum anderen darf nicht mehr gesagt werden als eh schon bekannt ist, ergo niemand der weiß, darfs sagen.

Zumal die bisher ausgelieferten R600 noch etwas 'anders' sind als die FInalen.

seahawk
2006-12-06, 21:20:09
Naja, man spekuliert auf bis zu 50% mehr Speed und wenn man die spekulierten Daten ansieht 500+ G/Flops gegen 360 bzw. 500+ und auch die Bandbreite von 173 GB/s ansieht, dann dürfte das nicht abwegig sein.

AnarchX
2006-12-06, 21:32:13
Naja, man spekuliert auf bis zu 50% mehr Speed und wenn man die spekulierten Daten ansieht 500+ G/Flops gegen 360 bzw. 500+ und auch die Bandbreite von 173 GB/s ansieht, dann dürfte das nicht abwegig sein.
Die 50% und die 173GB/s sind reiner FUD, ATi kocht doch auch nur mit Wasser bzw. will seinen Kunden keinen Preis ~800$+ zumuten.;)
Die 500GFLOPs können aber durchaus stimmen, aber GFLOP ist halt nicht GFLOP wie man beim G80 sieht, der aus seinen nur 360GFLOPs(aktuell) doch einiges herausholt, auf Grund der sehr flexiblen und effizienten Architektur.

Gast
2006-12-06, 21:58:55
Di widersprichst dir gerade ein wenig selbst. Erst nein, dann aber 500+ gegen 360 GFlops stellen. Warum sollte ATI so eine schrecklich ineffektive Architektur bringen?
Ich glaube eher, NVidia war beim Launch ein wenig voreilig. Gegen aktuelle Architektur natürlich überlegen, aber aufgrund des Fehlers im aktuellen Designs könnte es in der Tat eine Überraschung geben. Das alles nur wegen des Weihnachtsgeschäfts?

Coda
2006-12-06, 22:01:25
Er wollte damit sagen: Selbst wenn es 500 GFLOP/s sind heißt das noch lange nicht, dass der Chip schneller ist.

Godmode
2006-12-06, 22:20:56
Was mich am G80 am meinsten erschreckte war, dass der Shaderkern in einer sehr niedrigen "Sprache" Designed wurde. Also normal werden solche Chips mit VHDL oder ähnlichem geplant und beim G80 haben sie es auf Transitorbasis gemacht.

Also ich denke die haben sich ihre eigenen Multiplexer, Register, ... erzeugt und haben dadurch den enormen Taktvorteil. IIRC werden ja normalerweise Frameworks/Librarys von Foundries bereitgestellt.

Ist der Vergleich C++ zu ASM und VHDL zu AufTransitorEbeneGelplant in etwa aktzeptabel?

Was hat das alles mit dem R600 zu tun? Ja die Frage ist eben hat ATI auch etwas in diese Richtung gemacht, FAST14 wäre ja sicher eine Möglichkeit(habe aber keine Ahnung wie ausgereift das ist). Oder holen sie mit dem 80nm Fertigungsprozess einen Vorteil heraus? Oder haben sie vielleicht auch einen Shaderkern der auf sehr niedrigem Level designed wurde?

Ich erwarte vom R600 sicher keine Wunder aber auch keinen Flop. Er muss aber schneller sein als der G80!

Ich bin momentan sehr vom G80 geblendet. Mir gefällt diese Art der Architektur sehr gut! Für diese netten Streamprozessorer werden sich in Zukunft sicher einige interessante Anwendungsgebiete finden lassen.

Fragen über Fragen.

The_Invisible
2006-12-06, 22:49:01
Di widersprichst dir gerade ein wenig selbst. Erst nein, dann aber 500+ gegen 360 GFlops stellen. Warum sollte ATI so eine schrecklich ineffektive Architektur bringen?
Ich glaube eher, NVidia war beim Launch ein wenig voreilig. Gegen aktuelle Architektur natürlich überlegen, aber aufgrund des Fehlers im aktuellen Designs könnte es in der Tat eine Überraschung geben. Das alles nur wegen des Weihnachtsgeschäfts?

welche fehler im design, den stromverbrauch in 2d?

der r600 ist in 2 monaten höchstwahrscheinlich immer noch nicht lieferbar, wenn dieser da nicht schneller ist wäre es für ati sowieso sehr ungesund

mfg

LovesuckZ
2006-12-06, 22:51:46
Ich glaube eher, NVidia war beim Launch ein wenig voreilig. Gegen aktuelle Architektur natürlich überlegen, aber aufgrund des Fehlers im aktuellen Designs könnte es in der Tat eine Überraschung geben. Das alles nur wegen des Weihnachtsgeschäfts?

Dieser "Fehler" ist eine Desaignentscheidung und nicht einfach zu fixen.
Hätte man dies gewollt, wäre der G80 erst im März als G81/85/wasauchimmer herausgekommen.

DrumDub
2006-12-06, 23:19:00
Dieser "Fehler" ist eine Desaignentscheidung und nicht einfach zu fixen.
Hätte man dies gewollt, wäre der G80 erst im März als G81/85/wasauchimmer herausgekommen. sicher? ati hat damals beim r520 mit neuen treibern den idle-stromverbrauch um 17w gesenkt:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/19/#abschnitt_stromverbrauch

ich halte es immer noch für möglich, dass ähnliches beim g80 mit neuen treibern passiert.

LovesuckZ
2006-12-06, 23:21:15
Ich denke eher, er meint die zusätzlich, fehlende MUL Berechnung der Skalareinheiten.

/edit: Die GTS und GTX Karten haben zur Zeit überhaupt keine Stromsparfunktionen. Voller Takt und volle Spannung in jedem Modus.