PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: Alles rund um die neue Generation, Teil 5


Seiten : [1] 2 3 4

dargo
2007-02-22, 15:22:01
Spekulierte 40-50W Mehrverbrauch bei Last, Idle scheint er auch nicht so sparsam zu sein.

Woran erkennst du das? Oder was verstehst du unter sparsam?


------------------------------------
Teil 4: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=348787

Letztes Posting in Teil 4: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5273559#post5273559

Slipknot79
2007-02-22, 15:46:15
Du erwartest wohl nicht dass ATI nicht G80 unter die Lupe genommen hat und erahnen kann was man noch aus dem Ding herausquetschen kann?



Dürfen die das überhaupt? Ist der NV-Treiber nicht "closed", im Sinne von: Darf nicht verändert werden um das Potenzial der G80 zu testen?

PCGH_Carsten
2007-02-22, 15:47:59
In ihrem stillen Kämmerlein dürfen die so ziemlich alles...

Sterem
2007-02-22, 15:48:54
Dürfen die das überhaupt? Ist der NV-Treiber nicht "closed", im Sinne von: Darf nicht verändert werden um das Potenzial der G80 zu testen?

Ati wird bestimmt nicht so dumm sein und lässt sich dabei erwischen wenn die sowas machen.Wenn dann macht man sowas bestimmt in irgend einen raum mit einer fetten Stahltür....

Gast
2007-02-22, 15:56:39
AMD wird baden gehn wenn sie den R600 verschieben
da bin ich überzeugt von...

Ich kenne alleine 10 Leute die auf den R600 und seine derivate gewartet haben, die kaufen nun alle nvidia

Anarchy-HWLUXX
2007-02-22, 16:10:25
AMD wird baden gehn wenn sie den R600 verschieben
da bin ich überzeugt von...

Ich kenne alleine 10 Leute die auf den R600 und seine derivate gewartet haben, die kaufen nun alle nvidia

Gibt mehr als genug speed Junkies die keine 5 Monate ohne neue Hardware auskommen ;) Ist ja nicht so als ob ATi die Weltschnellste GraKa released und es schert keinen weil es zu lang gedauert hat ... was zählt ist die Performance.

laser114
2007-02-22, 16:11:49
Abgesehen davon gibts AMD bereits Jahrzehnte und haben sehr viele Tiefs durchgemacht. Da wird eine Verschiebung das R600 wohl kein Ende bedeuten, wie ich solche Aussagen liebe... :rolleyes:

Viel gefährlicher für uns sind doch Strategieentscheidungen, den ein oder anderen Bereich fallen zu lassen...

Paul Brain
2007-02-22, 16:40:10
Abgesehen davon gibts AMD bereits Jahrzehnte und haben sehr viele Tiefs durchgemacht. Da wird eine Verschiebung das R600 wohl kein Ende bedeuten, wie ich solche Aussagen liebe... :rolleyes:

Viel gefährlicher für uns sind doch Strategieentscheidungen, den ein oder anderen Bereich fallen zu lassen...
Sie sind halt ihren Aktionären verpflichtet. Und momentan siehts nicht gut aus; im CPU-Bereich befürchte ich mit dem K8L und Intels folgendem Konter die nächste Katastrophe. Manchmal gehts recht schnell und Firmen verschwinden; wer hätte sich das damals bei 3Dfx gedacht?
AMD hat zwar noch zahlreiche andere Sparten, aber was wäre AMD ohne seine Kernsparte? Was wird aus nVidia ohne Konkurrenz?
Wir hätten dann zumindest relativ schweineteure Karten, da es mangels Konkurrenz auch kaum Fortschritt geben würde, wir aber trotzdem mindestens dieselbe Summe bezahlen müssten...

Anarchy-HWLUXX
2007-02-22, 16:44:11
Sie sind halt ihren Aktionären verpflichtet. Und momentan siehts nicht gut aus; im CPU-Bereich befürchte ich mit dem K8L und Intels folgendem Konter die nächste Katastrophe. Manchmal gehts recht schnell und Firmen verschwinden; wer hätte sich das damals bei 3Dfx gedacht?
AMD hat zwar noch zahlreiche andere Sparten, aber was wäre AMD ohne seine Kernsparte? Was wird aus nVidia ohne Konkurrenz?
Wir hätten dann zumindest relativ schweineteure Karten, da es mangels Konkurrenz auch kaum Fortschritt geben würde, wir aber trotzdem mindestens dieselbe Summe bezahlen müssten...

Also 3DFX mit AMD zu vergleichen ist wahnwitzig ... aleine schon die vorstellung das AMD verschwindet ist vollkommen weltfremd - wenn se mal Pleitegehen werden sie eben von einer Investorengruppe oder sowas aufgekauft für weit unter wert ... verschwinden ? Geht nicht.


PS : Hui - scho Teil 5 ;D

Hauwech
2007-02-22, 18:15:26
Woran erkennst du das? Oder was verstehst du unter sparsam?


------------------------------------
Teil 4: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=348787

Letztes Posting in Teil 4: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5273559#post5273559

Die 40 bis 50W Mehrverbrauch sind mal von Ailuros ins Rennen geworfen worden. Könnte natürlich sein, das er sich halt nur auf die OEM Karten bezogen hat. Selbst wenn er sich nur auf die OEM Geschichte bezogen hat, 40-50W sind selbst mit einem Respin nicht mal eben wegzubekommen. Ich tippe aber einfach mal trotzdem auf einen Mehrverbrauch von R600 ggü G80.

Mit dem Idle Modus kommt ebenfalls von Ailuros. Nenn mich vertrauensselig aber was von ihm kommt, hat meistens Hand und Fuß imho.

Gast
2007-02-22, 18:21:59
Ein release wird etwas verschoben und schon wird direkt über das scheitern von amd gesprochen und das sie somit untegehen werden. Es ist echt witzig was gleich leute meinen in die runde werfen zu müssen, vorallem wurde ja auch immer geschrieben "ja amd geht bestimmt unter, weil der core2 schneller ist", also ich sehe noch keinen untergang nichtmal ansatzweise. Die machen schon noch ihren umsatz und nicht jeder kauft sich trotz den geschwindigkeitsvorteils einen intel. Vorallem leute die von einem single amd auf einen dc amd umsteigen und sich nicht direkt ein neues mobo, rams usw. kaufen wollen. Mehr wie flüssig geht ja eh nicht denke ich und in spielen isses ja eh zu 70% die grafikkarte wenn ein spiel ohne ende ruckelt.

Ich hab mir auch lieber letztes jahr einen x2 4600+ gekauft statt umzusteigen auf einen core2, aus geldmangel? Eher nicht! Ich fand das mein system noch schnell genug ist für alles und noch nicht eingestampft wird, nur um in benches 10-20 prozent mehr leistung zu haben:P.

Wer so schnell wie möglich sein geld rausschmeissen will der kauft sich jetzt sofort einen 8800gtx, oder man wartet halt noch ein bissl auf die r600 und kauft sich die. Vorallem verstehe ich leute nicht die ne sehr schnelle x1900xt+ oder gx2 in ihrem system laufen haben und dann unbedingt jetzt eine neue karte wollen. Aber jammern nützt eh nix, weil amd schon so entschieden hat und keiner kann noch was dran ändern und wer nicht warten kann, wie schon geschrieben eine 8800gtx kaufen und glücklich sein;)

Andre´
2007-02-22, 18:33:01
Genau deswegen sitze ich noch vor meinen System ich warte auf den k8l und den r600

Was den R600 betrifft, ich kann mir gut vorstellen dass die Midrage reihe noch kein PCIe 2.0 braucht

Gmax
2007-02-22, 18:35:50
Genau deswegen sitze ich noch vor meinen System ich warte auf den k8l und den r600

Was den R600 betrifft, ich kann mir gut vorstellen dass die Midrage reihe noch kein PCIe 2.0 braucht

Wozu denn auch, ist doch abwärtskompatibel.

dargo
2007-02-22, 18:57:17
Mit dem Idle Modus kommt ebenfalls von Ailuros. Nenn mich vertrauensselig aber was von ihm kommt, hat meistens Hand und Fuß imho.
Schau dir mal die Verlustleistung einiger Grafikkarten an:
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html

Jetzt vergleiche mal die Verlustleistung der X1800XL und der X1900XT in Idle und Last. Die Verlustleistung der X1900XT lässt sich mit Software noch um ~5W reduzieren (300Mhz und 0,9V an der GPU). Ich wüsste also nicht was dagegen sprechen sollte selbst einen ~170W schweren R600 in Idle auf 30-40W zu bringen.

Thowe
2007-02-22, 19:34:18
... Ich wüsste also nicht was dagegen sprechen sollte selbst einen ~170W schweren R600 in Idle auf 30-40W zu bringen.


Sehr wenig. Vor allem könnte AMD das als Cool'n'Quiet für Grafikkarten verkaufen, da hätte man gleich eine griffige Marketingaussage.


Nebenbei verstehe ich die Aussagen um das Versagen von AMD/ATI nicht wirklich. Ich für mich denke, dass sie gleich am Markt mit der ganzen Palette an D3D10 Karten aufwarten wollen und zusätzlich noch massiv für die HighEnd-Versionen selektieren müssen. Ich glaube schon, dass sie durchaus von der Leistung des G80 überrascht waren, aber sicherlich nicht erst mit dessen erscheinen. Der Rest ist wohl eine Frage der Ausbeute und angestrebten Produktionsmenge.

Ailuros
2007-02-22, 19:35:51
~700M Transistoren und 80nm. Wer Lust hat kann mal jemand der sich bei TSMC auskennt nachfragen, wie optimal der Prozess fuer hochkomplizierte chips genau ist.

dargo
2007-02-22, 19:44:47
~700M Transistoren und 80nm. Wer Lust hat kann mal jemand der sich bei TSMC auskennt nachfragen, wie optimal der Prozess fuer hochkomplizierte chips genau ist.
Was ich nicht so ganz verstehe - wenn man schon Probleme mit dem High-End Chip hat warum bringt man nicht vorher schon den RV630? So könnte man wenigstens gegen NV im Mainstreambereich punkten. Oder ist die gesamte Rx6x0 Palette von den Problemen betroffen? Bzw. ist es so fürs Image schädigend wenn man nicht zuerst den High-End Chip launcht?

reunion
2007-02-22, 19:54:15
RV610/RV630 ist einfach nicht früher fertig. Üblich, dass man sich zuerst um den High-End-Chip kümmert. G84/86 gibt es ja auch noch nicht.

The_Invisible
2007-02-22, 21:12:58
Was ich nicht so ganz verstehe - wenn man schon Probleme mit dem High-End Chip hat warum bringt man nicht vorher schon den RV630? So könnte man wenigstens gegen NV im Mainstreambereich punkten. Oder ist die gesamte Rx6x0 Palette von den Problemen betroffen? Bzw. ist es so fürs Image schädigend wenn man nicht zuerst den High-End Chip launcht?

hat es das jemals gegeben das eine neue generation nicht mit dem highendmodel eingeführt wurde?

mfg

Gast
2007-02-22, 21:14:49
hat es das jemals gegeben das eine neue generation nicht mit dem highendmodel eingeführt wurde?


Nicht bei den Herstellern, die einen Anspruch auf die Spitze erheben... ;)

Byteschlumpf
2007-02-22, 21:36:49
Über eventuelle Treiberprobleme bezüglich Vista und ganz allgemein ist bisher nichts zu lesen gewesen, oder?

seahawk
2007-02-22, 21:44:32
~700M Transistoren und 80nm. Wer Lust hat kann mal jemand der sich bei TSMC auskennt nachfragen, wie optimal der Prozess fuer hochkomplizierte chips genau ist.

Naja, bei der advanced Technology listen sie nur 90nm und 65nm

Thowe
2007-02-22, 22:42:18
Naja, bei der advanced Technology listen sie nur 90nm und 65nm


Der 80er ist ja quasi der 90er, es handelt sich ja eigentlich nur um ein linear shrink und nicht um einen neuen Herstellungsprozess.

Gast
2007-02-22, 22:44:33
Über eventuelle Treiberprobleme bezüglich Vista und ganz allgemein ist bisher nichts zu lesen gewesen, oder?

Naja es war ja nichtmal irgend etwas von Treibern zu hören, beim G80 gabs vorher auch kein Kommentar wie die Treiber aussehen, nur das es mehrere Pre-Versionen gab. Aber da waren die ersten Leaks schon raus, weil einige Reviewer die klappe nicht gehalten haben. Wenn was zu einem Catalyst für R600 verlautet wird auser "ja wir sind Vista rdy bla bla", dann ist ein Benchmark nicht weit um die Ecke.

Ailuros
2007-02-22, 23:25:13
Was ich nicht so ganz verstehe - wenn man schon Probleme mit dem High-End Chip hat warum bringt man nicht vorher schon den RV630? So könnte man wenigstens gegen NV im Mainstreambereich punkten. Oder ist die gesamte Rx6x0 Palette von den Problemen betroffen? Bzw. ist es so fürs Image schädigend wenn man nicht zuerst den High-End Chip launcht?

Der Vorteil von RV6x0 ist 65nm und der Nachteil 65nm :biggrin:

Der 80er ist ja quasi der 90er, es handelt sich ja eigentlich nur um ein linear shrink und nicht um einen neuen Herstellungsprozess.

80nm hat Probleme bei sehr komplizierten chips; R600 hatte zwar schon ein paar bugs, aber zu dem ganzen Schlammasel hat der Prozess auch seinen Anteil.

Naja es war ja nichtmal irgend etwas von Treibern zu hören, beim G80 gabs vorher auch kein Kommentar wie die Treiber aussehen, nur das es mehrere Pre-Versionen gab. Aber da waren die ersten Leaks schon raus, weil einige Reviewer die klappe nicht gehalten haben. Wenn was zu einem Catalyst für R600 verlautet wird auser "ja wir sind Vista rdy bla bla", dann ist ein Benchmark nicht weit um die Ecke.

Ich warte bis die neuesten Infos einfliessen; dass was ich bis jetzt betreffend Leistung gesehen habe war zu ernuechternd um es verdauen zu koennen. Ich bin zwar zuversichtlich dass sie noch einiges aus den Treibern quetschen koennen, aber holt NV mit einem potentiellen "Leistungstreiber" nach, sieht es dann eher nach einem Nase an Nase Rennen aus.

X.Perry_Mental
2007-02-23, 09:00:00
Ich warte bis die neuesten Infos einfliessen; dass was ich bis jetzt betreffend Leistung gesehen habe war zu ernuechternd um es verdauen zu koennen. Ich bin zwar zuversichtlich dass sie noch einiges aus den Treibern quetschen koennen, aber holt NV mit einem potentiellen "Leistungstreiber" nach, sieht es dann eher nach einem Nase an Nase Rennen aus.
Mit anderen Worten: Der R600 wird nur schneller als der G80, wenn man über die Teiber noch Leistung "findet". Was bleibt ist ein R600, der ein halbes Jahr zu spät kommt, mehr Transistoren braucht, mehr Abwärme produziert und leistungsmäßig "auf Augenhöhe" zur Konkurrenz liegen wird (+- ein paar Prozent aufgrund der Treiberentwicklung). Richtig gut sieht das nicht aus.

Paul Brain
2007-02-23, 09:34:27
Also 3DFX mit AMD zu vergleichen ist wahnwitzig ... aleine schon die vorstellung das AMD verschwindet ist vollkommen weltfremd - wenn se mal Pleitegehen werden sie eben von einer Investorengruppe oder sowas aufgekauft für weit unter wert ... verschwinden ? Geht nicht.War zugegeben etwas überdramatisiert :biggrin:, aber selbst wenn sie nicht gänzlich "verschwinden", so würde "uns" ein AMD, der nur mehr so wie VIA/SiS etc. Lowcost- bzw. Nischenmärkte bedient nicht viel bringen. Matrox baute einst auch mal die besten Grafikkarten - irgendwann gerieten sie ins Hintertreffen, und was heute von ihnen übrig ist sieht man ja. Nicht daß es Matrox deswegen schlecht gehen muß - aber sie bedienen eben nicht mehr den Massen- und schon gar nicht den HighEnd-Markt.
Manch andere Firmen gaben überhaupt ihr Kerngeschäft auf; ein sehr bekanntes Beispiel gibts dafür, mir fällts nur momentan nicht ein...^^

AMD hat sich mit den Opterons viel Reputation aufgebaut, aber die kann sehr schnell wieder dahin sein. Den Athlon gibt es spätestens seit PIII-Zeiten, und im wesentlichen sind auch die aktuellsten AMD-CPUs Derivate desselben. Der Athlon war damals ein großer Wurf; wie eben auch der R300. Aber seither gibts irgendwie nicht wirklich viel neues... Bei Intel gabs in der Zwischenzeit den P4 und jetzt die Cores (gut, sind eigentlich PIII-Ableger), und ich finde, bei AMD hätten eigentlich bereits beim ersten Pentium-M die Alarmglocken schrillen müssen. Aber auch da hat man geschlafen.

Gast
2007-02-23, 09:42:09
[...] mehr Transistoren braucht,[...]


Ja, unglaubliche ~3% mehr Transistoren als G80. Wenn man NVIO noch berücksichtigt dürften es 1-0% sein. Man ist das Design Schrott, bei dieser geballten Transitorenüberlegenheit müssten mindestens 5000% mehr Leistung drin sein.


leistungsmäßig "auf Augenhöhe" zur Konkurrenz liegen wird (+- ein paar Prozent aufgrund der Treiberentwicklung). Richtig gut sieht das nicht aus.

Zurzeit sieht es nach gar nichts aus. Es gibt Meldungen, wonach R600 deutlich schneller ist, und es gibt Meldungen, wonach nur ein Gleichstand drin ist. Letztendlich wird erst der Launch zeigen, was richtig ist.

Thowe
2007-02-23, 09:43:06
Der Vorteil von RV6x0 ist 65nm und der Nachteil 65nm :biggrin:

Das wird wohl leider zu wahr sein. So mal der 65nm wirklich was neues ist.

80nm hat Probleme bei sehr komplizierten chips; R600 hatte zwar schon ein paar bugs, aber zu dem ganzen Schlammasel hat der Prozess auch seinen Anteil.

Es wäre erstaunlich, wenn TSMC den nicht mittlerweile einigermaßen im Griff hat. Prinzipiell sollten viele Probleme des 90er beim 80er genau in der gleichen Art auftauchen und eher wenige neue entstehen, so dass das Ganze eher unter leichte Anpassungen fallen sollte, die zum Teil sicherlich im Vorfeld bekannt waren.

Ich warte bis die neuesten Infos einfliessen; dass was ich bis jetzt betreffend Leistung gesehen habe war zu ernuechternd um es verdauen zu koennen. Ich bin zwar zuversichtlich dass sie noch einiges aus den Treibern quetschen koennen, aber holt NV mit einem potentiellen "Leistungstreiber" nach, sieht es dann eher nach einem Nase an Nase Rennen aus.

Ich denke ATI ist im Moment in etwa der Situation, wo auch NVIDIA war als die 9700 (R300) kam, niemand hätte damit gerechnet ein derartiges "Monster" zu sehen. Die verzögerte Antwort gleicht da schon fast der, die damals auch NVIDIA gab, wobei ich davon ausgehe, das ATI nicht ganz so schlecht aussehen wird und hoffentlich keinen FX-Flow Extreme und 300W ATI Powerstation (Netzteil) benötigen wird, um NV dann doch klar auszustechen.

Gast
2007-02-23, 09:48:12
AMD hat sich mit den Opterons viel Reputation aufgebaut, aber die kann sehr schnell wieder dahin sein. Den Athlon gibt es spätestens seit PIII-Zeiten, und im wesentlichen sind auch die aktuellsten AMD-CPUs Derivate desselben. Der Athlon war damals ein großer Wurf; wie eben auch der R300. Aber seither gibts irgendwie nicht wirklich viel neues... Bei Intel gabs in der Zwischenzeit den P4 und jetzt die Cores (gut, sind eigentlich PIII-Ableger), und ich finde, bei AMD hätten eigentlich bereits beim ersten Pentium-M die Alarmglocken schrillen müssen. Aber auch da hat man geschlafen.

Du hast keine Ahnung, sorry. Eine neue CPU zaubert man nicht mal eben so aus den Ärmel. Selbst das mächtige Intel konnte drei(!) Jahre nur zusehen, wie AMD immer mehr an Bedeutung gewann. Und AMD hat bei weitem nicht die Ressourcen von Intel. Man hat sicherlich nicht geschlafen, das kann man sich als Underdog ohnehin nicht leisten, nur dauert es eben seine Zeit, bis man ein neues Design bis zur Massenproduktion bringt. AMD scheint ja mehr als überzeugt zu sein von Barcelona, man spricht von Performancevorteilen ggü. Intels Quad-Core von 40-70%.

Thowe
2007-02-23, 10:09:47
War zugegeben etwas überdramatisiert :biggrin:, aber selbst wenn sie nicht gänzlich "verschwinden", so würde "uns" ein AMD, der nur mehr so wie VIA/SiS etc. Lowcost- bzw. Nischenmärkte bedient nicht viel bringen. Matrox baute einst auch mal die besten Grafikkarten - irgendwann gerieten sie ins Hintertreffen, und was heute von ihnen übrig ist sieht man ja. Nicht daß es Matrox deswegen schlecht gehen muß - aber sie bedienen eben nicht mehr den Massen- und schon gar nicht den HighEnd-Markt.
Manch andere Firmen gaben überhaupt ihr Kerngeschäft auf; ein sehr bekanntes Beispiel gibts dafür, mir fällts nur momentan nicht ein...^^



Matrox kann man nicht wirklich mit den anderen Firmen vergleichen, sie haben ihre Märkte und einige Karten wie die QIDs die es in der Form eben von keinen anderen gibt. Für mehr ist die Firma schlicht weg zu klein und muss somit Investitionen scheuen, dafür geht es ihr meines Wissens immer noch recht gut und sie ist erstaunlicherweise immer noch nicht an der Börse vertreten.

Ja, unglaubliche ~3% mehr Transistoren als G80. Wenn man NVIO noch berücksichtigt dürften es 1-0% sein. Man ist das Design Schrott, bei dieser geballten Transitorenüberlegenheit müssten mindestens 5000% mehr Leistung drin sein.

Tippe auf 0% und gehe davon aus, das ATI HDTV in hohen Auflösungen besser bedienen wird. Für mich ein durchaus wichtiger Aspekt wenn es um die Entscheidung geht, ob ich mir als nächstes eine NV oder ATI kaufen werde. Somal ich davon ausgehe, dass die passende Laufwerke im Laufe des Jahres im Preis fallen werde und ein neues TFT mit "Full-HD" so oder so fest geplant ist.

Du hast keine Ahnung, sorry. Eine neue CPU zaubert man nicht mal eben so aus den Ärmel. Selbst das mächtige Intel konnte drei(!) Jahre nur zusehen, wie AMD immer mehr an Bedeutung gewann. Und AMD hat bei weitem nicht die Ressourcen von Intel. Man hat sicherlich nicht geschlafen, das kann man sich als Underdog ohnehin nicht leisten, nur dauert es eben seine Zeit, bis man ein neues Design bis zur Massenproduktion bringt. AMD scheint ja mehr als überzeugt zu sein von Barcelona, man spricht von Performancevorteilen ggü. Intels Quad-Core von 40-70%.

INTEL hätte mit dem Pentium-M bereits bequem zum Athlon 64 aufschliessen können, es war/lag nur niemals in deren Planung es zu tun. Es war somit eher eine Marketing denn einer technischen Entscheidung.

Paul Brain
2007-02-23, 10:12:36
Du hast keine Ahnung, sorry. Eine neue CPU zaubert man nicht mal eben so aus den Ärmel. Selbst das mächtige Intel konnte drei(!) Jahre nur zusehen, wie AMD immer mehr an Bedeutung gewann. Und AMD hat bei weitem nicht die Ressourcen von Intel. Man hat sicherlich nicht geschlafen, das kann man sich als Underdog ohnehin nicht leisten, nur dauert es eben seine Zeit, bis man ein neues Design bis zur Massenproduktion bringt. AMD scheint ja mehr als überzeugt zu sein von Barcelona, man spricht von Performancevorteilen ggü. Intels Quad-Core von 40-70%.
Intel hat beileibe nicht zugesehen, sondern etwa auch den mittlerweile in Vergessenheit geratenen Timna entworfen, und an Prozessen gefeilt, um den P4 doch noch hochjagen zu können. Was ihnen im Endeffekt auch gelungen wäre, man sehe sich nur mal die neuesten P4-steppings in 65nm an...
AMD hätte jedenfalls früher und anders reagieren müssen. Der K8L wird offensichtlich nicht schlecht - aber wird er auch gut genug, um gegen Intel bestehen zu können? Ich behaupte mal, daß zumindest in den nächsten Jahren AMD Intel hinterherhinken wird, genauso wie Intel AMD die letzten Jahre hinterhergehinkt ist. Und den längeren, finanziellen Atem hat wohl offensichtlich Intel...

Die Überlegenheit vom K8L bei QuadCore begründet sich IMHO fast einzig auf der externen Anbindung; und wenn Intel - wie Gerüchte behaupten - noch heuer mit einem WS-Chipsatz mit getrenntem FSB für jeden Core kommt, siehts für AMD schon wieder schlecht aus.

Gast
2007-02-23, 10:14:28
Ja, unglaubliche ~3% mehr Transistoren als G80. Wenn man NVIO noch berücksichtigt dürften es 1-0% sein. Man ist das Design Schrott, bei dieser geballten Transitorenüberlegenheit müssten mindestens 5000% mehr Leistung drin sein.
Gut, sagen wir also gleich viele Transistoren für die gleiche Leistung. Dann bleibt immer noch mehr Abwärme bei einem kleineren Herstellungsprozess, weil das Design wohl offensichtlich auf hohe Taktraten ausgelegt ist und ein halbes Jahr Verspätung.

Gast
2007-02-23, 10:25:20
INTEL hätte mit dem Pentium-M bereits bequem zum Athlon 64 aufschliessen können, es war/lag nur niemals in deren Planung es zu tun. Es war somit eher eine Marketing denn einer technischen Entscheidung.

Der Pentium M hatte kein 64-bit und eine mieße SSE/2-Performnace, im Servermarkt wäre das teil untergegangen.

reunion

Lawmachine79
2007-02-23, 10:29:27
AMD hätte jedenfalls früher und anders reagieren müssen. Der K8L wird offensichtlich nicht schlecht - aber wird er auch gut genug, um gegen Intel bestehen zu können? Ich behaupte mal, daß zumindest in den nächsten Jahren AMD Intel hinterherhinken wird, genauso wie Intel AMD die letzten Jahre hinterhergehinkt ist. Und den längeren, finanziellen Atem hat wohl offensichtlich Intel...


Anders und früher reagieren? Intel hat drei Jahre für die passende Antwort auf den A64 gebraucht, solange hatte AMD nie uneingeschränkte Performance Krone. Selbst als der K7 1999 kam hat es bis 2002 gedauert, daß man was schnelleres hatte. 1999 - 2007 sind acht Jahre, Intel hatte zwei Jahre davon die Performancekrone.
Was den finanziellen Atem angeht, gebe ich Dir Recht. Aber daß Intel daraus nichts macht, sagt alles über den Laden.

Gast
2007-02-23, 10:35:56
Intel plant halt langfristig, was sie eben tun müssen um keinen Ärger mit ihren Kunden zu bekommen.

Thowe
2007-02-23, 10:38:58
Der Pentium M hatte kein 64-bit und eine mieße SSE/2-Performnace, im Servermarkt wäre das teil untergegangen.

reunion

Der Servermarkt ist ja nur ein eher geringer Teilaspekt, vor allem bei den Stückzahlen. Für den Desktop gilt aber das was ich sagte, weil gerade hier AMD Marktanteile bei den "Gamern" und normalen Desktopeinsatz gewonnen hatte und ich kenne gar niemanden der seinen A64 für Spiele oder sei es nur Anwendungen mit 64Bit nutzt.

Nebenbei hat der Erfolg des A64 durchaus noch etwas mit dem normalen EDV-Handel zu tun, vor allem, weil Händler deshalb konkurrenzfähige Preise zu Größen wie DELL haben konnten.



PS: Ansonsten sollten wir hier lieber beim Thema R600 bleiben und dieses nicht weiter ausbreiten.

Simon Moon
2007-02-23, 12:14:34
Alle Jahre diesselbe Leier. Nur, weil damals 3dfx in den Anfangszeiten der 3D Grafikkarten gescheitert ist, wird nun ständig über den Untergang einzelner Firmen spekuliert.
Man sollte jedoch nicht vergessen, dass AMD nahezu so alt ist wie Intel. ATi sich als äusserst Wandlungsfähig erwies (mag sie noch jemand an die alten Rage Karten erinnern? Allgemein, stand ATi mal für gameruntauglich...) und nVidia mit dem NV30 auch schon eine Katastrophe überlebte. Auch bei Intel wird nicht immer alles ein Erfolg, was sie ankündigen, man denke nur an RD RAM oder IA64.

Es ist nunmal so, dass AMD die kritische Masse erreicht hat und nicht, wie damals 3dfx, von heute auf morgen verschwindet. Auch wollte das Intel garnicht, da sie dann wohl Probleme mit dem Kartellrecht kriegten.

Die Verzögerungen sind ein Rückschlag, doch dieser wird aufgefangen werden und in einem Jahr wird sich niemand mehr darum kümmern - ausser den Unheilsbeschwörern, die jedes Jahr eine Katastrophe sehen.

up¦²
2007-02-23, 12:19:13
mal nebenbei: :biggrin:
Fuad schreibt auch für eine bosnische Seite....
http://www.itx.ba/index.php?option=com_content&task=view&id=91&Itemid=39
Versteht hier jemand Bosnisch?

X.Perry_Mental
2007-02-23, 12:36:47
mal nebenbei: :biggrin:
Fuad schreibt auch für eine bosnische Seite....
Fuad verläßt den Inquirer (http://uk.theinquirer.net/?article=37798) zum Ende diesen Monats. ITeXclusive (http://www.itx.ba/)ist seine neue Website.

Paul Brain
2007-02-23, 13:20:58
Fuad verläßt den Inquirer (http://uk.theinquirer.net/?article=37798) zum Ende diesen Monats. ITeXclusive (http://www.itx.ba/)ist seine neue Website.
Aha, und die Seite betreibt er rein auf bosnisch... :confused:

crux2005
2007-02-23, 13:24:42
Aha, und die Seite betreibt er rein auf bosnisch... :confused:

ja, so siehts aus ...

/schon lustig die Seite zu lesen :D

dargo
2007-02-23, 14:59:53
Gut, sagen wir also gleich viele Transistoren für die gleiche Leistung. Dann bleibt immer noch mehr Abwärme bei einem kleineren Herstellungsprozess, weil das Design wohl offensichtlich auf hohe Taktraten ausgelegt ist und ein halbes Jahr Verspätung.
Und vielleicht weniger in Idle? ;)

deekey777
2007-02-23, 17:15:29
http://www.hkepc.com/bbs/news.php?tid=746258&starttime=0&endtime=0
Na, alles klar? :biggrin:

Ich liebe Rätsel.
Wenn es bei der XTX bei 814 MHz bleibt, dann wären es etwa 690-700 MHz bei der XT.

dargo
2007-02-23, 17:37:24
Oh man, selbst die XL hat noch eine TDP von 180W? :ugly:
Wenn ich das mal auf die G8800GTX (TDP von 177W) übertrage sollte die XL immer noch auf ca. 140-145W real kommen. Hmm, doch ziemlich viel.

Was ich aber nicht verstehe - die XL soll nur einen 6poligen PCIe Stecker haben (max. 150W). Da passt doch was nicht. :uponder:

Gmax
2007-02-23, 18:10:10
Was steht auf der Seite? Man muß dort ein PW eingeben.

paul.muad.dib
2007-02-23, 18:23:44
Ich glaube, dass die neue Verspätung ATI gar nicht so weh tut. Die größten Hardware-Verkäufe sind zwischen Back-to-School und Weihnachten, wenn auch die guten Spiele herauskommen. Die Zeit haben sie eh' verpasst und in die neue Periode werden sie wohl ohne Probleme hereinkommen.
Hauptsache der R600 ist für Crysis und andere DX10 Titel da.

Gmax
2007-02-23, 18:31:05
Ich glaube, dass die neue Verspätung ATI gar nicht so weh tut. Die größten Hardware-Verkäufe sind zwischen Back-to-School und Weihnachten, wenn auch die guten Spiele herauskommen. Die Zeit haben sie eh' verpasst und in die neue Periode werden sie wohl ohne Probleme hereinkommen.
Hauptsache der R600 ist für Crysis und andere DX10 Titel da.

Kohletechnisch tut es denen sehr wohl weh. Sieh dir doch an, was nV derzeit an DX10 Karten verscherbelt ;(

Gast
2007-02-23, 18:31:09
Oh man, selbst die XL hat noch eine TDP von 180W? :ugly:

Das wäre gar nicht so schlimm, wenn sie den bisherigen Gerüchte nach 512MB, 512 bit und 96 Shader hätte... damit wäre ja eigentlich noch ne klasse besser als die GTS.

Gast
2007-02-23, 18:53:21
Das wäre gar nicht so schlimm, wenn sie den bisherigen Gerüchte nach 512MB, 512 bit und 96 Shader hätte... damit wäre ja eigentlich noch ne klasse besser als die GTS.

Als ob man das jetzt schon beurteilen könnte, man schaue sich einfach mal aktuell X1950XTX(384GFLOPs) vs 8800GTS(230GFLOPs) in shaderlastigen Games an.
Eckdaten sind Schall und Rauch, wenn man eben die Effizienz nicht kennt.

kruemelmonster
2007-02-23, 18:58:40
GPU accelerated physics is available on ATI Radeon™ X2000 series graphics cards. GPU accelerated physics can take advantage of the processing capabilities of more than one ATI Radeon™ graphics card.

Enabling GPU (Graphics Processing Unit) accelerated physics can improve the visual quality of some Direct 3D applications that can take advantage of physics engines. Typically, applications that use extensive geometry can benefit from enabling GPU accelerated physics. Contact your application developer to determine if your application supports GPU accelerated physics. If you have an ATI CrossFire™ configuration, you must disable ATI CrossFire™ on the graphics card that you want to use to perform the physics calculations before you can enable GPU Accelerated Physics on the same card. For more information, see Disable ATI CrossFire™.


:biggrin:

Adam D.
2007-02-23, 19:24:06
Hui, das ist ja interessant. Haben wir also letztendlich doch noch etwas, das den R600 interessant macht :P

Gmax
2007-02-23, 19:28:15
Hui, das ist ja interessant. Haben wir also letztendlich doch noch etwas, das den R600 interessant macht :P

Was die R600 interessant macht. Leider nur im CF Verbund...

Konami
2007-02-23, 19:34:14
Was die R600 interessant macht. Leider nur im CF Verbund...
Wo liest du das raus? IMHO steht da nur, dass es mit CF besser läuft.
/Edit: Naja, man kann beides rauslesen.

Gast
2007-02-23, 19:34:56
Naja, Crossfire Physics wurde schon vor langer Zeit präsentiert, nun wird man es wohl mal endlich marktfertig bekommen wollen, da NV das Gegenstück im Zuge von SLI 2.0 wohl auch bald vorstellen wird.

Aber so eine kleiner 65nm RV630/RV610 ist vielleicht gar keine so schlechte CFP-Karte. ;)

kruemelmonster
2007-02-23, 19:46:52
@Gmax & maniok:

ist mMn eindeutig beschrieben: GPU Physics ist verfügbar auf X2000 Karten und zieht Vorteile aus mehreren Karten. Da steht nix von CF-only.

AnarchX
2007-02-23, 19:50:04
Brauch es halt nur noch passende Software, man erinnere sich an TruForm... ;)
Vielleicht auch ein Grund für die hohe Bandbreite des R600?

Gast
2007-02-23, 19:51:28
Als ob man das jetzt schon beurteilen könnte, man schaue sich einfach mal aktuell X1950XTX(384GFLOPs) vs 8800GTS(230GFLOPs) in shaderlastigen Games an.
Eckdaten sind Schall und Rauch, wenn man eben die Effizienz nicht kennt.

Du vergleichst Äpfel mit Birnen. Die X1950 war noch nicht in der Lage, die Recheneinheiten so effizient so nutzen wie die GTS.

Aber sowohl G80 als auch R600 werden in der Lage sein, dies zu tun. Da gibts also schonmal keinen großen Unterschied zu erwarten.

Mit einem 512 bit Speicherinterfache und schnellerem GDDR3 würde man schon ordentlich Rohpower vorweisen können... immerhin hat die GTS nur 320 bit.

dargo
2007-02-23, 19:58:35
Mit einem 512 bit Speicherinterfache und schnellerem GDDR3 würde man schon ordentlich Rohpower vorweisen können... immerhin hat die GTS nur 320 bit.
Die Bandbreite einer XL könnte durchaus gewaltig sein. Ich denke mal man wird nicht unter 700Mhz beim GDDR3 für die XL gehen. Das würde 89,6GB/s bedeuten.

AnarchX
2007-02-23, 20:01:22
Aber sowohl G80 als auch R600 werden in der Lage sein, dies zu tun. Da gibts also schonmal keinen großen Unterschied zu erwarten.
Wenn du hierzu eine Quelle hast, lass uns bitte daran teilhaben.
Momentan sieht es eben nicht danach aus, dass ATi beim R600 auf skalare ALUs setzt die weit über 1GHz takten, wodurch sie im Endeffekt eben deutlich mehr theoretische Shaderleistung benötigen.


Mit einem 512 bit Speicherinterfache und schnellerem GDDR3 würde man schon ordentlich Rohpower vorweisen können... immerhin hat die GTS nur 320 bit.
Dafür geht der X2900XL halt eher der Speicher aus, sodass man wohl von der angenommenen sehr hohen Bandbreite, die eher erst bei HDR+8xMSAA+TSAA zum tragen kommt, eben nicht profitieren wird.

Und das man bei der XL auf ein 512Bit SI setzt ist zudem auch noch alles andere als erwiesen, 256Bit + GDDR4 wären für einen Preisbrecher um einiges sinnvoller.

dargo
2007-02-23, 20:07:21
Dafür geht der X2900XL halt eher der Speicher aus, sodass man wohl von der hier sehr hohen Bandbreite die wohl eher erst bei HDR+8xMSAA+TSAA zum tragen kommt, eben nicht profitieren wird.

Bist du dir da so sicher? Wenn ich mir heutige Benchmarks zwischen 256MB und 512MB mit dem R580 anschaue sieht es ganz anders aus. Anscheinend kann ATI mit dem Vram deutlich besser umgehen als NV. Ob das beim R600 auch der Fall sein wird ist natürlich offen. Sollte dies aber zutreffen sehe ich keinen/kaum einen Vorteil für eine G8800GTX mit 768MB Vram gegenüber dem R600 mit 512MB, was die Vram Menge angeht.

AnarchX
2007-02-23, 20:13:29
Das müsste man nochmal genau untersuchen, aber AFAIK ist der Mehrspeicherverbauch bei AA den es bei den CineFX-GPUs gab, beim G80 nicht mehr vorhanden und einige Anomalien sollte man eher im Blick auf Treiberblasen untersuchen.

Hier nochmal etwas was der X2900XL mit 512MB auch passieren könnte:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4963453&postcount=110 ;)

dargo
2007-02-23, 20:17:40
Hier nochmal etwas was der X2900XL mit 512MB auch passieren könnte:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4963453&postcount=110 ;)
1. Ich habe einen 19" TFT. ;)
2. Selbst die 37,6fps der GTS im ersten Bild sind zuwenig um Farcry flüssig zu spielen (wenns avgs sind).
3. Wen interessiert noch Farcry?

Gast
2007-02-23, 20:22:21
Wenn du hierzu eine Quelle hast, lass uns bitte daran teilhaben.

Das ist schon ewig bekannt und eigentlich allgemeinwissen für Poster in diesem Thread. :tongue:
Such mit Google danach.

Die heutigen DX9 Karten sind mit der neuen Generation nicht mehr direkt vergleichbar, da nicht nur neue Features dazu kommen, sondern auch der Haube einiges verändert wurde.

AnarchX
2007-02-23, 20:29:06
@dargo
Nur könnte so etwas eben auch in den normalen Setting in zukünftigen Games auftretten.
Und wie schon gesagt, sind eben solche Settings wie oben gezeigt, gerade die wo man von über 90GB/s aktuell profitieren würde.

@Gast
Wilde Spekulationen sind alles andere als gesicherte Fakten und davon gibt es leider beim R600 momentan noch nicht wirklich viel. ;)

Gast
2007-02-23, 20:32:38
Wilde Spekulationen sind alles andere als gesicherte Fakten und davon gibt es leider beim R600 momentan noch nicht wirklich viel. ;)

Das sagte Richard Huddy...

Deswegen Google bemühen. Ich sehe keinen Sinn darin, meine Aussagen mit Quellen zu untermauern. Denn wenn ihr nicht mal mir glauben wollt, dann tut ihr es bei diversen Quellen irgendwo im Web erst recht nicht... euer Problem. :tongue:

dargo
2007-02-23, 20:35:20
Nur könnte so etwas eben auch in den normalen Setting in zukünftigen Games auftretten.

Wenn ich so bei den Games zurückblicke dann würde ich eher davon ausgehen, dass der Rohleistungsbedarf schneller ansteigt als die benötigte Vram-Menge (ich gehe immer von den "Durchschnittsauflösungen" bis max. 1680x1050 aus).

Gast
2007-02-23, 20:36:19
Hier noch vom Januar 07:
http://www.pcgameshardware.de/?article_id=542582

PCGH: Richard Huddy wurde jüngst mit den Worten zitiert, dass der R600 der schnellste D3D9-Grafikchip von Ati sei. Ist das tatsächlich so? Wird die nächste Chipgeneration auch bei Direct3D-9-Spielen messbar mehr Leistung bringen?

Lars Weinand: Ja, das ist in der Tat so. Die Unified Shader Architektur unserer nächsten GPU Generation ist nicht zwangsweise an DirectX 10 gekoppelt. Die Vorteile der USA, also einer möglichst optimalen Auslastung der Shader Prozessoren, gelten auch für DirectX 9 und Windows XP. Hinzu kommt: Auch Vista und DX10 beinhalten das DX9 Feature Set. Die kommende Hardware muss also auch DX9 vollständig unterstützen. Neben den Verbesserungen die in DX9 unter Windows XP gelten werden, wie neue GPU-Architektur und die Erhöhung der Speicher- und GPU Taktung etc. bietet unsere nächste Hardware-Generation dank USA zusätzlich noch einen sehr attraktiven Mehrwert - nicht nur unter Vista und DX10!

... deshalb ist jeglicher Vergleich der Performance zur Vorgängergeneration vollkommen sinnlos.

AnarchX
2007-02-23, 20:46:29
Dann bemüh du dich aber auch mal im Google und finde mal heraus, dass es eben nicht nur die USA ist, die für die beachtliche Shaderleistung des G80 verantwortlich ist. ;)

Zum Interview:
Bis auf den alt bekannten Fakt USA, wird da aber halt auch nicht mehr als PR-BlaBla erzählt.
Ob nun die ALUs des R600 effizienter sind als die des G80 (was sie nach aktuellem Stand höchstwahrscheinlich eben nicht sind), geht eben nicht hervor.

@dargo
Das kommt dann wieder ganz auf die Games an, wobei manche Games aber wenn man hier im Forum liest, wohl schon die 512MB überschritten haben.
Zudem bin ich auch gespannt wieviel UE3-Games an Speicher verbrauchen werden.

Gast
2007-02-23, 20:49:11
Dann bemüh du dich aber auch mal im Google und finde mal heraus, dass es eben nicht nur die USA ist, die für die beachtliche Shaderleistung des G80 verantwortlich ist. ;)

Nein. Denn das geht an meinem Posting vorbei und interessiert mich schlicht nicht.

Es ging ganz einfach um den Vergleich, der von einem Member gezogen wurde: X1950 gegen Unified Shader... das ist sinnlos!

Eine Architektur, die auf Basis dessen erstellt wurde, kann gar nicht langsamer sein, bei gleichen Rahmenbedingungen. Anstatt das Recheneinheiten brach liegen, werden sie für andere Bereiche genutzt.

deekey777
2007-02-23, 20:49:45
Was die R600 interessant macht. Leider nur im CF Verbund...
Hui, das ist ja interessant. Haben wir also letztendlich doch noch etwas, das den R600 interessant macht :P
Und dabei wurde ATi Physics auf zwei X1800XT gezeigt, wo eine X1800XT die Physik übernahm. Und man darf die Tests nicht vergessen, wo eine X1600XT die Physik (ATi Physics oder Havok FX) berechnete und eine X1900XT als für die Bilder sorgte. Die Variante mit einer Grafikkarte ist aber vom Tisch, wenn mich nicht alles täuscht (frühere Präsentationen sprachen immer nur von einer Grafikkarte, die beide Aufgaben übernimmt).

Gast
2007-02-23, 20:50:40
Und das man bei der XL auf ein 512Bit SI setzt ist zudem auch noch alles andere als erwiesen, 256Bit + GDDR4 wären für einen Preisbrecher um einiges sinnvoller.

... Spekulation.

Massen an GDDR4 sind nicht gerade billig und wahrscheinlich noch nicht ausreichend lieferbar.

AnarchX
2007-02-23, 21:02:06
Nein. Denn das geht an meinem Posting vorbei und interessiert mich schlicht nicht.

Es ging ganz einfach um den Vergleich, der von einem Member gezogen wurde: X1950 gegen Unified Shader... das ist sinnlos!
Und nochmal es ist eben nicht die USA die den G80 so schnell macht, deshalb ist der vergleich durchaus sinnvoll oder glaubst du die höhere Leistung bei niedrigem theoretischen Maximum der GTS kommt daher, dass alle Games massiv von der Vertexleistung limitiert sind? :biggrin:


Eine Architektur, die auf Basis dessen erstellt wurde, kann gar nicht langsamer sein, bei gleichen Rahmenbedingungen. Anstatt das Recheneinheiten brach liegen, werden sie für andere Bereiche genutzt.
Doch kann sie, da es eben noch auf die ALUs drauf ankommt.
SIMD-ALUs sind den skalaren ALUs des G80 in nahezu allen Fällen klar unterlegen, deshalb brauch der R600 wenn er solche besitzt eben deutlich mehr theoretische arithmetische Leistung um an den G80 heranzukommen.

Aber nun nochmal meine Bitte:
Informiere dich am besten in guten Artikeln wie hier auf der Hauptseite oder einer anderen guten Seite wie www.beyond3d.com und nutze nicht irgendwelche PR-Infos als Infoquelle. ;)

Gast
2007-02-23, 21:07:38
für 512bit si brauchste doppelt so viele chips, gleicht sich also aus

allerdings macht das imho nicht viel sinn
einen eigenen chip wird er xl nicht bekommen, das wird einer mit abgespekten alus werden
und durch ein deaktivieren spart man nicht grad viel, das board könnte billiger sein, dafür benötigt man wiederum ein neues layout

ich erwarte wohl eher 512bit SI

Gast
2007-02-23, 21:08:58
oder glaubst du die höhere Leistung bei niedrigem theoretischen Maximum der GTS kommt daher, dass alle Games massiv von der Vertexleistung limitiert sind? :biggrin:

Was ich glaube ist irrelevant. Was ein Fakt ist, ist die Tatsache, das es zu viele Software gibt, die mehr auf das eine als auf das andere setzt und eine Lösung, die für mehrere Dinge explizite Recheneinheiten vorsieht und dadurch teilweise nicht alle Recheneinhaiten vollständig ausnutzen kann, nicht schneller sein kann. Da gibt es nichts zu diskutieren, das ist einfach so.

Informiere dich am besten in guten Artikeln wie hier auf der Hauptseite oder einer anderen guten Seite wie www.beyond3d.com und nutze nicht irgendwelche PR-Infos als Infoquelle. ;)

Dann fang am besten gleich damit an, denn nicht ich bin es, der die aktuellen Fakten nicht kennt.

Was soll an der konsequenten Aussage eines hochrangigen Mitarbeiters unglaubwürdig sein?

Sie sind viel glaubwürdiger als der unqualifizierte mist der manchmal hier geschrieben wird.

deekey777
2007-02-23, 21:12:33
AnarchX: Auch die einzelnen ALUs des G80 sind SIMD. (Sehr doof formuliert.)

SIMD bedeutet nur, dass alle Recheneinheiten einer Recheneinheit die gleiche Instruktion ausführen. Der G80 ist ein MIMD mit 8 SIMD-Kanälen: Alle 8 Cluster* können 8 unterschiedliche Instruktionen ausführen. Der R580 ist im Pixelteil ein MIMD mit 3 SIMD-Kanälen, der G70 mit 6 (im Pixelteil). Dagegen sind die 8 VS-Einheiten des G70 MIMD, darum ist die Leistung beim dynamischen Branching im VS beim G70 so gut (man könnte meinen, der G80 wäre hier ein Rückschritt).

Der Unterschied zum R580 ist, dass beim G80 eine Instruktion pro Kanal ausgeführt wird (zB R). Beim R580 wird dagegen eine Instruktion für 3 Kanäle (RGB oder 4 Kanäle für RGB) ausgeführt. (Das klingt ja noch bescheuerter.)
*(Oder doch 16 Vec8-ALUs und somit 16 Instruktionen?)

Gast
2007-02-23, 21:14:10
... Hier geht es aber trotzdem um den R600, nicht um irgendwelche anderen Produkte. Deshalb ist es reichlich sinnlos, solche Vergleiche zu ziehen.
Schon bei der Vorgängegeneration hatten beide Unternehmen unterschiedliche Philosophien und Ansätze.

|MatMan|
2007-02-23, 21:15:14
Eine Architektur, die auf Basis dessen erstellt wurde, kann gar nicht langsamer sein, bei gleichen Rahmenbedingungen. Anstatt das Recheneinheiten brach liegen, werden sie für andere Bereiche genutzt.
Offensichtlich gibt es da ein Verständnisproblem. Die beiden Grafikkarten kann man schon vergleichen, obwohl der G80 unified Shader hat und die X19xx nicht.

Die angegebenen Flops der ATI Karte sind nur für den Pixel Shader Teil, während sich beim G80 die Flops auf Vertex und Pixel Shader verteilen müssen (d.h. effektiv ist die theoretische maximale Pixel Shader Leistung vom G80 sogar geringer als die angegebene Zahl). Da die ATI Karte noch extra Vertex Shader Einheiten hat und die in keinem praktischen Spiel eine Limitation darstellen, ist der Vergleich etwas unfair für nVidia. Man vergleicht also Pixel Shader Flops (ATI) mit Vertex Shader + Pixel Shader Flops (nVidia) von den theoretisch maximalen Zahlen her.

In Spielen sind wenn Flops limitieren nur die Pixel Shader relevant! Und trotzdem gewinnt der G80 gegen eine theoretisch weit über legene X19xx. Das hat nichts, rein gar nichts mit dem unified Shader Design zu tun. Man hätte sicherlich auch einen G80 mit getrennten Vertex und Pixel Shadern bauen können (aber mit dem gleichen effizienten Grunddesign) und er würde trotzdem noch den Vergleich gewinnen.

Wenn man deine Aussage verallgemeinert, dass eine unified Shader Karte gar nicht langsamer sein kann, dann will ich ja mal sehen, wie die kommenden Lowcost Modelle von beiden Herstellen die bisherigen Highend Karten versägen ;D

crux2005
2007-02-23, 21:17:38
*(Oder doch 16 Vec8-ALUs und somit 16 Instruktionen?)

ja, aths hat es irgendwo geschrieben ...

Gast
2007-02-23, 21:20:42
Wenn man deine Aussage verallgemeinert

Du kannst meine Aussage gar nicht verallgemeinern, weil sie klar definiert ist
Zitat: "Eine Architektur, die auf Basis dessen erstellt wurde, kann gar nicht langsamer sein, bei gleichen Rahmenbedingungen

dass eine unified Shader Karte gar nicht langsamer sein kann, dann will ich ja mal sehen, wie die kommenden Lowcost Modelle von beiden Herstellen die bisherigen Highend Karten versägen ;D

... das schließt diesen von dir aufgeführten Part nämlich von vornherein vollständig aus.

Gast
2007-02-23, 21:21:31
Wer kann schon bewerten was mehr Speicherbandbreite verbraucht, HDR oder 8xAA ? Schließlich schafft auch eine GTS Oblivion in 1680x1050 in HDR+8xAA

|MatMan|
2007-02-23, 21:26:01
Du kannst meine Aussage gar nicht verallgemeinern, weil sie klar definiert ist
Zitat: "Eine Architektur, die auf Basis dessen erstellt wurde, kann gar nicht langsamer sein, bei gleichen Rahmenbedingungen



... das schließt diesen von dir aufgeführten Part nämlich von vornherein vollständig aus.
Die Rahmenbedingungen sind das Spiel bzw. der Benchmark und das Computersystem mit CPU, RAM, usw. - die Grafikkarte ist das Testobjekt, wie die im Detail realisiert ist, ist doch für das Spiel egal. Ansonsten dürfte man ja nur die gleichen Grafikkarten gegeneinander testen, was nicht so sinnvoll ist. Um gleich heißt dann gleich, also auch nix mit R5xx gegen G7x, da nicht gleiche Rahmenbedingungen (anderes Design) nach deiner Definition...

AnarchX
2007-02-23, 21:26:07
@DK777:
Da fehlte wohl bei mir eher das "traditionell" bzw. "Vec4/5" vor SIMD, damit meine Aussage oben besser den eigentliche Sinn trifft.

@(Troll-)Gast:
Zwischen R600 und G80 werden sicherlich, wie schon dargestellt nicht gleiche Rahmenbedingungen herrschen und dein Huddy erzählt eben nicht mehr als das der R600 eine USA besitzt, was wie auch |MatMan| darstellt eben kein Garant für gute Leistung sein muss. ;)

Gmax
2007-02-23, 21:28:43
@Gmax & maniok:

ist mMn eindeutig beschrieben: GPU Physics ist verfügbar auf X2000 Karten und zieht Vorteile aus mehreren Karten. Da steht nix von CF-only.

Naja zumindest lief ATIs Physiklösung bislang nur mit einer seperaten Karte.
Was ich damit meinte, ist daß man eine zusätzliche Karte für die Physik braucht.

http://www.golem.de/showhigh2.php?file=/0606/45739.html

Gast
2007-02-23, 21:29:52
Was die R600 interessant macht. Leider nur im CF Verbund...

Was "den" R600 (chip) interessant macht.
Was "die" x2900 (Karte) interessant macht.

Bitte.

Gmax
2007-02-23, 21:35:47
"Die" R600 war als Mehrzahl gedacht. Zwei R600. Danke.

Gast
2007-02-23, 21:38:52
Die Rahmenbedingungen sind das Spiel bzw. der Benchmark und das Computersystem mit CPU, RAM, usw. - die Grafikkarte ist das Testobjekt, wie die im Detail realisiert ist, ist doch für das Spiel egal.

Aber mir nicht. Und deshalb dürfen meine Aussagen auch nicht so gedreht werden, wie sie euch am besten passen.

Gast
2007-02-23, 21:42:03
@(Troll-)Gast:
Zwischen R600 und G80 werden sicherlich, wie schon dargestellt nicht gleiche Rahmenbedingungen herrschen

@(Troll)-AnarchX

Was ich sogar explizit dazu schrieb.

und dein Huddy erzählt eben nicht mehr als das der R600 eine USA besitzt, was wie auch |MatMan| darstellt eben kein Garant für gute Leistung sein muss. ;)

Im Gegensatz zu seiner, basierte meine Aussage jedoch auf Fakten.

Liefer mir doch mal eine Quelle dafür, das die USA bei gleichen Rahmenbedingungen langsamer sein wird.

AnarchX
2007-02-23, 21:45:20
Langsam kommst du mir vor wie der gute Homer J. .... ;D

deekey777
2007-02-23, 21:50:26
Seid ihr jetzt fertig? Danke.

Gast
2007-02-23, 21:55:36
Ja, jetzt zum zurück zum Thema, denn unbestätige Aussagen haben einen Informationsgehalt von Null.

So oder so, wären noch einige Fragen offen.
Wenn GDDR4 angeblich so gut lieferbar ist (in massenproduktion heißt noch nicht, in ausreichender Stückzahl verfügbar), warum hat dann nV immer noch am Limit operierenden GDDR3 im Einsatz?

Wie steht es um den 80 nm Prozess? Könnte dieser die Verzögerung herrvorgerufen haben? Das wäre ja der erste richtige High End Chip in dieser Prozesslinie.

Demirug
2007-02-23, 22:02:30
Eine Architektur, die auf Basis dessen erstellt wurde, kann gar nicht langsamer sein, bei gleichen Rahmenbedingungen. Anstatt das Recheneinheiten brach liegen, werden sie für andere Bereiche genutzt.

Oder idlen rum weil der Flaschenhals gar nicht die Rechenleistung ist.

Huddy ist ein netter Gesprächspartner und wir haben uns damals in München wirklich nett unterhalten. Lustiger weiße allerdings mehr über PhysX als über GPUs. Trotzdem war diese ganze Rundreise von Huddy eine reine Marketingaktion mit dem Ziel USA in den höchsten Tönen zu loben. Zu dem Zeitpunkt glaubte ATI ja noch das nvidia keine USA hat.

Winter[Raven]
2007-02-23, 22:22:54
Zu dem Zeitpunkt glaubte ATI ja noch das nvidia keine USA hat.

Getroffen und versenkt ... *gg*

Nakai
2007-02-23, 23:01:29
Wenn GDDR4 angeblich so gut lieferbar ist (in massenproduktion heißt noch nicht, in ausreichender Stückzahl verfügbar), warum hat dann nV immer noch am Limit operierenden GDDR3 im Einsatz?


Billiger durch Rabatte und weniger Aufwand bei der Produktion?

mfg Nakai

paul.muad.dib
2007-02-24, 00:48:38
Dann fang am besten gleich damit an, denn nicht ich bin es, der die aktuellen Fakten nicht kennt.

Was soll an der konsequenten Aussage eines hochrangigen Mitarbeiters unglaubwürdig sein?

Sie sind viel glaubwürdiger als der unqualifizierte mist der manchmal hier geschrieben wird.

Schau dir bitte mal an, wie die Flops des G80 und des R580 berechnet werden. Wenn der R600 Vec4 USA Alus hat, so sind diese sehr wohl mit den Pixel Shadern des r580 vergleichbar. Wenn du nun die Zahl der Alus und deren Takt mit denen des r580 vergleichst, kannst du abschätzen, wie viel höher die Pixelshader-Leistung in etwa ausfallen wird.
Anders sähe es natürlich aus, wenn die ALUs mehr könnten als das MAD+ADD des r580.





Noch eine Frage an alle:

Bringt es eigentlich etwas, ADD und MUL zu trennen? Es heißt ja immer, die meisten Operationen brauchen eine Addition und eine Multiplikation.

Dann stelle ich mir das so vor:

Anweisung 1 will zuerst MUL und dann ADD
Anweisung 2 will zuerst ADD und dann MUL
Anweisung 3 will zuerst ADD und dann MUL


Zuerst kommt A1 in die Pipeline und belegt das MUL. Im nächsten Takt belegt sie das ADD und Anweisung 2 kann nicht geladen werden.
Im dritten Takt führt die ADD A2 aus, im vierten Takt die MUL A2 und die ADD A3, im fünften Takt wird Anweisung 3 ausgeführt.

Falls ADD und MUL entkoppelt wären, könnte man die 3 Anweisungen in nur 4 Takten bearbeiten. Stimmt das so oder ist es BS?

kruemelmonster
2007-02-24, 00:53:48
Naja zumindest lief ATIs Physiklösung bislang nur mit einer seperaten Karte.
Was ich damit meinte, ist daß man eine zusätzliche Karte für die Physik braucht.

http://www.golem.de/showhigh2.php?file=/0606/45739.html

Abwarten und Tee trinken. Wenn der R600 das Licht der Welt erblicken wird ist deine Quelle n gutes Jahr alt. Der aktuelle Catalyst Hilfeindex sagt ziemlich eindeutig: GPU accelerated physics is available on ATI Radeon™ X2000 series graphics cards. Punkt. Ob ne zweite oder dritte die Geschichte noch weiter beschleunigt ist irrelevant, da GPU accelerated physics is available on ATI Radeon™ X2000 series graphics cards. und nicht etwa GPU accelerated physics requires at least two ATI Radeon™ X2000 series graphics cards.

Master3
2007-02-24, 01:09:34
Im Forumdeluxx schreibt einer der anscheind bei Flagship(Hellgate London) arbeitet was informatives über den R600.
Inwieweit das stimmt..wer weiß, hört sicher aber interessant an.

Lest euch einfach mal die Beiträge von "Flagship" durch.
http://www.forumdeluxx.de/forum/showthread.php?t=202727&page=245

Gast
2007-02-24, 02:08:12
In ihrem stillen Kämmerlein dürfen die so ziemlich alles...
Fragt sich nur ob sie einen Chip ohne register-level Documentation so einfach auf "weitere Funktionalität" testen können.

Gast
2007-02-24, 02:59:28
Könnte diese Verschiebung vielleicht mit der Leistungsaufnahme zusammenhängen?

Zurzeit erlaubt die PCIe-Spezifikation Karten im PEG-Slot (PCI Express for Graphics) eine Leistungsaufnahme von maximal 75 Watt, mit einer zusätzlichen Verbindung zum Netzteil (6-poliger Stecker) dürfen es sogar 150 Watt sein. Viele Karten mit mehr als 75 Watt Leistungsbedarf belegen zwei mechanische Slots.

Bei nur 2 Steckern wäre somit bei 225 W schluss, oder nicht?

Erst PCIe 2 soll 300 W ermöglichen, aber das ist bisher noch nicht da!

Ein Schelm, wer böses dabei denkt. ;)

Gast
2007-02-24, 04:35:30
Ich glaube irgendwie, dass da noch was ganz Dickes (im kafkaesken Sinne)
auf uns zu kommt..... ist ATI pleite?

Gast
2007-02-24, 04:38:58
Wie konnte NV eigentlich in den letzten Jahren wieder technologisch so dazugewinnen? Ab ca. 2004 sind sie irgendwie Junbrunnenartig davongezogen (technologisch nicht leistungsmäßig).

Ailuros
2007-02-24, 06:36:58
Das wird wohl leider zu wahr sein. So mal der 65nm wirklich was neues ist.

Mehr Platz und weniger Stromverbrauch, aber ein noch zu hohes Risiko.

Es wäre erstaunlich, wenn TSMC den nicht mittlerweile einigermaßen im Griff hat. Prinzipiell sollten viele Probleme des 90er beim 80er genau in der gleichen Art auftauchen und eher wenige neue entstehen, so dass das Ganze eher unter leichte Anpassungen fallen sollte, die zum Teil sicherlich im Vorfeld bekannt waren.

Tja nachdem sich ATI neben ihren eigenen Problemen damit die Finger verbrannt haben im letzten Jahr wohl schon. Es ist aber auch der Grund warum ich bezweifle dass es einen 80nm G8x (stets high end) geben wird.

Ich denke ATI ist im Moment in etwa der Situation, wo auch NVIDIA war als die 9700 (R300) kam, niemand hätte damit gerechnet ein derartiges "Monster" zu sehen. Die verzögerte Antwort gleicht da schon fast der, die damals auch NVIDIA gab, wobei ich davon ausgehe, das ATI nicht ganz so schlecht aussehen wird und hoffentlich keinen FX-Flow Extreme und 300W ATI Powerstation (Netzteil) benötigen wird, um NV dann doch klar auszustechen.

Auf keinen Fall ein NV30-artiges Disaster. Vergiss bitte nicht dass NV in den Wind furzte als sie auf's falsche Laufband mit der Architektur setzten und als sich die DX9.0 specs dann aenderten konnten sie auch nichts mehr dagegen anstellen. D3D10 hatte keine solche Probleme afaik.

Noch dazu kommt dass R600 zwar seine Probleme hatte in 2006, aber das Ding war voll operativ und wurde an Entwickler weitergereicht. NV30 gab im Sommer vor seinem Launch samples die absolut unbrauchbar waren; die chips vom ersten tapeout kamen total tot an und es gab auch keinen einzigen Weg sie zum laufen zu bringen. I.e <0% yields ;)

dargo
2007-02-24, 09:04:03
@dargo
Das kommt dann wieder ganz auf die Games an, wobei manche Games aber wenn man hier im Forum liest, wohl schon die 512MB überschritten haben.
Zudem bin ich auch gespannt wieviel UE3-Games an Speicher verbrauchen werden.
Wenn du diesen Test aus dem Spiele-Forum meinst - der ist sinnlos. Warum, wurde schon oft genug gesagt.

LairD
2007-02-24, 10:35:34
Ich glaube irgendwie, dass da noch was ganz Dickes (im kafkaesken Sinne)
auf uns zu kommt..... ist ATI pleite?
Ja und AMD auch!
Am Montag wird der Verkauf an Intel bekannt gegeben und die sind dann 2 Tage später auch Pleite und werden dann von NV gekauft.
Diese Chance lässt sich M$ nicht entgehen und kauft alle zusammen und Google noch dazu.
Das steht dann am Freitag beim Inquirer!

Sry für OT aber ich kann das.
Sind die pleite?Das ist der Untergang! etc. pp Gelaber einfach nicht mehr lesen.


@ warmachine 79
:D
HrHr!
Stimmt hab ich gar nicht beachtet, dass der Inquirer diese Chance nutzen wird.

@dargo
Yo eig. gibts ja keinen blöden Fragen, aber manchmal. *kopfschüttel*

dargo
2007-02-24, 10:38:59
Ja und AMD auch!
Am Montag wird der Verkauf an Intel bekannt gegeben und die sind dann 2 Tage später auch Pleite und werden dann von NV gekauft.
Diese Chance lässt sich M$ nicht entgehen und kauft alle zusammen und Google noch dazu.
Das steht dann am Freitag beim Inquirer!

Sry für OT aber ich kann das.
Sind die pleite?Das ist der Untergang! etc. pp Gelaber einfach nicht mehr lesen.
:lol:

Der war gut. :up:
Wer blöd fragt hat es auch nicht anders verdient.

Lawmachine79
2007-02-24, 13:23:42
Das steht dann am Freitag beim Inquirer!



Nein!!!! Der Inquirer wird sich darüber ausschweigen. Weil er dann ALL DAS aufkauft und fortan Gerüchte zur Wahrheit machen kann.

Gast
2007-02-24, 14:35:13
Wenigstens ist Fuad jetzt weg vom Inquirer. Die Umstände würde ich allerdings gerne mal wissen.

robbitop
2007-02-24, 14:39:59
Das müsste man nochmal genau untersuchen, aber AFAIK ist der Mehrspeicherverbauch bei AA den es bei den CineFX-GPUs gab
Du meinst den Scanout im framebuffer? Das ist schon seit der NV25 so und sind nur ein paar laeppische Megabytes. Dafuer spart es aber einen Lesezugriff und damit Bandbreite. Ich glaube nicht, dass man das jetzt weglaesst.

Gast
2007-02-24, 15:01:50
Bei 64-Bit/Sample komm ich da bei 1600x1200 8xMSAA auf zusätzliche 100MB. So "läpisch" ist das nicht.

Gast
2007-02-24, 15:27:15
Du meinst den Scanout im framebuffer? Das ist schon seit der NV25 so und sind nur ein paar laeppische Megabytes. Dafuer spart es aber einen Lesezugriff und damit Bandbreite. Ich glaube nicht, dass man das jetzt weglaesst.


in hohen FSAA-modi ist das alles andere als läppisch, insbesondere wenn dann noch triple-buffering dazukommt.

ich weiß zwar nicht ob der G80 das downsampling immer noch beim scanout vornimmt, im zweifelsfall (speicher geht aus) kann man auf jeden fall auf die "herkömliche" methode umschalten.

Gast
2007-02-24, 18:23:11
Bei 64-Bit/Sample komm ich da bei 1600x1200 8xMSAA auf zusätzliche 100MB. So "läpisch" ist das nicht.

Wie berechnet man das? Kann man das auch für CSAA genau berechnen und nicht einfach sagen, das sind 100MB zusätzlich zu X...

Gast
2007-02-24, 18:31:23
Wie berechnet man das? Kann man das auch für CSAA genau berechnen und nicht einfach sagen, das sind 100MB zusätzlich zu X...
1600*1200*8*64 Bit = 117 Mebibyte

Liszca
2007-02-24, 18:58:59
... Jahre hinterhergehinkt ist. Und den längeren, finanziellen Atem hat wohl offensichtlich Intel...



Bei dem angeblichen "Preiskampf" bei prozessoren und den gewinneinbußen bei intel bin ich mir nicht mehr so sicher ob die noch so schlagkräftig wie früher sind, schliesslich wurden auch schon einige entlassen. das muss zwar nix heissen, deutet doch eine gewisse richtung an, die eine AG geht wenn das geschäft mal nicht so gut läuft.

Aquaschaf
2007-02-24, 19:02:15
Bei dem angeblichen "Preiskampf" bei prozessoren und den gewinneinbußen bei intel bin ich mir nicht mehr so sicher ob die noch so schlagkräftig wie früher sind

Wir reden hier von 38,8 Mrd. Umsatz gegen 7,4 Mrd. Umsatz. Intel ist einfach ein ganzes Stück größer.

James Ryan
2007-02-24, 20:46:29
Wie konnte NV eigentlich in den letzten Jahren wieder technologisch so dazugewinnen? Ab ca. 2004 sind sie irgendwie Junbrunnenartig davongezogen (technologisch nicht leistungsmäßig).

Nach dem NV30 Desaster haben sich die NV-Jungs halt mal hingesetzt und sich angestrengt. Da kann man nur sagen gute Arbeit NVIDIA (aber nur die Hardwareabteilung, die Softwareabteilung aka Treiberprogrammierer entspannen sich noch zuviel ;D ).

MfG :cool:

Gast
2007-02-24, 20:48:04
Wir reden hier von 38,8 Mrd. Umsatz gegen 7,4 Mrd. Umsatz. Intel ist einfach ein ganzes Stück größer.

Um die braucht man sich wirklich keine Sorgen machen... laut einer der letzten Meldungen macht Intel allein mit Chipsätzen so viel Umsatz, wie AMD insgesamt. ;D

Also selbst dann, wenn sie kaum CPUs verkaufen... ;D

Gast
2007-02-24, 21:31:11
Wie berechnet man das? Kann man das auch für CSAA genau berechnen und nicht einfach sagen, das sind 100MB zusätzlich zu X...

anzahl der pixel * byte/pixel * anzahl der samples

mal ein beispiel: 1600x1200x32bit

macht für einen einfachen buffer 7,32MiByte

bei 8xMSAA für den backbuffer also 58,6MiB, nochmals 58,6MiB für den Z-buffer.
beim downsampling@scanout wird für den frontbuffer nochmals 58,6MiB benötigt, ansonsten nur 7,32MiB.
kommt triple-buffering zum einsatz fallen nochmals je nach methode 58,6 bzw. 7,32MiB an.

bei CSAA fallen vermutlich neben dem üblichen speicherpatz für die multisamples noch zusätzlich 2 bzw. 3 bit pro coverage-sample an (je nachdem ob 4x oder 8xMSAA die basis darstellt), ohne downsampling@scanout nur für den backbuffer, ansonsten wieder für alle buffer.

1600*1200*8*64 Bit = 117 Mebibyte

bei HDRR ist garantiert kein downsampling@scanout möglich, denn das primäre rendertarget liegt mit maximal 32bit vor, möglicherweise wird das downsampling sogar direkt beim tonemapping gemacht (wenn die anwendung es so macht)

Gast
2007-02-24, 21:46:57
Da kann man nur sagen gute Arbeit NVIDIA (aber nur die Hardwareabteilung, die Softwareabteilung aka Treiberprogrammierer entspannen sich noch zuviel ;D ).

MfG :cool:
Glaube eher, dass die Abteilungen chronisch unterbesetzt sind. Und da es ATi momentan auch versaut hat, sind sie momentan nicht gezwungen das zu ändern. :(

Gast
2007-02-25, 00:07:38
anzahl der pixel * byte/pixel * anzahl der samples

mal ein beispiel: 1600x1200x32bit

macht für einen einfachen buffer 7,32MiByte

bei 8xMSAA für den backbuffer also 58,6MiB, nochmals 58,6MiB für den Z-buffer.
beim downsampling@scanout wird für den frontbuffer nochmals 58,6MiB benötigt, ansonsten nur 7,32MiB.


Danke, das mal ne präzise und einfache Erklärung ;)
175,8MiB verbrät eine GTS unter 8xQ also, bleiben noch 465MiB. Bei der 320er Version sind 144MiB, das zuwenig, sieht man ja auch.
Bei HDR+AA erhöht sich die Speicherlast also nicht, sie sinkt sogar ab auf einer G80 da kein downsampling gemacht werden kann?

Der Test einer R600 mit 512MB wird interessant, sollte ATI 8xAA bieten wird man mal sehen können wo der Speicher knapp wird. Wenn nicht vorher Rechenleistung knapp wird :P

K4mPFwUr$t
2007-02-25, 10:39:06
das wäre bei der XT so, aber die XTX soll ja mit 1GB GDDR4 daherkommen.
bei der XT kann es knapp werden, bei der XTX ... die langweilt sich ;D

Gast
2007-02-25, 11:58:42
Bei HDR+AA erhöht sich die Speicherlast also nicht, sie sinkt sogar ab auf einer G80 da kein downsampling gemacht werden kann?



downsampling muss immer gemacht werden, die frage ist nur wann.

es ist auch nicht bekannt ob der G80 das downsampling beim scanout macht, ich denke wenn er es macht maximal bis 4xFSAA, bei höheren FSAA-modi ist bei einem sinkenden verhältnis von framerate/refreshrate die bandbreitenersparnis nicht mehr vorhanden, ab einem bestimmten punkt wird sogar mehr bandbreite verbraucht.

bei HDRR sieht es wieder ganz anders aus:

der HDR-buffer ist eine textur in die gerendert wird, diese muss in voller auflösung (mit allen FSAA-samples) und mit 64bpp vorliegen.

dann gibt es noch den "normalen" backbuffer, in den das fertige LDR-bild kommt, welches später am monitor angezeigt wird. prinzipiell könnte beim umrechnen des bildes aus dem HDR-buffer in den LDR-buffer auch bereits gleichzeitig das downsampling vorgenommen werden. ich schätze allerdings dass die anwendung dies auch anfordern muss, bei irgendwelchen "hacks" wie bei oblivion von außen MSAA zu erzwingen denke ich nicht dass es möglich ist hier auch gleich das downsampling vorzunehmen, aber darauf sollten andere antworten die sich mit der materie besser auskennen.

Gast
2007-02-25, 15:00:27
Wenn AMD/ATi zu lange warten dann kontert NV sofort mit na 8900GTX

K4mPFwUr$t
2007-02-25, 15:05:33
das könnte passieren. AMD/ATI kennt ja so gesehen nicht die technischen daten des G81. daher können sie ja nur grob einschätzen in wie fern konkurenzfähig der R600 gegen diesen ist.

wird schon schief gehen ;D

Gast
2007-02-25, 15:22:27
das könnte passieren. AMD/ATI kennt ja so gesehen nicht die technischen daten des G81. daher können sie ja nur grob einschätzen in wie fern konkurenzfähig der R600 gegen diesen ist.

wird schon schief gehen ;D

firmen wissen haargenau was die konkurenz baut

Gast
2007-02-25, 15:34:29
firmen wissen haargenau was die konkurenz baut

Genauso, wie ATi wusste das der G80 eine USA-GPU sein würde... X-D

Das NVIDIA eine Antwort auf den R600 haben wird ist gewiss.

horn 12
2007-02-25, 16:04:22
Hi, kopiert aus dem Forumdeluxx Forum

Zitat von Flagship:
@ all, ich hatte grade einen 400-500 wörter umfassenden beitrag geschrieben der mir beim backspace drücken durch mozilla komplett vernichtet worden ist. da er die letzte seite aufgerufen hat


hier die kurzfassung nochmal....

er MUSS bis ca 50% mehr Leistung als der G80 haben!!!

warum?

Überlegt mal wie lange AMD hinterher ist??? 6 monate sind nunmal 50% und mehr leistung.... Das wäre ein selbst mord von A/A wenn sie nicht mindestens soviel mehr performance hätten, wenn die spekulationen zum g81 sich als wahrheit behaupten sollte. wird die r600 sich in den Kampfgebieten taumeln, vll sogar ein wenig höher, da man ja jetzt noch nicht beurteilen kann, ob die ca 125Mz mehr und die weiteren 32 SU soviel bringen wie das A18 release von A/A, ich habe die A15 inner firma, daher wird die nicht massenproduktion, da es eine ES-Karte ist.


Mein Beitrag:
Also doch noch ne Neue Revision der Karte, sprich "A18" :biggrin:
Geil, und höherer Takt sogar noch? Wie kühlen die dann dieses Monstrum an Graka?
Somit wären die Benchmarks von Anfang Jänner dennoch Richtig gewesen :confused: und denke mal vor dem anfänglichne "Richtigen Launch seitens ATI" durchgesickert.
Da hat wohl AMD diesen Lauch zurückgewiesen, da diese auf den G81 aufsetzen wollten.
PS:
Könnte also doch noch länger dauern bis die Karten kaufbar sein, oder werden A/A schneller die Revisonsüberarbeitung fertig haben als NV lieb ist?

Gast
2007-02-25, 16:42:07
Ach horn_12, ich hoffe doch ernsthaft, dass das was du hier darstellst eine Parodie sein soll... X-D

50%? ^^
Ich glaube momentan hat ATi eher Probleme, dass der R600 überhaupt schneller als der G80+von NV zurückgehaltene Leistung ist.

Jeder Tag an dem kein R600 am Markt ist verliert man potentielle Kunden und mit der weiteren Verschiebung hat man definitv wieder einen ganze Menge von diesen verloren.
Wäre der R600 also ein gutes Prozentual schneller, so wäre schon längst am Markt.

Gast
2007-02-25, 16:48:03
Ach horn_12, ich hoffe doch ernsthaft, dass das was du hier darstellst eine Parodie sein soll... X-D

50%? ^^
Ich glaube momentan hat ATi eher Probleme, dass der R600 überhaupt schneller als der G80+von NV zurückgehaltene Leistung ist.

Jeder Tag an dem kein R600 am Markt ist verliert man potentielle Kunden und mit der weiteren Verschiebung hat man definitv wieder einen ganze Menge von diesen verloren.
Wäre der R600 also ein gutes Prozentual schneller, so wäre schon längst am Markt.

wie unerfahren muß man sein um sowas zu schreiben....sehr

VoodooJack
2007-02-25, 17:00:11
How's this: a decision was made regarding the R600 release, that will be a very pleasant surprise to many people.

Sagte heute Kombatant im Rage3d Forum.

Ich hoffe, Kombatant ist euch ein Begriff. Der sagt das nicht aus dem Bauch raus, sondern weil er nach eigener Aussage bezüglich R600 und R600 delay "educated" ist.

So, und nun könnt ihr euch wieder die Köpfe zerbrechen, wie diese "sehr erfreuliche Überraschung für viele Leute" aussehen wird.

Spasstiger
2007-02-25, 17:03:21
Sofortige Verfügbarkeit und Abdeckung aller Marktsegmente wäre eine erfreuliche Überraschung bezüglich des R6xx-Release.

Gast
2007-02-25, 17:07:14
Sofortige Verfügbarkeit und Abdeckung aller Marktsegmente wäre eine erfreuliche Überraschung bezüglich des R6xx-Release.

Das wäre aber keine Überraschung, weil ein Hardlaunch ja sowieso geplant war. ;D

Gast
2007-02-25, 17:13:49
1600*1200*8*64 Bit = 117 Mebibyte
Fast richtig. 1600*1200*7*64 Bit müsste es sein, denn ein Sample muss ATI auch im Frontbuffer halten nach dem Downsampling.

Gast
2007-02-25, 17:16:24
Wenn AMD/ATi zu lange warten dann kontert NV sofort mit na 8900GTX
Das wird auch jetzt schon passieren.

James Ryan
2007-02-25, 18:36:37
How's this: a decision was made regarding the R600 release, that will be a very pleasant surprise to many people.

Sagte heute Kombatant im Rage3d Forum.

Ich hoffe, Kombatant ist euch ein Begriff. Der sagt das nicht aus dem Bauch raus, sondern weil er nach eigener Aussage bezüglich R600 und R600 delay "educated" ist.

So, und nun könnt ihr euch wieder die Köpfe zerbrechen, wie diese "sehr erfreuliche Überraschung für viele Leute" aussehen wird.

Eine Überraschung wäre erfreulich, ich hoffe mal dass derStromverbrauch doch nicht so hoch sein wird und dass es sofort ausgereifte Treiber geben wird.

MfG :cool:

dargo
2007-02-25, 18:45:20
Ist da jetzt was Wahres am A18 dran?

w0mbat
2007-02-25, 18:57:07
Also ich habe nach dem A15er nichts mehr gehört. Entweder AMD hat völlig dicht gemacht oder es gibt keinen A18er.

Gmax
2007-02-25, 19:16:30
How's this: a decision was made regarding the R600 release, that will be a very pleasant surprise to many people.


Ach, ich liebe einfach solche Gerüchte :)
Die Frage ist, ob er nur marketingtechnisch von ATI "educated"
wurde (also so richtig Gehirngewaschen), oder ob das faktische Annahmen aufgrund seines tiefen Einblickes in die Architektur des R600 sind...

AnarchX
2007-02-25, 19:24:58
Also ich habe nach dem A15er nichts mehr gehört. Entweder AMD hat völlig dicht gemacht oder es gibt keinen A18er.

Ich denke, wenn man jetzt noch einen Respin machen würde, könnte man einen Hardlaunch im Q2 eher vergessen.

dargo
2007-02-25, 19:55:20
Ich denke, wenn man jetzt noch einen Respin machen würde, könnte man einen Hardlaunch im Q2 eher vergessen.
Vielleicht hat man den Respin viel füher gemacht. Nur erst jetzt ist etwas durchgesickert.

Nakai
2007-02-25, 19:57:03
Wieso ein Respin?
Vll feilt man einfach an den Yields die derzeitig sehr mies sind.

mfg Nakai

deekey777
2007-02-25, 20:03:10
Das wäre aber keine Überraschung, weil ein Hardlaunch ja sowieso geplant war. ;D
Aber nich für alle R600-Produkte, die XT un die XL sollten nach und nach nachgeliefert werden. :tongue:
Ist da jetzt was Wahres am A18 dran?
A15 soll der letzte Respin sein. A18 wäre Respin Nr...., ach keine Ahnung, das klingt unlogisch.

AnarchX
2007-02-25, 20:04:42
Vielleicht hat man den Respin viel füher gemacht. Nur erst jetzt ist etwas durchgesickert.

Natürlich alles im Bereich des Möglichen.
Aber warum dann A18?
Da müsste es ja noch A16 und A17 geben, die auf der Halde gelandet sind.

Meiner Ansicht sind die Gründe für die Verschiebung: mangelhafte Treiberleistung und noch nicht genügend vorhandene GPUs, die man für den angezielten Hardlaunch benötigt.
Das man noch weiteres Geld in einen Re-Spin verpulvert halte ich eher für unwahrscheinlich.

dargo
2007-02-25, 20:08:59
Natürlich alles im Bereich des Möglichen.
Aber warum dann A18?
Da müsste es ja noch A16 und A17 geben, die auf der Halde gelandet sind.

Naja, ein A14 gabs afaik auch nicht.

horn 12
2007-02-25, 20:21:47
Wenn wirklich ein A18 kommen sollte, dann wird wohl die Stromaufnahme vor allem der Hauptgrund gewesen sein, da könnte echt AMD mit im Spiel sein und viell. sogar schon seid Anfang des Jahres damit am werkeln sein. Nur wollte man diesen auf Ende März fertigbekommen, schaffte dies aber zeitlich nicht ganz.
Ist nur eine Theorie von mir, will nichts konkretes sagen.
Möglich wäre auch dass sowohl A/A nun einen Feinschliff an Treibern / Stromzufuhr, Hitzeentwicklung machen, um das Produkt noch runder zu gestalten und einen Lauch aller 3-5 Karten zeitgleich zu gewähren.

Black-Scorpion
2007-02-25, 20:25:54
Was soll AMD damit zu tun haben?
Die haben von GPUs Null Ahnung und mal eben ein wenig rumbasteln ist nicht.

w0mbat
2007-02-25, 21:57:58
Naja, ein A14 gabs afaik auch nicht.

Es gab eine Rev A14, die aber nicht stabil lief.

Paul Brain
2007-02-26, 11:34:17
AMD hat bzgl. der Verschiebung des R600-launches ja etwas von "not only graphics" gesagt; dazu kommt die FAQ eines R600-Treibers, die von Physik spricht. Ich spekuliere mal, daß R600 beim Launch funktionierende Treiber haben wird, um z.B. eine Havok-Engine o.ä. direkt auf der GPU laufen zu lassen, evtl. fängt man calls sogar ab sodaß bereits erhältliche Spiele ohne Anpassungen davon profitieren? *wildherumspekulier*
Damit wäre man nV wieder einen Schritt voraus...

deekey777
2007-02-26, 11:51:10
Zumindest Havok FX lief schonmal letzten Sommer (auch außerhalb von Messegeländen, genau wie ATi Physics). Havok auf einer Grafikkarte? Hm, das glaube ich nicht, zumindest nicht bei der Spielphysik, und für Effekte-Physik gibt es gerade Havok FX. Ich tippe eher auf CTM für R600 (der G80 kann schon mit CUDA angeben).

Demirug
2007-02-26, 11:58:15
Natürlich läuft das auf CUDA und Co hinaus. Der Vorteil gegenüber dedizierten Physikkarten ist dabei dann allerdings das man die Daten ja schon mal im gleichen Speicher hat. Bei CUDA wird ja sogar explizit beschrieben wie man mit CUDA Verticen in einem 3D-API Buffer erzeugen kann.

AnarchX
2007-02-26, 13:16:07
Infos zu den RV630 Modellen und UVD
http://img147.imageshack.us/img147/9826/attachmentmd4.jpg
http://img147.imageshack.us/img147/876/attachmentdi0.jpg
http://www.hkepc.com/bbs/news.php?tid=748386&starttime=0&endtime=0

VR-Zone meint noch dazu (http://www.vr-zone.com/index.php?i=4695), dass man über einer X1900GT liegen wird.

deekey777
2007-02-26, 13:23:55
UVD ist doch nicht tot, interessant. Aber der RV630 ist ein würdiger Nachfolger des RV530/RV535, besonders die GDDR4-Version (X1600XT: schwacher Chip, aber viel Bandbreite).

Gmax
2007-02-26, 13:26:39
Hmm, ich hätte ganz gerne eine 256 Bit Karte im Midrange
Bereich gesehen:rolleyes:

Enterprise
2007-02-26, 13:53:28
http://www.hkepc.com/bbs/news.php?tid=748421&starttime=0&endtime=0
2 R600, erkannt am Kühler! Oder doch X1950GT ?

Nakai
2007-02-26, 13:59:11
2 X1950PRO.

mfg Nakai

Gast
2007-02-26, 13:59:15
http://www.hkepc.com/bbs/news.php?tid=748421&starttime=0&endtime=0
2 R600, erkannt am Kühler! Oder doch X1950GT ?Ein R600 mit Singleslot-Kühler? Wohl kaum. ;)

Gmax
2007-02-26, 14:06:10
Das sind 2 X1950 Pro.

http://geizhals.at/a218554.html

Gast
2007-02-26, 14:06:55
http://www.hkepc.com/bbs/news.php?tid=748421&starttime=0&endtime=0


Ob das vielleicht die "erfreuliche Überraschung" ist, CF auf allen dazu technisch fähigen Plattformen. ;)

Slipknot79
2007-02-26, 14:11:19
http://www.hkepc.com/bbs/news.php?tid=748421&starttime=0&endtime=0
2 R600, erkannt am Kühler! Oder doch X1950GT ?




Seit wann gibts ein Datenkabel bei CF? Dachte die Daten werden übers Mobo ausgetauscht?

seahawk
2007-02-26, 14:23:30
TDP 128W für die stärkste RB630 ist nicht gerade toll, wenn man an den Mobilmarkt denkt.

deekey777
2007-02-26, 15:29:51
Seit wann gibts ein Datenkabel bei CF? Dachte die Daten werden übers Mobo ausgetauscht?
Du meinst die X1900GT, da wird über PCIe kommuniziert ("Software-CF"). Ab RV570 gibt's die Brücken (X1650XT, X1950Pro/GT).
Hmm, ich hätte ganz gerne eine 256 Bit Karte im Midrange-Bereich gesehen:rolleyes:
Die RV630er sind kein Ersatz für die Grafikkarten mit dem RV570, darum nur 128 bit. Auch die Grafikkarten mit dem G84 werden über gleich enges SI verfügen.

Warum kommt Sefadu als erster?

Nakai
2007-02-26, 15:55:39
Hardwareluxx (http://www.forumdeluxx.de/forum/showpost.php?p=5567792&postcount=212)

Interessant! Mal schauen ob was Wahres dran ist.

mfg Nakai

Gast
2007-02-26, 15:56:04
TDP 128W für die stärkste RB630 ist nicht gerade toll, wenn man an den Mobilmarkt denkt.


Das ist ja wie ne 8800GTS :rolleyes:

w0mbat
2007-02-26, 16:02:31
C2D E6600 @ default + R600 XTX @ default = 13298 Pkt. im 3DMark06
C2D E6600 @ 3,2GHz + R600 XTX @ 1,35/3,35 = 18342 Pkt. im 3DMark06

http://www.forumdeluxx.de/forum/showpost.php?p=5567792&postcount=212

Glaubwürdigkeit 6/10, mit Screen 8/10

Die_Allianz
2007-02-26, 16:04:21
ich wollte es 'drüben' nicht schreiben, aber ich glaub dem kein wort

reunion
2007-02-26, 16:05:22
TDP 128W für die stärkste RB630 ist nicht gerade toll, wenn man an den Mobilmarkt denkt.

TDP = wertlos. Die TDP des R600 liegt weit über dem, was die Stromversorgung mit zwei 6-Pin-Anschlüssen maximal liefern kann. Und damit wird die Karte laufen. Ich kann mir jedenfalls nicht vorstellen, dass ein stark abgespeckter Chip in 65nm über 100W verbaten soll.


C2D E6600 @ 3,2GHz + R600 XTX @ 1,35/3,35 = 18342 Pkt. im 3DMark06


Soll das wirklich 1.35Ghz Chiptakt und 3.35Ghz Speichertakt bedeuten? ;D

w0mbat
2007-02-26, 16:06:10
Ich ehrlich gesagt auch nicht. Aber eines finde ich komisch. Wenn er alles Faken will, würde ich als Coretak 700-900MHz angeben. Er geht mit 1,35GHz deutlich drüber. Das ist waghalsig und doch logisch. Damit hätte wird den Grund für den Respin = Der R600 braucht eine enorm hohe Taktrate.

Nakai
2007-02-26, 16:27:43
TDP = wertlos. Die TDP des R600 liegt weit über dem, was die Stromversorgung mit zwei 6-Pin-Anschlüssen maximal liefern kann. Und damit wird die Karte laufen. Ich kann mir jedenfalls nicht vorstellen, dass ein stark abgespeckter Chip in 65nm über 100W verbaten soll.



Soll das wirklich 1.35Ghz Chiptakt und 3.35Ghz Speichertakt bedeuten? ;D

Ja, das soll es.

Nun ich traue dem Ding auch net. Aber wenn das Ding 1.35Ghz schafft, wär das ziemlich viel ungenutzter Spielraum, ideal zum Kontern des G81 bzw. G90.

mfg Nakai

Gast
2007-02-26, 16:32:17
Ja, das soll es.

Nun ich traue dem Ding auch net. Aber wenn das Ding 1.35Ghz schafft, wär das ziemlich viel ungenutzter Spielraum, ideal zum Kontern des G81 bzw. G90.


Nur dumm, dass es keine PCIe-Spezifikation für GraKas jenseits der 300W gibt. ;)

Gast
2007-02-26, 16:35:15
R600 @1,35Ghz Core @ 3,35Ghz RamDie Taktraten sind doch himmelschreiender Unsinn. Selbst wenn er die Taktrate beim Speicher deppenverdoppelt hat, kommt das nicht hin. Derart hoch getakteten GDDR4 gibt es doch afaik gar nicht in Massenproduktion. Und selbst wenn es ihn gibt, warum sollte ATI ihn verbauen, wo sie doch ein 512-bit-SI besitzen und so auch schon mit langsamerem GDDR4 deutlich mehr Bandbreite als die Konkurrenz besitzen. An 1,35 GHz Chiptakt glaube ich auch nicht.

Nakai
2007-02-26, 16:35:43
Nur dumm, dass es keine PCIe-Spezifikation für GraKas jenseits der 300W gibt. ;)

;p

Wenn eine Rev17 kommt, wird das kein Problem sein.

mfg Nakai

w0mbat
2007-02-26, 16:44:12
Es gibt eine Rev A17, aber will AMD damit back to the roots aka A12?

Nakai
2007-02-26, 16:49:18
Mhh wie darf ich das verstehen? Jedenfalls soll die Rev A17 weniger Strom verbrauchen.

mfg Nakai

Gast
2007-02-26, 16:56:28
C2D E6600 @ default + R600 XTX @ default = 13298 Pkt. im 3DMark06
C2D E6600 @ 3,2GHz + R600 XTX @ 1,35/3,35 = 18342 Pkt. im 3DMark06
http://www.forumdeluxx.de/forum/showpost.php?p=5567792&postcount=212
Glaubwürdigkeit 6/10, mit Screen 8/10

Dann erkläre uns doch mal, warum er eine Glaubwürdigkeit von 60% hätte...

w0mbat
2007-02-26, 17:00:22
Weil er ein paar Dinge richtig gesagt hat und weil er mit 1,35GHz Core kommt. Ich ändere jetzt aber meine Meinung in 4/10.

Gast
2007-02-26, 17:02:49
Weil er ein paar Dinge richtig gesagt hat und weil er mit 1,35GHz Core kommt. Ich ändere jetzt aber meine Meinung in 4/10.

Welche "Dinge" habe er denn richtig gesagt?
Das die Karte 1 Gib Speicher habe? Oder dass sie mit einem 512 - bit breiten Interface komme?
Nach dem Querlesen des Threads fällt mir nichts ein, was ich nicht durch beyond3d.com, Theinq.net und andere Seite weis.

Gast
2007-02-26, 17:06:18
Weil er ein paar Dinge richtig gesagt hat und weil er mit 1,35GHz Core kommt. Ich ändere jetzt aber meine Meinung in 4/10.

also wenn er 4/10 hat,hast du 1/10

w0mbat
2007-02-26, 17:08:41
Du bist ja ein cooler. Nicht mal die Eier sich anzumelden und dann große Töne spucken. Kauf dir einen Keks.

Gast
2007-02-26, 17:09:14
TDP = wertlos. Die TDP des R600 liegt weit über dem, was die Stromversorgung mit zwei 6-Pin-Anschlüssen maximal liefern kann.
Das ist ja schon prinzipiell ausgeschlossen, außer ich hab in Physik was beim Energieerhaltungssatz falsch verstanden.

Gast
2007-02-26, 17:16:27
Die Taktraten sind doch himmelschreiender Unsinn. Selbst wenn er die Taktrate beim Speicher deppenverdoppelt hat, kommt das nicht hin. Derart hoch getakteten GDDR4 gibt es doch afaik gar nicht in Massenproduktion. Und selbst wenn es ihn gibt, warum sollte ATI ihn verbauen, wo sie doch ein 512-bit-SI besitzen und so auch schon mit langsamerem GDDR4 deutlich mehr Bandbreite als die Konkurrenz besitzen. An 1,35 GHz Chiptakt glaube ich auch nicht.

Der Chiptakt ist Übertaktet ;)

dabei wurde laut ihm die Chipspannung auch um 0,35V angehoben, gekühlt mit Peltierkühlung.. dann kann das ganze schon wieder hinkommen...
Und der Speicher ( ist mit spannungerhöhung )sicher auf 1,68Ghz zu bekommen

Gruß bvb

w0mbat
2007-02-26, 17:17:31
Es ist möglich, aber unter diesen Umständen sehr unwahrscheinlich.

Gast
2007-02-26, 17:18:55
Unter den Umständen macht es doch erst sinn... :rolleyes:

w0mbat
2007-02-26, 17:19:44
Wie man´s sieht :D

Nakai
2007-02-26, 17:28:05
Wenn er morgen einen Screen herzeigt bin ich zufrieden, aber nur vorerst.

mfg Nakai

|MatMan|
2007-02-26, 17:28:16
Der Chiptakt ist Übertaktet ;)

dabei wurde laut ihm die Chipspannung auch um 0,35V angehoben, gekühlt mit Peltierkühlung.. dann kann das ganze schon wieder hinkommen...
Und der Speicher ( ist mit spannungerhöhung )sicher auf 1,68Ghz zu bekommen

Gruß bvb

ja klar und mit ein bißchen mehr Spannung bekomm' ich nen G80 auch mal eben auf 900 Mhz oder was? Ausgehend von den bisher angenommenen ca 800 MHz für den R600 sind das mal eben über 50% mehr Takt (daher auch die 900 MHz für den G80)!

Auch wenn ganz alte Gerüchte von 1 GHz default Takt doch stimmen sollten, sind das immernoch 35% Übertaktung, nicht gerade wenig für das Topmodell.

Die Speicherübertaktung ist ja wohl noch unglaubwürdiger. Wenn ATI 1,2 oder 1,4 GHz GDDR4 verbaut hat, macht der wohl kaum über 1,6 GHz (jeweils Realtakt). Das wäre meiner Erfahrung nach schon ziemlich ungewöhnlich, besonders für Speicher der noch nicht so lange und breit in der Massenproduktion ist (und damit der Prozess weiter gereift ist).
Offiziell gibt es doch noch nichtmal 1,6 GHz GDDR4 in Massenproduktion, oder irre ich mich da?

Gast
2007-02-26, 17:42:05
Der G80 lief auch schon über 1Ghz, zwar mit Kompressor, aba das der R600 deutlich besser Taktbar ist halte ich für klar.

Und mit +0,35V ausgehend von 1,2V ( das ist schon eine sehr große steigerung ) finde ich das bei weitem nicht so unrealistisch, desweiteren PeltierKühlung auf um die 20°C


Gruß bvb

K4mPFwUr$t
2007-02-26, 17:50:36
der R520 oder wars der R580 war bisher nur einmal bei 1GHz, allerdings von artefakten auf dem destop geprägt. hierbei war massive kühung und Vgpu im spiel.

der R600 müsste schon sehr viel OC potentzial haben um in regionen über 1.2Ghz stabil laufen zu können. von 1.3-1.5 mit sub zero mal garnicht zu sprechen. das wäre ja der C2D des graka markts :|

Gast
2007-02-26, 17:54:17
Was wollt ihr denn bei nem 512Bit SI einen Ramtakt 1,6GHz? Wer soll denn das bitte ausnutzen können?
Ich wette das der R600 in der XTX XXL Ausführung niemals Speicherbandbreiten Limitiert sein wird. Wenn er Texture und Z-Füllraten Technisch dem G80 "nur" gleichwertig ist, brauch er durch das breitere Si maximal den 1,2GHz GDDR4, alles andere wären doch nur extra kosten. Ich mein da nehm ich schon ein extra Breites SI und dann kleb ich da auch noch die teuersten Ram Chips drauf, das ist nicht logisch. Das 512Bit SI sollte bei den Ram Chips doch ne Einsparung bringen..
Wir werdens ja sehen wenn Mitte April die ersten hier einen R600 haben werden. Einfach den Ram mal runtertakten und schauen wann sich was tut :P Unterhalb von 2048*1536

Gast
2007-02-26, 18:09:02
der R520 oder wars der R580 war bisher nur einmal bei 1GHz, allerdings von artefakten auf dem destop geprägt. hierbei war massive kühung und Vgpu im spiel.

der R600 müsste schon sehr viel OC potentzial haben um in regionen über 1.2Ghz stabil laufen zu können. von 1.3-1.5 mit sub zero mal garnicht zu sprechen. das wäre ja der C2D des graka markts :|

Also wer glaub das der R600 über 1GHz schafft selbst mit ner Kompressorkühlung hat was schlechtes geraucht. Seit wann lassen sich Grafikkarten mehr als 20% Übertakten, das gabs noch nie und wird nie der Fall sein. Das sind keine CPUs mit viel Cache Transistoren die höhere Taktraten locker mitmachen, sondern Logik Monster. Wenn man 100MHz draufpacken kann ist man schon der King, und der Ram bei 1,6GHz... sollte gegenüber 1,2GHz gar kein Unterschied machen im 3dMark, da nichts Bandbreiten limitiert ^^

robbitop
2007-02-26, 18:14:29
1,35 GHz mit 80nm? Wie unglaubwuerdig ist das denn?

K4mPFwUr$t
2007-02-26, 18:21:13
@robbitop
jap, das ist gut 35% mal mehr GPU takt was beim R520/R580/R580+ einmalig geschafft wurde, dabei war LN² im spiel und nicht nur ein pelztier ;D
selbst durch massivste spannungserhöhung muss ein massiver taktanstieg ja nicht gewährleistet sein ... :|

@gast
stimmt, bei GPU ist jedes einzelne MHz schwer erkämpft besonders bei den transistorenmonstern der neuen generation. meine ja auch das eine 1.4 oder 1.6Ghz GDDR4 bestückung keinen sinn machen würde, außer die verfügbarkeit und P/L noch weiter in den keller treiben zu wollen.

seahawk
2007-02-26, 18:38:21
Mal den GPU-Takt ingnorierend, sind 1,65 GHZ DDR wohl etwas stark unrealistisch von 1,2 ausgehend.

Gast
2007-02-26, 19:03:10
selbst durch massivste spannungserhöhung muss ein massiver taktanstieg ja nicht gewährleistet sein ... :|


dafür aber bestimmt eine massiv erhöhte Ausfallraten der ohnehin noch nicht massenproduktion-tauglichen R600er:D

MadManniMan
2007-02-26, 19:53:35
ich glaub ihm zwar auch kein Wort, aber was ist denn beispielsweise mit verschieden getakteten Domains? Shadercore auf 1,35 GHz? Warum nicht?

Gast
2007-02-26, 19:56:48
ich glaub ihm zwar auch kein Wort, aber was ist denn beispielsweise mit verschieden getakteten Domains? Shadercore auf 1,35 GHz? Warum nicht?

Weil ATi damit keine Erfahrung hat?

Ronny145
2007-02-26, 20:00:18
ich glaub ihm zwar auch kein Wort, aber was ist denn beispielsweise mit verschieden getakteten Domains? Shadercore auf 1,35 GHz? Warum nicht?


Er hat die GPU auf 1,35 Ghz übertaktet angeblich. Vergiss das also mal mit dem Shadercore 1,35.

Gast
2007-02-26, 20:00:50
Es gab eine Rev A14, die aber nicht stabil lief.

wenn man sieht dass nvida bereits mit RevA2 am markt ist kann einem ati richtig leid tun ;)

MadManniMan
2007-02-26, 20:08:29
Weil ATi damit keine Erfahrung hat?

Ich verstehs mal nicht sarkastisch und sach: möglich - aber wissen wirs? Sicher hat nV die Vertex-Domain schon früh different getaktet, aber irgendwann kommt nunmal der Schritt.
Wenn Du mir sagst, daß Du weißt, daß sies nich können, OK ;)

MadManniMan
2007-02-26, 20:09:25
Er hat die GPU auf 1,35 Ghz übertaktet angeblich. Vergiss das also mal mit dem Shadercore 1,35.

Wenn jemand einen Proll-Chip prollig übertaktet, dann kann man auch davon ausgehen, daß er gern mit hohen Zahlen prollt :D

Ronny145
2007-02-26, 20:15:59
Wenn jemand einen Proll-Chip prollig übertaktet, dann kann man auch davon ausgehen, daß er gern mit hohen Zahlen prollt :D


"Bis 1,5ghz und 1,7Vgpu dürfen wir gehen, dann soll aufgehört werden"
http://www.forumdeluxx.de/forum/showpost.php?p=5565866&postcount=147


:biggrin:

MadManniMan
2007-02-26, 20:22:03
"Bis 1,5ghz und 1,7Vgpu dürfen wir gehen, dann soll aufgehört werden"
http://www.forumdeluxx.de/forum/showpost.php?p=5565866&postcount=147


:biggrin:

*räusper* Praktisch glaub ich ihm kein Wort mehr... aber theoretisch könnte er immernoch die Shaderdomain meinen.

reunion
2007-02-26, 20:28:59
wenn man sieht dass nvida bereits mit RevA2 am markt ist kann einem ati richtig leid tun ;)

Nur das die ATi-Bezeichnungen mitnichten mit denen von NV vergleichbar sind.

Ronny145
2007-02-26, 20:32:55
*räusper* Praktisch glaub ich ihm kein Wort mehr... aber theoretisch könnte er immernoch die Shaderdomain meinen.


Auch theoretisch nicht, denn: http://www.forumdeluxx.de/forum/showpost.php?p=5563481&postcount=101


Er spricht dort von einer Taktsteigerung von 50%. So um die 800 Mhz wären das. Das ganze kühlt der mit nem Alphacool GTX Radiator. Dann dürften die 2 Ghz mit entsprechender Kühlung für die Spezialisten kein Problem sein :rolleyes:

Nakai
2007-02-26, 20:36:30
Das Ding soll auf 1,35Ghz übertaktet sein...naja wers glaubt.

mfg Nakai

MadManniMan
2007-02-26, 20:42:03
Nagut, jetzt nimmts Formen an - ich glaub ihm immernoch nicht, aber ich glaube ihm, daß er irgendwo irgendwas von ~900 MHz für den Core gehört hat.

sklave_gottes
2007-02-26, 20:42:56
Jetzt leute hört mal auf damit!
Es eicht ja wohl langsam, jetzt hat jeder ja schon mindestens 2 mal gesagt das er ihm die 1,35ghz nicht abkauft. Das stört hier doch nur!

PS Ich kauf ihm die 1,35ghz nicht ab. :-)

Nakai
2007-02-26, 20:45:09
Wenn er bei einer Firma arbeitet muss er natürlich das eigene Produkt pushen. Schon die Tatsache dass er sich in ein Forum traut, ist sehr stumpfsinnig. AMD könnte einfach die IP und den Host vom Admin fordern und das wäre es mit ihm.

mfg Nakai

reunion
2007-02-26, 20:48:36
Wie ausgehungert muss man denn sein? Der Kerl liefert absolut nichts, was seinen Glaubwürdigkeit auch nur im geringsten Maße steigern würde. Er sagt nur das, was die Leute hören wollen, und stellt sich dazu auch noch äußerst dumm an.

Das Ding soll auf 1,35Ghz übertaktet sein...naja wers glaubt.

mfg Nakai

Es kommt noch besser: Da man ihm zumindest den Speichertakt nicht glaubt, gibt es jetzt an, die Karte hat 0.5ns GDDR4 drauf.

w0mbat
2007-02-26, 20:51:49
wenn man sieht dass nvida bereits mit RevA2 am markt ist kann einem ati richtig leid tun ;)

Rev A2 ist aber weiter als Rev 1,4. Wird zwar Rev A14 geschrieben, ist aber unterhalb einer Rev A2.

Nakai
2007-02-26, 21:06:58
Es kommt noch besser: Da man ihm zumindest den Speichertakt nicht glaubt, gibt es jetzt an, die Karte hat 0.5ns GDDR4 drauf.

Ich kenn den Thread. :eek:

Aber was wäre wenn er tatsächlich die Wahrheit spricht?
Neiiin Plasphemie!!!;p


Wie immer abwarten und Tee trinken...mit einem ordentlichen Schuß Whiskey

mfg Nakai

K4mPFwUr$t
2007-02-26, 21:15:47
@MadManniMan
wegen den clockdomains ... meinte nicht mal ein schlauer kopf aus 3dc oder hwl, das beide sachen vor und nachteile haben sprich allgemeine clockrate für alle und clockdomains?

irgendwann wird vll. auch ATI den schritt gehen. aber wenn ATI das vor hätte würden sie nicht einen so hohen grundtakt anpeilen.

Gast
2007-02-26, 21:21:57
Wenn der Chip nicht auf so eine Effizienz ausgelegt ist wie der G80, macht es schon sinn das sie ihn höher auslegen, R5X war auch auf hohe Taktraten ausgelegt.

Das ist wie beim Pentium 4 und Core 2 Duo...

es hilft nur eins... abwarten...

reunion
2007-02-26, 21:29:42
Ich kenn den Thread. :eek:

Aber was wäre wenn er tatsächlich die Wahrheit spricht?
Neiiin Plasphemie!!!;p


Wie immer abwarten und Tee trinken...mit einem ordentlichen Schuß Whiskey

mfg Nakai

Blödsinn. Das ist so billig und durchsichtig, dass es fast schon weh tut. Nur weil Samsung vor kurzem auf der ISSCC eine Hand voll neuer GDDR4-Chips mit 0.5ns präsentiert hat, und er keine bessere Begründung hat, sagt er halt einfach, dass dieser auf der Karte verbaut ist. Dass der Speicher noch Lichtjahre von einem fertigen Produkt entfernt ist, und Samsung selbst nicht mit einer Massenproduktion vor Ende 2008 / Anfang 2009 rechnet, spricht Bände.

Nakai
2007-02-26, 21:33:54
Okay etwas falsch ausgedrückt. Vll sind einige Teilaspekte inhaltlich korrekt.

mfg Nakai

reunion
2007-02-26, 21:46:00
Okay etwas falsch ausgedrückt. Vll sind einige Teilaspekte inhaltlich korrekt.

mfg Nakai

Nur Dinge die schon lange Fakt sind und offensichtlich selbst bis zu ihm durchgedrungen sind. Inzwischen spricht er schon von Stepping A18 und 1.4Ghz Coretakt. IMHO ein Kiddy, der verzweifelt nach Aufmerksamkeit sucht.

K4mPFwUr$t
2007-02-26, 22:01:37
@reunion
drück ihm ein DICE behälter, eine box voller dice in die hand und schon bald ist er bei 2Ghz :ulol2: aber irgendwie geht es zu leicht bei ihm mit dem OC, auch wenn er über eine hyper duber ultra pelztier wakü hätte.

deekey777
2007-02-26, 22:10:23
ich glaub ihm zwar auch kein Wort, aber was ist denn beispielsweise mit verschieden getakteten Domains? Shadercore auf 1,35 GHz? Warum nicht?
Es gab einige Aussagen, dass es keine Clock-Domains geben wird.

MadManniMan
2007-02-26, 22:19:56
Es gab einige Aussagen, dass es keine Clock-Domains geben wird.

Naja, immerhin halbwegs handfest. Is mir im Endeffekt auch Wurscht, woher die entgültige Leistung kommt - wenn sie in einer vernünftigen Leistung-Leistunsaufnahme-Relation steht.

Relic
2007-02-26, 22:28:48
Also übelst übertaktet mit mehr Spannung wird der Chip eine abartige Abwärme haben und wir wissen doch alle wie effizient ein Pelztier ist . Ich denke um das effektiv hinzubekommen bräuchte er ein 350-400Watt Peletier. Hat er aber nicht aber 20-25 Grad ;)

dargo
2007-02-26, 23:31:50
Infos zu den RV630 Modellen und UVD
http://img147.imageshack.us/img147/9826/attachmentmd4.jpg
http://img147.imageshack.us/img147/876/attachmentdi0.jpg
http://www.hkepc.com/bbs/news.php?tid=748386&starttime=0&endtime=0

VR-Zone meint noch dazu (http://www.vr-zone.com/index.php?i=4695), dass man über einer X1900GT liegen wird.
Oh man, wenn ich mir die max. 128W TDP des RV630 angucke wird mir bei dem R600 richtig schwindlich. :uroll:

Gast
2007-02-26, 23:39:23
Also übelst übertaktet mit mehr Spannung wird der Chip eine abartige Abwärme haben und wir wissen doch alle wie effizient ein Pelztier ist . Ich denke um das effektiv hinzubekommen bräuchte er ein 350-400Watt Peletier. Hat er aber nicht aber 20-25 Grad ;)
Jupp, ist schon witzig das ganze. Ich denke bei der Aktion handelt es sich einfach um einen verfrühten Aprilscherz. :D

James Ryan
2007-02-27, 08:35:07
Das Interessante ist, dass alle FanATIker im Luxx diesem Typ absolut glauben als sei er der Messias. Jegliche Kritik wurde von den dortigen Mods kommentarlos gelöscht und der Typ kann sich in Fäustchen lachen wenn er ein paar Freaks zum Höhepunkt bringt weil er alles bestätigt, was sich diese Leutchen in ihren feuchten Träumen vom R600 erhofft haben.
Erbärmlich! ;D

MfG :cool:

K4mPFwUr$t
2007-02-27, 09:11:21
und bezüglich dem benchmark screen, kann ich nicht bringen... ausser ihr wollt nen fake sehn...

warum? mein chef hat mich vorhin dabei erwischt, wie ich 3d murks am laufen hatte, da hat er gemeint, wenn er auch nur wind davon bekommt... das werte im internet auftauchen, bin ich arbeitslos. daher, euer vertrauen ist mir meinen job nicht wert, da ihr kommt und geht wie es euch passt...

Bitte um Verständnis dafür...


soviel zu seiner glaubhaftigkeit, als hätte er nicht schon beim ersten posting was er rumposaunt über die folgen nachgedacht. aber er besteht weiterhin auf die 1.3Ghz mit seiner chiller pelztier wakü ;D wie gesagt drückt dem typen ein DICE behälter + inhalt in die hand und ihr habt die 2Ghz ;D

micki@work
2007-02-27, 09:54:43
Was jaulen alle wegen dem Takt? der hat doch kaum relevanz, AMD kann 3GHz GPUs produzieren, die weniger Leistung als ein Taschenrechner haben, was bringt es die Taktung zu wissen?


Aber es waere schon sehr Arm wenn sogar Angestellte von AMD/NV infos leaken wuerden, ganz ehrlich, so ein geltungsbeduerfnis zu haben, dass man den Kindern in foren zeigt "wie lang sein ding ist" weil "ich weiss es ja schon :naughty: (TM)" kann nur ein kleingeist haben, nichtmal die Angestellten von Spielefirmen die vielleicht r600 prototypen haben melden sich heimlich in foren, um die aufmerksamkeit zu bekommen die ihnen mami nicht gab.
Wenn jemand wirklich bei nennenswerten Firmen arbeitet, dann kann er sich mit echtem Namen in nem forum anmelden, mit den leuten reden und wird sicher nichts leaken, aber die meisten werden wohl eher nur lesen und einfach nichts dazu sagen.

Undertaker
2007-02-27, 09:54:50
ein absoluter spinner... btw:

"C2D E6600@3,2Ghz
Sapphire CF-4800 RD-X
2GB-DDR 8500 Patriot ELK 4-4-4-12
Raptor X Raid 0
R600 @1,35Ghz Core @ 3,35Ghz Ram
18342 3D Marks"

ein c2d auf 3,2ghz erreicht etwa 2700 cpu punkte, zusammen mit dem gesammtscore könnte doch mal einer, der die formel kennt, die ungefähren werte für die sm2/sm3 werte errechnen! ich behaupte jetzt schoneinmal, die werden absolut unmöglich sein (da einfach die schwache cpu den score zusehr runterreißt)

Paul Brain
2007-02-27, 09:55:36
Es gab einige Aussagen, dass es keine Clock-Domains geben wird.
Das soll nicht heissen, daß ich ihm glaube (dafür gibts zu viele Widersprüche), aaaaaaaber: Es gab auch bei G80 "einige" Aussagen, wonach dieser kein USC wäre. Das 384bit-SI glaubte anfangs auch keiner, weils keine "marketingtechnisch schöne Zahl" ist.
Lassen wir uns überraschen. Irgendwas hat AMD wohl noch in der Hinterhand; ich bezweifle zwar, daß uns das so vom Hocker reissen wird wie der alle Erwartungen übertreffende G80, aber schauma mal...

Gast
2007-02-27, 10:04:00
ein c2d auf 3,2ghz erreicht etwa 2700 cpu punkte, zusammen mit dem gesammtscore könnte doch mal einer, der die formel kennt, die ungefähren werte für die sm2/sm3 werte errechnen! ich behaupte jetzt schoneinmal, die werden absolut unmöglich sein (da einfach die schwache cpu den score zusehr runterreißt)

SM2: 10000
SM3: 11000
CPU: 2700
-> 18314
http://www.xtremesystems.org/forums/showthread.php?t=102058

Nunja, das hat nichtmal k|ngp|n mit seinem GTX-SLI auf LN2 geschafft:
http://service.futuremark.com/compare?3dm06=791113

dargo
2007-02-27, 10:12:27
SM2: 10000
SM3: 11000


:|

Das wäre die vierfache Leistung vom R580. :D
Nee, sorry. Das ist mir zu blöd. :D
Schön fänd ich es trotzdem. ;)

Lawmachine79
2007-02-27, 11:24:31
Ich bin übrigens dafür, daß man GPUs wie CPUs "Spitznamen" gibt. "Godot" wäre dann z.B. so einer, der für den R600 in Frage kommt.

K4mPFwUr$t
2007-02-27, 11:50:59
gibt es doch bereits, der R520 hieß mit dem codename fudo und bei einem RV630 whitepaper hatte ich auch codenamen gesehen.

paul.muad.dib
2007-02-27, 12:20:54
Ich bin übrigens dafür, daß man GPUs wie CPUs "Spitznamen" gibt. "Godot" wäre dann z.B. so einer, der für den R600 in Frage kommt.

Es gab doch mal "Shaka", "Laka" und "Boom" bei Ati. Wofür standen die noch gleich?

AnarchX
2007-02-27, 12:34:57
Es gab doch mal "Shaka", "Laka" und "Boom" bei Ati. Wofür standen die noch gleich?

Die R600 Mainstream-Ableger und ihre Codenamen:

RV610 "Bum", RV630 "Shaka" und RV660 "Laka"

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/september/ati_codenamen_chips/

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4817109&postcount=877

Gast
2007-02-27, 13:02:15
Ob das überhaupt stimmt...

James Ryan
2007-02-27, 13:51:17
Das soll nicht heissen, daß ich ihm glaube (dafür gibts zu viele Widersprüche), aaaaaaaber: Es gab auch bei G80 "einige" Aussagen, wonach dieser kein USC wäre. Das 384bit-SI glaubte anfangs auch keiner, weils keine "marketingtechnisch schöne Zahl" ist.
Lassen wir uns überraschen. Irgendwas hat AMD wohl noch in der Hinterhand; ich bezweifle zwar, daß uns daß so vom Hocker reissen wird wie der alle Erwartungen übertreffende G80, aber schauma mal...

Ich hoffe insgeheim auch noch auf eine dicke Überraschung beim R600, es würde nur uns Kunden zugute kommen. Diese gab es oft genug im Graka-Markt, zuletzt beim G80 und genau das macht ja auch den Reiz aus.

MfG :cool:

PS: Übrigens wurde ich wegen meines Beitrages weiter oben hier im 3DCenter im Forum von Hardwareluxx von einem Mod verwarnt. Wie geht denn das? :uponder:

Paul Brain
2007-02-27, 14:03:47
PS: Übrigens wurde ich wegen meines Beitrages weiter oben hier im 3DCenter im Forum von Hardwareluxx von einem Mod verwarnt. Wie geht denn das? :uponder:LÖÖÖL. Und welche Konsequenzen wurden Dir angedroht? :tongue:

Cubitus
2007-02-27, 14:16:40
Jupp, ist schon witzig das ganze. Ich denke bei der Aktion handelt es sich einfach um einen verfrühten Aprilscherz. :D
Ich hoffe insgeheim auch noch auf eine dicke Überraschung beim R600, es würde nur uns Kunden zugute kommen. Diese gab es oft genug im Graka-Markt, zuletzt beim G80 und genau das macht ja auch den Reiz aus.

MfG :cool:

PS: Übrigens wurde ich wegen meines Beitrages weiter oben hier im 3DCenter im Forum von Hardwareluxx von einem Mod verwarnt. Wie geht denn das? :uponder:

Der Typ erschien plötzlich auf der Bildfläche nachdem bekannt wurde das der R600 nun doch erst später geluncht wird.

Vielleicht ist er ein PR Manager von AMD/ATI oder sowas in der Art und wird deshalb gedeckt:wink:

James Ryan
2007-02-27, 14:27:51
Jedenfalls hat er gerade geschrieben, dass die HighEnd Variante "R620" heißt und nicht "R600". :eek:
Ehm, habe ich was verpasst? Das wäre doch sicherlich schon durchgesickert oder nicht?

MfG :cool:

Fetza
2007-02-27, 14:37:40
"C2D E6600@3,2Ghz

(da einfach die schwache cpu den score zusehr runterreißt)

schwache cpu? hab ich was verpasst?

Edit: nicht das ich den restlichen scheiss von der type glauben würde^^

Godmode
2007-02-27, 14:45:58
Mich erinnert das alles einfach zu sehr an das:
http://www.theinquirer.net/default.aspx?article=5794
http://www.theinquirer.net/default.aspx?article=6260

Paul Brain
2007-02-27, 14:53:33
Jedenfalls hat er gerade geschrieben, dass die HighEnd Variante "R620" heißt und nicht "R600". :eek:
Ehm, habe ich was verpasst? Das wäre doch sicherlich schon durchgesickert oder nicht?Ääähm, haltet mich jetzt für verrückt, aber: War das nicht zumindest bei R400 und R500 so, daß die Highend-Derivate (X800XT, X1800XT) R423 bzw. R520 hießen? Oder bring ich da jetzt was durcheinander... :crazy:

PCGH_Carsten
2007-02-27, 14:55:31
Ja, weil R400 und R500 gecancelt wurden.

James Ryan
2007-02-27, 14:55:53
Ääähm, haltet mich jetzt für verrückt, aber: War das nicht zumindest bei R400 und R500 so, daß die Highend-Derivate (X800XT, X1800XT) R423 bzw. R520 hießen? Oder bring ich da jetzt was durcheinander... :crazy:

Ja, aber nur weil bei ATi mit dem ursprünglichen R400 einiges schief gegangen ist. Darum entwickelte man den R420, dieser war eigentlich nur ein verdoppelter R300 in 130 nm.
Beim R600 sollte wieder alles "normal" sein, sprich R600 für HighEnd, R650 für den Refresh und R660 für den eventuellen Refresh-Refresh. ;)

MfG :cool:

Gmax
2007-02-27, 15:43:52
R700 will be the real test (http://www.theinquirer.net/default.aspx?article=37880)

Eine Analyse seitens des Inq zur aktuellen Situation bei AMD/ATI

reunion
2007-02-27, 15:45:09
Jap, dass R600 R600 heißen wird, und nicht R620 ist aber schon sowas von definitiv sicher, damit macht er sich endgültig zum Clown.

Lawmachine79
2007-02-27, 16:04:24
schwache cpu? hab ich was verpasst?

Edit: nicht das ich den restlichen scheiss von der type glauben würde^^

In Annahme, daß der 3DMark-Wert korrekt ist, ist die CPU unter der Prämisse des ihr normalerweise zugrunde liegenden Wertes im 3DMark tatsächlich, in Relation zu der Leistungsfähigkeit, die die Grafikkarte bei diesem Wert haben müßte, schwach ;)

Ja, aber nur weil bei ATi mit dem ursprünglichen R400 einiges schief gegangen ist. Darum entwickelte man den R420, dieser war eigentlich nur ein verdoppelter R300 in 130 nm.
Beim R600 sollte wieder alles "normal" sein, sprich R600 für HighEnd, R650 für den Refresh und R660 für den eventuellen Refresh-Refresh. ;)
MfG :cool:

Der R420 war doch eigentlich ganz ok, zumindest wenn ich mir Benchmarks aus der damaligen Zeit ansehe, ich glaube auch nicht, daß es "nur" ein doppelter R300 war, da liegt mindestens Faktor 3-4 zwischen (das wäre doch 9700 Pro vs. X800XT). Der richtige Griff in die Scheiße war doch die X1800-Serie (R520?).

Paul Brain
2007-02-27, 16:31:15
Der R420 war doch eigentlich ganz ok, zumindest wenn ich mir Benchmarks aus der damaligen Zeit ansehe, ich glaube auch nicht, daß es "nur" ein doppelter R300 war, da liegt mindestens Faktor 3-4 zwischen (das wäre doch 9700 Pro vs. X800XT). Der richtige Griff in die Scheiße war doch die X1800-Serie (R520?).
Ich hatte einen R423 (X800XT PCIe), da dies nach dem X300 die erste verfügbare PCIe-Karte war. Und ich war alles andere als zufrieden, und zwar nicht nur, weil nach 3-maligem Austausch noch immer Probleme da waren (jedesmal was anderes).
Angeblich war ATi damals ja bekannt für "viel AA bei hoher Auflösung", aber selbst 4xAA bei 1280x960 überforderte die Karte oft schon, und so blieb ich meistens bei 1600x1200@2xAA, was aber auch oft mehr schlecht als recht funktionierte. Der Umstieg zur 7800GTX erfolgte eigentlich weniger aufgrund der Leistung aber vielmehr wegen der ständigen Probleme mit der ATi. Doch zwischen den Karten lagen _Welten_, unerwarteterweise. Bei der nV hab ich nie das Gefühl gehabt, daß diese "stockt", auch wenns mal etwas "geruckelt" hat (höchste Auflösungen, viel AA etc.), bei der ATi hatte ich öfter das Gefühl, daß Bewegungen irgendwie "unrund" waren. Das ist jetzt natürlich höchst subjektiv, und ich werd mich sicher mit niemandem darüber streiten, es ist halt mein persönliches Empfinden. Jedenfalls ist auch die nV mittlerweile so gut wie hin, Grafikfehler nach wenigen Minuten Spiel etc.; unzuverlässiges, am Limit laufendes Highend-Klumpat halt.

Gast
2007-02-27, 16:31:20
Der R420 war doch eigentlich ganz ok, zumindest wenn ich mir Benchmarks aus der damaligen Zeit ansehe, ich glaube auch nicht, daß es "nur" ein doppelter R300 war, da liegt mindestens Faktor 3-4 zwischen (das wäre doch 9700 Pro vs. X800XT).
Daten des R420 im Vergleich zu R360
http://www.rage3d.com/reviews/video/sapphirex800xt/?p=2
Der R420 war einfach nur überragend. Er war meistens bei gleicher sichtbarer IQ wesentlich schneller als Nv40.


Der richtige Griff in die Scheiße war doch die X1800-Serie (R520?).

Naja, arg polemisch ausgedrückt aber wenn man vom erfolgreichen Vorgänger ausgeht eigentlich schon. Aber der wirkliche Griff in die Scheiße könnte jetzt mit dem R600 passieren.

K4mPFwUr$t
2007-02-27, 16:55:47
@Paul Brain
toller vergleich du held, das sind 2 verschiedene graka gens!!!

der R420 war schon ganz passabel gegenüber dem pixelbrei der gF6-7.
toll ich habe im treiber 4xAA eingestellt schaut aber von der filterqualität aus wie 2xAA bei ATI :ulol2:
und es ist allgemein so das die nächste gen in selber auflösung wesentlich schneller ist mit qualitätssettings.

kann ich selbst bestätigen mit dem wechsel X800XT AGP --> X1950pro 256MB PCIe

aber nun wieder BTT

Gast
2007-02-27, 17:06:02
toll ich habe im treiber 4xAA eingestellt schaut aber von der filterqualität aus wie 2xAA bei ATI :ulol2:Damit hast du dich für jede Diskussion disqualifiziert. Das 4x MSAA ist bei GF7 und aktuellen ATI-Karten qualitativ gleichwertig. Da gibt es nichts dran zu rütteln.

K4mPFwUr$t
2007-02-27, 17:18:36
oh ja ich habe mich für jede weitere diskussion disqualifiziert, weil ich behaupte das nVidia mit der gF6 und 7 eine miese BQ hat?
und das dort gerne mal wie bei ATI auch zu filtertricks gegriffen wird, nur in ausgeprägterer form.

und das noch von einem gast, er sich nicht mal traut sich anzumelden ... wie süß ;D

Ailuros
2007-02-27, 17:23:37
Das soll nicht heissen, daß ich ihm glaube (dafür gibts zu viele Widersprüche), aaaaaaaber: Es gab auch bei G80 "einige" Aussagen, wonach dieser kein USC wäre. Das 384bit-SI glaubte anfangs auch keiner, weils keine "marketingtechnisch schöne Zahl" ist.
Lassen wir uns überraschen. Irgendwas hat AMD wohl noch in der Hinterhand; ich bezweifle zwar, daß uns das so vom Hocker reissen wird wie der alle Erwartungen übertreffende G80, aber schauma mal...

Blaetter nach wie lange vor dem Launch ich schon auf die genauen Aspekte von G80 deutete und denk nach wie nahe R600 vor seiner Vorstellung war bevor dieser wieder verzoegert wurde.