Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
reunion
2005-07-05, 14:45:03
Das war eher ein Bugfix.
Es hat noch nie eine Generation gegeben wo die "kleinen" Karten andere Pixelprozessoren hatten.
Und wenn die TMUs entkoppelt sind?
Wobei es natürlich trotzdem wenig Sinn macht.
mapel110
2005-07-05, 14:45:08
Das war eher ein Bugfix.
Es hat noch nie eine Generation gegeben wo die "kleinen" Karten andere Pixelprozessoren hatten.
Hm? und wie war das bei den FXsen? 5200,5600 und 5800 waren doch mehr als nur das Abspecken von Pipes?!
wuzetti
2005-07-05, 14:51:57
Offensichtlich hat man G70 unterschätzt.
So ein Design wird ja nicht von heute auf morgen gemacht, als man von G70 erfuhr, war es vermutlich schon zu spät.
ich denke mir nur, dass man doch anhand des NV40 schon hätte sehen können oder sogar sehen müssen, wohin der zug fährt. vielleicht war da aber R520 in der entwicklung schon zu weit fortgeschritten.....
edit:
ausserdem fällt es mir schwer zu glauben, dass man NV zweimal hintereinander "unterschätzt".
Demirug
2005-07-05, 14:54:47
Keine Ahnung.
Wenn man sich allerdings ansieht, was ATi aus einer ALU pro Pipeline herrausholt und nV aus zwei, erscheint eine ATI-ALU effizienter.
Das liegt nicht an den ALUs sondern an der Pipeline welche um die ALUs gebaut wurde.
DrumDub
2005-07-05, 16:04:09
Das war eher ein Bugfix.
Es hat noch nie eine Generation gegeben wo die "kleinen" Karten andere Pixelprozessoren hatten. was ist mit gf4mx und gf4?
Ailuros
2005-07-05, 16:05:48
Das hast du jetzt aber schon indirekt getan!
Ich hab persoenlich die Situation gar nicht gern und von Schadenfreude sollte gar nicht die Rede sein.
reunion
2005-07-05, 16:05:49
was ist mit gf4mx und gf4?
Geforce 4MX = Geforce 2
Wieso sollte R580 eine andere Architekur sein? Der Codename deutet doch eher auf einen R520 Refresh hin.
Allgemein freue ich mich auf die neue Architektur und darauf, ob (naja, das sollte eigentlich nicht zur Debatte stehen) und wie ATi SM3 integriert haben wird. :)
Es gibt da ja mehrere Möglichkeiten - haben sie bsw. ihre "breiten, flachen" Pipes behalten können, oder mussten sie auch "in die Tiefe" gehen?
Was ist auf dem F-Buffer geworden? Gehört er integral zur SM3-Fähigkeit oder ist er durch diese obsolet geworden?
Wie wurde VTF realisiert?
Konnte die Unempfindlichkeit ggü. Temp-Register Anzahl beibehalten werden oder wo liegt der Sweet-Spot von ATis Next-Gen?
Fragen über Fragen.
Geforce 4MX = Geforce 2
Quark.
GF4MX = GF4Ti mit ohne Vertexshader, aber mit GFFX-Video- und GF2-Pixelteil.
was ist mit gf4mx und gf4?Die GF4MX ist eine GeForce 2. Das gilt nicht.
Quark.
GF4MX = GF4Ti mit ohne Vertexshader, aber mit GFFX-Video- und GF2-Pixelteil.Nix quark. Das passt schon, es wurde nur der Memorycontroller der GF4 eingebaut.
Ailuros
2005-07-05, 16:08:54
Er hat eigentlich nur von einer Überraschung gesprochen, und diese wird's wirklich geben, auch wenn sie anders ausfällt wie sie die meisten erwarten.
Jedes Produkt ist quasi eine Ueberraschung nach der Vorstellung, da man nie bis zu 100% sicher sein kann wie es genau aussehen wird.
R520 hat getrennte Einheiten, in diesem Bereich wird es keine Ueberraschungen geben.
RV515: 4-1-1-1
R520: 16-1-1-1
RV530: 4-1-3-2
R580: 16-1-3-1
SIMD channel / ROP / ALU / TMU
Produktionsmodell: R580. Daraus liessen sich, wie oben schon "gehofft" alle anderen Modelle gewinnen.
Erste Ausfallstufe = R520
Zweite Ausfallstufe = RV530 (hier aber entkoppelte TMUs nötig)
Dritte Ausfallstufe = RV515 (hier braucht nicht mehr viel zu funktionieren...)
Somit auch eine "Top-to-Bottom"-Produktlinie - zumindest auf dem Papier, ob's wirtschaftlich ist?
reunion
2005-07-05, 16:12:55
Produktionsmodell: R580. Daraus liessen sich, wie oben schon "gehofft" alle anderen Modelle gewinnen.
Erste Ausfallstufe = R520
Zweite Ausfallstufe = RV530 (hier aber entkoppelte TMUs nötig)
Dritte Ausfallstufe = RV515 (hier braucht nicht mehr viel zu funktionieren...)
Somit auch eine "Top-to-Bottom"-Produktlinie - zumindest auf dem Papier, ob's wirtschaftlich ist?
Und auf was willst du hinaus? :|
Ist es nicht fast immer so, dass man aus dem High-End Modell theoretisch alle anderen Modelle gewinnen könnte?
Nur wer verkauft schon einen High-End-Chip im Low-Cost-Segment?
Nix quark. Das passt schon, es wurde nur der Memorycontroller der GF4 eingebaut.
Ja, der unter anderem.
Dazu der 2D/Video-Teil der GFFX (schau mal, ob die GF4Ti ordentliches De-Interlacing kann) und das Early-Z-Culling der GFFX. Dazu eine etwas mächtigere HW-TnL-Einheit als in der GF2, die man mittels Treiber (ein oder zwie Versionen gab es IIRC mal, die Vertexshader meldeten) und Auslagerung auf die CPU zu einem Halb-Soft-Vertexshader ausbauen wollte.
Dazu die ROPs der GF3/4Ti/FX, aber ohne Kompression.
Also doch "etwas" mehr als eine GF2.
BlackBirdSR
2005-07-05, 16:13:38
Hat Nvidia bei der GF1 -> GF2 auch gemacht.
wobei man hier von 1 Trilinearen TMU auf 2 Bilineare gewechselt ist, imho.
Ailuros
2005-07-05, 16:13:50
Diese Liste kenne ich zwar auch, aber mir kam der Sprung von einer ALU auf drei ALUs immer etwas merkwürdig vor.....kommt aber vielleicht aich auf die Zählweise drauf an.
Wer sagte dass es sich um die Anzahl der Einheiten handelt? Wieviele ALUs hat die G70 im Vergleich zu NV40 pro SIMD Kanal und was schiesst am anderen Ende genau raus?
Am interessantesten finde ich übrigens die 2 TMUs beim RV530.....wäre ein 8x1 Design nicht sinniger? (speziell, da man dann aus kauptten r580igern noch RV530-Chips basteln könnte?)
Jemand interpretiert die Zahlen falsch; die letzte Zahl in der Reihe steht fuer Z/stencil ;)
***edit:
schau nochmal genau hin, aber so getrennt dass es uebersichtlicher wird:
RV515: 4-1-1-1
R520: 16-1-1-1
RV530: 4-1-3-2
R580: 16-1-3-1
SIMD channel - TMU - ALU OPs - Z/stencil throughput
DrumDub
2005-07-05, 16:15:12
Die GF4MX ist eine GeForce 2. Das gilt nicht. das marketing sollte da was anderes suggerieren, wobei die nomenklatur beim codenamen eingehalten wurde. da haste recht.
Und auf was willst du hinaus? :|
Keine Ahnung... :| ;) X-D
Ist es nicht fast immer so, dass man aus dem High-End Modell theoretisch alle anderen Modelle gewinnen könnte?
Ja, das könnte man. Braucht man aber nicht, wenn man für Low-End hochvolumigere Prozesse hat.
Nur wer verkauft schon einen High-End-Chip im Low-Cost-Segment?
Besser verkaufen, als wegschmeissen, oder?
BTW, tippe ich ja noch darauf, daß nV den G70-Refresh direkt von Sony bekommt - alle RSX, die keine 550 MHz schaffen (hier gibt's ja nur "eine" Spec), kommen als GeForce auf den Markt.
reunion
2005-07-05, 16:16:41
Jemand interpretiert die Zahlen falsch; die letzte Zahl in der Reihe steht fuer Z/stencil ;)
Dann wäre RV530 aber verdammt schwachbrüstig.
Damit würde man ja nichtmal das Vorgängermodell - eine X700 schlagen.
Unrealistisch.
Dann wäre RV530 aber verdammt schwachbrüstig.
Damit würde man ja nichtmal das Vorgängermodell - eine X700 schlagen.
Unrealistisch.
X300?
Ja, der unter anderem.
Dazu der 2D/Video-Teil der GFFX (schau mal, ob die GF4Ti ordentliches De-Interlacing kann) und das Early-Z-Culling der GFFX. Dazu eine etwas mächtigere HW-TnL-Einheit als in der GF2, die man mittels Treiber (ein oder zwie Versionen gab es IIRC mal, die Vertexshader meldeten) und Auslagerung auf die CPU zu einem Halb-Soft-Vertexshader ausbauen wollte.
Dazu die ROPs der GF3/4Ti/FX, aber ohne Kompression.
Also doch "etwas" mehr als eine GF2.Der Soft-Vertexshader funktioniert auch bei GeForce 1&2 und wird heute in allen Treibern angeboten.
reunion
2005-07-05, 16:19:53
X300?
= RV515-Vorgänger IMHO.
RV530 sollte die X700 ersetzen.
Ailuros
2005-07-05, 16:22:55
Dann wäre RV530 aber verdammt schwachbrüstig.
Damit würde man ja nichtmal das Vorgängermodell - eine X700 schlagen.
Unrealistisch.
Wenn Du die Zahlen so interepretierst, dann waere es wohl besser dass Du die Dinger erstmal in Echtzeit siehst.
NV43 ist in dem Sinn 4/1/1/1
Verdreifache mal jetzt den ALU-througput und zweimal so hoher Z/stencil throuput + die hoeheren Taktungsmoeglichkeiten dank low-k 90nm, vielleicht hilft es.
Die Zukunft liegt in arithmetischer Effizienz und nicht bei der sturen alten Fuellrate.
= RV515-Vorgänger IMHO.
RV530 sollte die X700 ersetzen.
Bei 600MHz + denke ich, kein Problem. Wird dann zwar laut ATi-akzetierter Definition nur vier Pipelines haben, aber was hinten rauskommt, zählt.
reunion
2005-07-05, 16:25:17
schau nochmal genau hin, aber so getrennt dass es uebersichtlicher wird:
RV515: 4-1-1-1
R520: 16-1-1-1
RV530: 4-1-3-2
R580: 16-1-3-1
SIMD channel - TMU - ALU OPs - Z/stencil throughput
RV530 scheint also schon auf R580 aufzubauen - aber warum 2 Z/stencil?
Ailuros
2005-07-05, 16:25:19
= RV515-Vorgänger IMHO.
RV530 sollte die X700 ersetzen.
RV530 ist der mainstream Teil der R580 folgen wird und mit einer X700 wuerde ich das Ding erst gar nicht vergleichen. In Shader-limitierten Situationen ist das Ding theoretisch bis zu 3x so schnell wie RV515; realistisch eben weniger.
***edit: brainfart RV ist ganz was anderes. Es handelt sich hier um low-end.
Der Soft-Vertexshader funktioniert auch bei GeForce 1&2 und wird heute in allen Treibern angeboten.
Muss ich direkt mal probieren. Das letzte Mal, als ich's versuchte, war da noch HTnL ausgegeben und Vertexshader liefen unbeschleunigt auf der CPU.
Trotzdem - wie ich anführte, gibt es weit mehr Unterschiede zwischen GF2 und GF4MX, als man so gemeinhin glauben mag. Multisampling anyone?
reunion
2005-07-05, 16:26:59
Die Zukunft liegt in arithmetischer Effizienz und nicht bei der sturen alten Fuellrate.
Mag sein, aber diese Zukunft ist IMHO noch in ziemlich weiter ferne - was heute zählt ist hauptsächlich Füllrate.
//Edit: Sollte RV530 nicht dieser 110nm-Chip mit X-Architektur werden?
Ailuros
2005-07-05, 16:27:20
RV530 scheint also schon auf R580 aufzubauen - aber warum 2 Z/stencil throughput?
Weil sonst der Abstand in der Zukunft zum high end wohl doch zu gross sein wird. NV43 hat auch nur 4 ROPs aber ich will bezweifeln dass NVIDIA nicht auch in Nachfolgern irgendwann zu mehr ROPs greift.
***edit: nochmal (siehe oben) ich hab mich verzettelt; RV530 ist ganz was anderes als R530.
NV43 ist in dem Sinn 4/1/1/1
Dem kann ich jetzt allerdings nicht folgen.
reunion
2005-07-05, 16:36:33
***edit: nochmal (siehe oben) ich hab mich verzettelt; RV530 ist ganz was anderes als R530.
Was ist R530?
Eine art Nachfolger der X800 XL - mit niedriger Taktrate, aber voller Pipelineanzahl?
Ailuros
2005-07-05, 16:38:47
Dem kann ich jetzt allerdings nicht folgen.
Natuerlich kannst Du diesem nicht folgen, da ich einen ziemlich albernen brainfart gerade hatte.....
Ailuros
2005-07-05, 16:44:28
Was ist R530?
Eine art Nachfolger der X800 XL - mit niedriger Taktrate, aber voller Pipelineanzahl?
Da nach Angaben die gesamte Linie auf low-k 90nm sein soll, werden sie wohl erstmal mit Taktraten und dann auch mit der Anzahl der Einheiten nach unten skalieren. Ich konzentrier mich viel zu viel auf high end um bei dem Zeug ein genaues Bild zu haben.
Alle 4 quads und niedrigere Taktrate gehoert auf jeden Fall logischerweise immer noch in den High-end Bereich.
reunion
2005-07-05, 16:50:56
Da nach Angaben die gesamte Linie auf low-k 90nm sein soll, werden sie wohl erstmal mit Taktraten und dann auch mit der Anzahl der Einheiten nach unten skalieren. Ich konzentrier mich viel zu viel auf high end um bei dem Zeug ein genaues Bild zu haben.
Alle 4 quads und niedrigere Taktrate gehoert auf jeden Fall logischerweise immer noch in den High-end Bereich.
Und was ist dann dieser 110nm-X-Architektur-Chip?
http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/60614&words=110%20ATI
deekey777
2005-07-05, 16:56:04
Und was ist dann dieser 110nm-X-Architektur-Chip?
http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/60614&words=110%20ATI
X550 vielleicht?
Sunrise
2005-07-05, 16:56:49
Und was ist dann dieser 110nm-X-Architektur-Chip?
http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/60614&words=110%20ATI
Das hatten wir schon. Mein Tipp war X550. Jedoch gab es da einiges, weshalb ich mir nicht 100%ig sicher bin. RV515 wäre wohl ebenso möglich.
ShadowXX
2005-07-05, 17:23:27
Wer sagte dass es sich um die Anzahl der Einheiten handelt? Wieviele ALUs hat die G70 im Vergleich zu NV40 pro SIMD Kanal und was schiesst am anderen Ende genau raus?
Jemand interpretiert die Zahlen falsch; die letzte Zahl in der Reihe steht fuer Z/stencil ;)
***edit:
schau nochmal genau hin, aber so getrennt dass es uebersichtlicher wird:
RV515: 4-1-1-1
R520: 16-1-1-1
RV530: 4-1-3-2
R580: 16-1-3-1
SIMD channel - TMU - ALU OPs - Z/stencil throughput
Ok....so macht das dann auch sinn.....darauf, das die 3 für Ops und nicht für Einheiten steht hätte ich auch selber kommen sollen.
wuzetti
2005-07-05, 17:32:12
Ok....so macht das dann auch sinn.....darauf, das die 3 für Ops und nicht für Einheiten steht hätte ich auch selber kommen sollen.
für mich macht das nur dann sinn, wenn RV530 nicht der midrange nachfolger der X700 sondern der refresh von RV515 wird.
Ailuros
2005-07-05, 17:45:14
für mich macht das nur dann sinn, wenn RV530 nicht der midrange nachfolger der X700 sondern der refresh von RV515 wird.
Da es bei beiden um nur einen quad handelt (nach den Zahlen und ich die "V" und die "4" uebersehen hatte in vorigen Posts) handelt es sich wohl nicht um X700 Nachfolger sondern eher low-end GPUs.
Nach den Zahlen sieht RV530 selbstverstaendlich nach einem logischen Nachfolger fuer RV515 aus.
muuuuuuuuh
2005-07-05, 23:45:38
mal ne frage so nebenbei, was spricht bisher alles dagegen und davür das der "r520" wgf 2.0 unterstüzt? das mann das erst zu markteintritt von longhorn verkauft kann ich mir nicht vorstellen, dx8 karten wurden auch jahre bevor es dx8 spiele gab verkauft
falls die frage schonmal gestellt und beantwortet ist bitte ich um entschuldigung weil dieser tread ist zu riesig um sich alles durchgelesen zu haben
mal ne frage so nebenbei, was spricht bisher alles dagegen und davür das der "r520" wgf 2.0 unterstüzt? das mann das erst zu markteintritt von longhorn verkauft kann ich mir nicht vorstellen, dx8 karten wurden auch jahre bevor es dx8 spiele gab verkauft
falls die frage schonmal gestellt und beantwortet ist bitte ich um entschuldigung weil dieser tread ist zu riesig um sich alles durchgelesen zu haben
ATI Deutschland sagte man wird alle überraschen, damit ist wohl unfied shaders gemeint vielleicht könnte das in Verbindung mit WGF2.0 gebracht werden, da mal unfied shaders ein muss für WGF2 WAR.
mal ne frage so nebenbei, was spricht bisher alles dagegen und davür das der "r520" wgf 2.0 unterstüzt? das mann das erst zu markteintritt von longhorn verkauft kann ich mir nicht vorstellen, dx8 karten wurden auch jahre bevor es dx8 spiele gab verkauft
falls die frage schonmal gestellt und beantwortet ist bitte ich um entschuldigung weil dieser tread ist zu riesig um sich alles durchgelesen zu haben
Aber DX8 Karten wurden nicht Jahre vor dem DX Release verkauft.
WGF2.0 gibt es noch garnicht und dementsprechend wird es auch erstmal keine WGF 2.0 Karten geben.
Schonmal dran gedacht, das die Spec für WGF2 noch net fertig ist, wie soll man denn dafür jetzt schon einen Chip fertig gebaut haben, ein bissl nachdenken!
Die Entwicklung der WGF2 Chips muss schon 2004 angefangen haben und es wird erst um den Jahreswechsel 06 vieleicht feststehen was man alles beinhalten muss, um komform zu gehen.
Ist also unmöglich, eine höhere Spec als DX9 SM3 (WGF1.0) zu erfüllen, weil es nichts anderes gibt!
Je mehr Features ich in einen Chip einbaue, die nicht dem Standart entsprechen (oder später nicht beinhaltet werden), desto mehr Ballast schleppe ich mit mir herum, die eingesparten Transistoren kann man in mehr Takt oder mehr Parallelität+Effiziens investieren.
Antialiasing ist davon klar losgelöst, AF teilweise, da können ATI und NV ansetzen, aber nicht bei der ShaderSpec...
Macht keinen sinn einen "3/4 WGF2" Chip zu releasen, lieber voll DX9 SM3 und mit viel Speed damits die Leute kaufen.
Ailuros
2005-07-06, 05:04:55
ATI Deutschland sagte man wird alle überraschen, damit ist wohl unfied shaders gemeint vielleicht könnte das in Verbindung mit WGF2.0 gebracht werden, da mal unfied shaders ein muss für WGF2 WAR.
WGF2.0 hat mehr als nur vereinte Shader; wichtigste Neuigkeit unter anderem ist der Geometrie Shader der weder auf Xenos noch auf R520 vorhanden ist.
Ailuros
2005-07-06, 05:11:38
Die Entwicklung der WGF2 Chips muss schon 2004 angefangen haben und es wird erst um den Jahreswechsel 06 vieleicht feststehen was man alles beinhalten muss, um komform zu gehen.
Ist also unmöglich, eine höhere Spec als DX9 SM3 (WGF1.0) zu erfüllen, weil es nichts anderes gibt!
Haette Microsoft nicht Longhorn verschoben, haette es schon um einiges frueher WGF2.0 chips gegeben. Fast ein Jahr ist eine enorm lange Zeit in diesem Markt ;)
wuzetti
2005-07-06, 08:10:34
Da es bei beiden um nur einen quad handelt (nach den Zahlen und ich die "V" und die "4" uebersehen hatte in vorigen Posts) handelt es sich wohl nicht um X700 Nachfolger sondern eher low-end GPUs.
Nach den Zahlen sieht RV530 selbstverstaendlich nach einem logischen Nachfolger fuer RV515 aus.
so weit so gut. mir drängt sich ausserdem noch die frage auf, warum man ausgerechnet bei der low-end gpu mit der steigerung der Z/stencil leistung "beginnt". irgendwie unlogisch, weil ich mir denke, dass wohl alle modelle und speziell R520 bzw. R580 davon profitieren könnten.
Diskutator
2005-07-06, 08:27:54
Schonmal dran gedacht, das die Spec für WGF2 noch net fertig ist, wie soll man denn dafür jetzt schon einen Chip fertig gebaut haben, ein bissl nachdenken!
Die Entwicklung der WGF2 Chips muss schon 2004 angefangen haben und es wird erst um den Jahreswechsel 06 vieleicht feststehen was man alles beinhalten muss, um komform zu gehen.
Ist also unmöglich, eine höhere Spec als DX9 SM3 (WGF1.0) zu erfüllen, weil es nichts anderes gibt!
LOL, wer geht denn derzeit jede Nacht mit MS in die Kiste???
Weiterhin haben die ja bei 90nm auch jede Menge Platz für Kistenweise NEUE Radio's!
R520 wird mit Sicherheit kein WGF 2.0 Chip sein. ATi muss erstmal SM 3.0 so gescheit auf die Reihe bekommen.
Soweit ich weiß stellt die WGF 2.0 Spec nämlich Anforderungen an die Performance, und da sieht's beim branching sowohl bei nVIDIA als auch bei R520 (nach ATI aussagen) nicht so rosig aus.
seahawk
2005-07-06, 09:25:12
LOL, wer geht denn derzeit jede Nacht mit MS in die Kiste???
Weiterhin haben die ja bei 90nm auch jede Menge Platz für Kistenweise NEUE Radio's!
Ich glaube nicht, dass ein Radio auf den neuen ATI GPUs integriert ist. ;D
Ich glaube nicht, dass ein Radio auf den neuen ATI GPUs integriert ist. ;D
Warum nicht? Das könnte die Sensation/Überraschung sein :biggrin:
Analoge Schaltkreise mit einem digitalen Prozess bei TSMC? Ja das wäre wirklich eine Sensation :rolleyes:
Winter[Raven]
2005-07-06, 10:47:59
Ich glaube nicht, dass ein Radio auf den neuen ATI GPUs integriert ist. ;D
Quark ... es ist eine Kaffeemaschine on DIE! So heiß wie das Ding wird braucht man nur noch Kaffeefilter und eine Packung GALA! :biggrin:
Ailuros
2005-07-06, 11:18:05
so weit so gut. mir drängt sich ausserdem noch die frage auf, warum man ausgerechnet bei der low-end gpu mit der steigerung der Z/stencil leistung "beginnt". irgendwie unlogisch, weil ich mir denke, dass wohl alle modelle und speziell R520 bzw. R580 davon profitieren könnten.
Weil 16 zwar gut genug sind, aber 4 eben viel zu wenig fuer die Zukunft?
Ailuros
2005-07-06, 11:23:25
LOL, wer geht denn derzeit jede Nacht mit MS in die Kiste???
Keiner.
Weiterhin haben die ja bei 90nm auch jede Menge Platz für Kistenweise NEUE Radio's!
Wenn man die Taktrate um einiges reduziert, koennte man noch so manchen Quark draufschrauben; theoretisch zumindest.
']Quark ... es ist eine Kaffeemaschine on DIE! So heiß wie das Ding wird braucht man nur noch Kaffeefilter und eine Packung GALA! :biggrin:
Hallo,
bitte keine FALSCH-BEHAUPTUNGEN aufstellen, der Freund liest mit!
Grüsse
Der Freund
wuzetti
2005-07-06, 12:08:54
es geht weiter bei märchenonkel FUAD
http://www.theinquirer.net/?article=24423 :naughty:
Botcruscher
2005-07-06, 12:15:47
es geht weiter bei märchenonkel FUAD
http://www.theinquirer.net/?article=24423 :naughty:
Naja warum nicht. :rolleyes: Bei 24p schaft er sicher 600 aber bei 32...
ShadowXX
2005-07-06, 12:29:28
There is absolutely no question it will end up faster than Nvidia G70, Geforce 7800GTX offerings. That’s why Nvidia has Ultra on hold and some other card tricks up its corporate sleeves.
Bei ihm hört sich das immer so wie in Stein gemeisselt an....als wenn er jeden Abend mit Orton und/oder Kirk ein Bier trinken geht....
Bei Fuad hab ich momentan sowieso das Gefühl, als wenn er momentan einen leichten Roten hang hat, wenn man die Artikel der letzten 2-3 Monate von ihm liesst.
Hat nV ihn wirklich so stark auflaufen lassen, das er immer noch richtig sauer auf Sie ist??
Winter[Raven]
2005-07-06, 12:33:16
@ Shadow,
das Zitat wollte ich auch Quoten, aber dann würde unserer tomcat wieder rumprollen ich wäre ein Fanboy weil ich was falsches gegen ATI sage :(
Sein ganzer Artikel ist ein Wiederspruch in sich, mehr kann man dazu nicht sagen, zu den Akten legen und nie wieder auspacken.
Demirug
2005-07-06, 12:34:15
Hat nV ihn wirklich so stark auflaufen lassen, das er immer noch richtig sauer auf Sie ist??
Er nimmt es wohl immer noch übel das er vom cebit stand geworfen wurde.
Winter[Raven]
2005-07-06, 12:36:27
Er nimmt es wohl immer noch übel das er vom cebit stand geworfen wurde.
Also wirklich PFUI, NVIDIA sollte sich was schämen! Wo bleibt nur das Recht auf Informationsfreiheit und Meinungsfreiheit... ahh Moment in den USA gibt es doch schon lange nicht mehr... :|
seahawk
2005-07-06, 12:49:58
Bei ihm hört sich das immer so wie in Stein gemeisselt an....als wenn er jeden Abend mit Orton und/oder Kirk ein Bier trinken geht....
Bei Fuad hab ich momentan sowieso das Gefühl, als wenn er momentan einen leichten Roten hang hat, wenn man die Artikel der letzten 2-3 Monate von ihm liesst.
Hat nV ihn wirklich so stark auflaufen lassen, das er immer noch richtig sauer auf Sie ist??
Naja, wenn man so hört und liest was auf dem letzten Editors day zum G70 launch in SF so abgegangen ist, scheint es eine gegenseitige "Liebe" zu sein.
"Plz do not take any pictures - espcially the Inq." Dazu muss man wissen, dass der Inq. gar nicht eingeladen wurde. :D
reunion
2005-07-06, 12:54:48
Bei ihm hört sich das immer so wie in Stein gemeisselt an....als wenn er jeden Abend mit Orton und/oder Kirk ein Bier trinken geht....
Bei Fuad hab ich momentan sowieso das Gefühl, als wenn er momentan einen leichten Roten hang hat, wenn man die Artikel der letzten 2-3 Monate von ihm liesst.
Hat nV ihn wirklich so stark auflaufen lassen, das er immer noch richtig sauer auf Sie ist??
Naja, bei dem Codenamen hat er ja fast keine andere Wahl. :D
Alleine schon die Überschrift: "Fudo" rocks at over 600MHz...
Herrlich. ;D
Ailuros
2005-07-07, 04:30:02
Fuad wird auf seiner kommenden Blamage wohl ganz schoen lange kauen koennen; ueberhaupt wenn ich mitberechne woher er seinen Mist angelt und sich an der Nase herumfuehren laesst ;)
Tomcat70
2005-07-07, 07:55:55
Fuad wird auf seiner kommenden Blamage wohl ganz schoen lange kauen koennen; ueberhaupt wenn ich mitberechne woher er seinen Mist angelt und sich an der Nase herumfuehren laesst ;)
mir kommt eher vor du missverstehst völlig das konzept der "The Inquirer"-seite.
er kann sich gar nicht wirklich blamieren, sein ziel ist einzig und allein aufmerksamkeit zu erregen, und das erreicht er seit jahren besser als 99% aller anderen webseiten die ähnliches anbieten ;)
und wenn er mal daneben liegt mit seinen gerüchten, spekulationen, etc. dann weiss er gekonnt damit umzugehen. seinen bekanntheitsgrad hat er nicht durch die reine wahrheit erlangt, und um die gehts ihm wohl auch nur sekundär.
manchmal jedenfalls hat er auch ein körnchen guter wahrheit anzubieten.....
deekey777
2005-07-07, 09:45:55
http://digitimes.com/news/a20050707A4016.html
ATI R520 to be available in mid-3Q
Charles Chou, Taipei; Jessie Shen, DigiTimes.com [Thursday 7 July 2005]
ATI Technologies expects to begin volume shipments of its 90nm graphics processing units (GPUs), the R520, R530 and RV515, in the middle of the third quarter, as unspecified issues for manufacturing on 90nm technology will soon be solved, according to ATI Taiwan. ATI also plans to introduce another flagship chip, the R580, in early 2006.
The delay of the ATI R520 has allowed Nvidia to gain some orders on the high end of the market, as the company announced the availability of its flagship GeForce 7800 GTX (G70) in June.
The upcoming launch of ATI’s three 90nm graphics chips is expected to boost overall 90nm output from Taiwan Semiconductor Manufacturing Company (TSMC), industry sources suggested. Although less than 4% of TSMC’s sales came from 90nm technology in the second quarter of 2005, the percentage should grow to more than 10% by the fourth quarter, according to Rick Tsai, CEO of TSMC.
ATI will also soon enter the tape-out stage of its flagship R580, an upgrade of the R520, according to the sources.
The launch of ATI’s 90nm chips will accelerate the migration from AGP8X to PCI Express (PCIe), as falling prices for PCIe-capable products will stimulate demand, graphics-card makers commented. The PCIe segment is expected to account for half of graphics-card shipments by the end of this year, though the AGP8X segment should continue to dominate the entry-level segment through the middle of 2006, according to the makers.
Winter[Raven]
2005-07-07, 09:48:57
Die beginnen erst im Q3 Quartal mit der Massenfertigung? Na das kan nja noch heiter werden...
MadManniMan
2005-07-07, 09:50:55
Von welcher Art Quartal reden wir hier? :|
Ginge es nach Manni'scher Denkweise, so bedeutete dies verfügbare Karten im August - imho unrealistisch, daß ATi keinen Paperlaunch liefert, auch wenn nV vorgelegt hat.
Und scheinbar heißt der RV530 nun R530?
MadManniMan
2005-07-07, 09:54:50
']Die beginnen erst im Q3 Quartal mit der Massenfertigung? Na das kan nja noch heiter werden...
Hm, da steht "Bla to be available in mit Q3 Arena blabla" - also von wegen Verfügbarkeit und so. Min0r Ayn0r glaubt nich dran :|
Winter[Raven]
2005-07-07, 09:57:40
Das steht doch:
ATI Technologies expects to begin volume shipments of its 90nm graphics processing units (GPUs), the R520, R530 and RV515, in the middle of the third quarter
ATi erwartet Massenfertigung Mitte dritten Quartals... ob ATI es schafft ist eine andere Frage.
deekey777
2005-07-07, 10:00:16
Von welcher Art Quartal reden wir hier? :|
Ginge es nach Manni'scher Denkweise, so bedeutete dies verfügbare Karten im August - imho unrealistisch, daß ATi keinen Paperlaunch liefert, auch wenn nV vorgelegt hat.
Wer spricht denn von der Verfügbarkeit in Deutschland? ;)
Wann fängt denn das chinesische Mondjahr? Es ist davon auszugehen, daß das dritte Quartal dem gesunden Menschenverstand entspricht und am 1. Juli beginnt. Es steht auch, daß Mitte der dritten Quartals die Massenauslieferung beginnt, was eigentlich mit dem Newstitel im Widerspruch steht, obwohl die Newsschreiber nicht sehr weit von der Fabrik leben. :D
Und scheinbar heißt der RV530 nun R530?
Hoffentlich nicht. ;(
Deutsch English
12 Ergebnisse für shipment 12 results for shipment
Verschiffung {f} shipment
Verschiffungen {pl} shipments
Seetransport {m} shipment
Versand {m} shipment; shipping
Transportschaden {m} transport damage; damage during shipment
Transportschäden {pl} damages in transit
Lieferung {f}; Sendung {f} consignment; shipment [Am.]
Luftfrachtsendung {f} air cargo shipment
Rücklieferung {f} sales return; return shipment
Sammelladung {f} aggregated shipment
Umschlagplatz {m} reloading point; trans-shipment centre
Verfrachtung {f} transporting; shipping; shipment
Versanddatum {n} date of shipment
Warensendung {f}; Warenlieferung {f} consignment; shipment (of goods)
Wer spricht hier von der Massenfertigung?
Für Volume Shipments braucht's erstmal Volume Production. Das bezieht sich allerdings hier erstmal nur auf die GPUs, Karten sollten ein paar Wochen später folgen.
Die Frage ist aber wirklich - welches dritte Quartal? Kalender? Fiskalisch-ATi? Fiskalisch-TSMC? :)
seahawk
2005-07-07, 10:10:22
Sie müsssen zumindest beim R520 die Auslieferungen Mitte August starten, wenn sie im Spetember erste Karten in den Regalen haben wollen. Immerhin müssen die Chips ja erst noch von den IHVs auf Boards gesetzt werden und diese müssen in die Läden. Da kann eine breite Verfügbarkeit im September schon eng werden.
Interessant ist imho, dass sie jetzt schon über R580 sprechen. Imho ein Indinz, dass der R520 nur eine kurze Lebenserwartung haben wird.
seahawk
2005-07-07, 10:13:17
Für Volume Shipments braucht's erstmal Volume Production. Das bezieht sich allerdings hier erstmal nur auf die GPUs, Karten sollten ein paar Wochen später folgen.
Die Frage ist aber wirklich - welches dritte Quartal? Kalender? Fiskalisch-ATi? Fiskalisch-TSMC? :)
ATI kann es schon mal nicht sein, da die gerade den Bericht für das 3Q vorgelegt haben.
TSMC ist denkbar. - was aber sowieso dem kalendarischen 3Q entspricht.
http://www.tsmc.com/english/e_investor/e01_financials/e0103_result.htm
deekey777
2005-07-07, 10:21:38
Für Volume Shipments braucht's erstmal Volume Production. Das bezieht sich allerdings hier erstmal nur auf die GPUs, Karten sollten ein paar Wochen später folgen.
Das ist logisch: Um etwas auszuliefern, muß dieses etwas auch hergestellt werden. Auch sollte man im Auge haben, daß die Verfügbarkeit nicht gleich Verfügbarkeit gleich um die Ecke ist.
Die Frage ist aber wirklich - welches dritte Quartal? Kalender? Fiskalisch-ATi? Fiskalisch-TSMC? :)
Das ist die Frage überhaupt, denn der Sinn* dieser News basiert darauf.
*Hoffnung. :D
€: Wenn alles gut geht, sehen ATi-Liebhaber SM3.0 Wochen vor Weihnachten.
ShadowXX
2005-07-07, 10:30:05
Interessant ist imho, dass sie jetzt schon über R580 sprechen. Imho ein Indinz, dass der R520 nur eine kurze Lebenserwartung haben wird.
Juppss....viel interessannter fand ich allerdings das "ATI will also soon enter the tape-out stage of its flagship R580, an upgrade of the R520, according to the sources.".
D.h. das der r580 mitnichten sein Tape-Out schon hinter sich hatte, wie manche hier geschreiben haben.
Und wenn er jetzt erst noch sein Tape-Out bekommen soll, wird es eng für Anfang des Jahres 2006....speziell, falls ATI dann doch noch den einen oder anderen Respin brauchen sollte.
Ich gehe deshalb davon aus, das man den r580 nicht vor März/April 2006 in den Läden sehen wird.
seahawk
2005-07-07, 11:12:56
Böse Leute könnten es sogar so lesen, dass der R580 erst der nächste Flagshipchip von ATI ist, während der R520 evtl. etwas weniger ist ...
Das Wort flagship wird nämlich nur im Bezug auf G70 und R580 verwendet.
Böse Leute könnten es sogar so lesen, dass der R580 erst der nächste Flagshipchip von ATI ist, während der R520 evtl. etwas weniger ist ...
Das Wort flagship wird nämlich nur im Bezug auf G70 und R580 verwendet.
War ja klar das von dir wieder sowas kommt.
robbitop
2005-07-07, 11:22:03
Böse Leute könnten es sogar so lesen, dass der R580 erst der nächste Flagshipchip von ATI ist, während der R520 evtl. etwas weniger ist ...
Das Wort flagship wird nämlich nur im Bezug auf G70 und R580 verwendet.
R580 wird auch nur ein höher getakteter R520 mit minimalen Änderungen IMO. ATI hat bisher noch nie einen "echten" Refresh gebracht (es sei denn man nimmt R420 als R300 Refresh).
ShadowXX
2005-07-07, 11:26:01
R580 wird auch nur ein höher getakteter R520 mit minimalen Änderungen IMO. ATI hat bisher noch nie einen "echten" Refresh gebracht (es sei denn man nimmt R420 als R300 Refresh).
Naja...wenn der r580 demnächst erst sein Tapeout bekommt, könnte ich mir durchaus vorstellen, das Sie was an der/den Alu(s) gedreht haben um gegenüber dem r520 mehr Ops/Takt rauszubekommen.
War doch bei nv30 -> nv35 genauso (zumindest ähnlich).
Böse Leute könnten es sogar so lesen, dass der R580 erst der nächste Flagshipchip von ATI ist, während der R520 evtl. etwas weniger ist ...
Das Wort flagship wird nämlich nur im Bezug auf G70 und R580 verwendet.
Nö, das stimmt schon so mit flagship. Es ist ausserdem vorteilhafter von flagship als von refresh zu reden. Es klingt einfach besser.
']Also wirklich PFUI, NVIDIA sollte sich was schämen! Wo bleibt nur das Recht auf Informationsfreiheit und Meinungsfreiheit... ahh Moment in den USA gibt es doch schon lange nicht mehr... :|Hausrecht? Also wirklich. Wenn jemand so einen Unsinn verbreitet hat das wohl nichts mehr mit Informationsfreiheit zu tun.
Winter[Raven]
2005-07-07, 11:29:41
@ Coda
Sollte mehr oder weniger Ironisch gemeint sein;)
Was Meinungfreiheit angeht, das ist auch nicht mehr das was es einmal war in den USA :(
Ist aber völlig OT.
reunion
2005-07-07, 11:43:51
']ATi erwartet Massenfertigung Mitte dritten Quartals... ob ATI es schafft ist eine andere Frage.
volume shipments = Auslieferung in großen Stückzahlen.
reunion
2005-07-07, 11:49:23
ATI Technologies expects to begin volume shipments of its 90nm graphics processing units (GPUs), the R520, R530 and RV515, in the middle of the third quarter, as unspecified issues for manufacturing on 90nm technology will soon be solved, according to ATI Taiwan.
Interessant ist vorallem, dass ATi tatsächlich eine komplette Generation gleichzeit auszuliefern wird. Hat es in dieser Form AFAIK noch nie gegeben.
seahawk
2005-07-07, 12:09:34
R580 wird auch nur ein höher getakteter R520 mit minimalen Änderungen IMO. ATI hat bisher noch nie einen "echten" Refresh gebracht (es sei denn man nimmt R420 als R300 Refresh).
Davon gehe ich diesesmal nicht aus. Sie werden eher die Effizinez verbessern.
16/1/1/1
16/1/3/2(1)
SIMD channel/TMU/ALU OPs/Z/stencil throughput
reunion
2005-07-07, 12:12:39
R580 wird auch nur ein höher getakteter R520 mit minimalen Änderungen IMO. ATI hat bisher noch nie einen "echten" Refresh gebracht (es sei denn man nimmt R420 als R300 Refresh).
ATi hat bis jetzt auch noch nie wirklich einen "echten" Refresh benötigt.
Dies sollte sich laut der Meinung vieler mit R520 allerdings ändern.
reunion
2005-07-07, 12:19:31
ATI taped out R520, again (http://www.theinquirer.net/?article=24446)
wuzetti
2005-07-07, 12:23:24
ATI taped out R520, again (http://www.theinquirer.net/?article=24446)
FUAD lässt im moment auch wirklich keinen fettnapf aus. speziell der letzte absatz zeigt, dass ihm manche dinge noch nicht so ganz klar sind. ;D
BlackBirdSR
2005-07-07, 12:42:46
I just cannot understand one thing. How come ATI was able to ship millions of R500, Xbox 360 chips to Microsoft's launch scheduled for October, when it seems to having trouble with yields for the R520? Both chips are using the same new 90 nanometre marchitecture. µ
Wenn er sich mal überlegen würde, dass Chips nicht identisch sind, bis auf die Anzahl an Transistoren, sondern das Design und die Anforderungen durchaus großen Einfluss auf Yields haben kann, würde er es verstehen.
Nicht funktionsfähige Chips durch defekte auf dem Wafer, sind eine Sache. Chips die ihre vorgesehenen Taktraten nicht erreichen, über Bugs verfügen oder deren elektrischen charakteristika ungenügend sind, eine Andere.
µ sag ich da nur ;)
ShadowXX
2005-07-07, 13:21:46
Wenn er sich mal überlegen würde, dass Chips nicht identisch sind, bis auf die Anzahl an Transistoren, sondern das Design und die Anforderungen durchaus großen Einfluss auf Yields haben kann, würde er es verstehen.
Nicht funktionsfähige Chips durch defekte auf dem Wafer, sind eine Sache. Chips die ihre vorgesehenen Taktraten nicht erreichen, über Bugs verfügen oder deren elektrischen charakteristika ungenügend sind, eine Andere.
µ sag ich da nur ;)
Sie sind ja nicht mal identisch in der Anzahl der Transistoren...der r500 Core hat ja nur um die 220-230Mios Transistoren. Der Rest ist auf dem Tochterboard, welches bei NEC gefertigt wird.
Davon abgesehen, das nicht ATI für die Produktion des r500 zuständig ist, sondern MS dies alleine macht.
Zudem wird die heisse Produktionsphase sicherlich erst beginnen, nicht schon vor Monaten abgeschlossen worden sein und weiterhin möchte ATi den R520 sicherlich nicht mit nur 500 MHz rausbringen. :)
wuzetti
2005-07-07, 13:44:54
Sie sind ja nicht mal identisch in der Anzahl der Transistoren...der r500 Core hat ja nur um die 220-230Mios Transistoren. Der Rest ist auf dem Tochterboard, welches bei NEC gefertigt wird.
erwartest du wesentlich mehr als die 220-230mios für den R520? ich meine in anbetracht der jetzigen spekulationen wonach er "nur" 16 SIMD channels haben soll und angesichts der tatsache, dass ATI mit den transistoren eher recht sparsam umgeht?
ShadowXX
2005-07-07, 13:47:27
erwartest du wesentlich mehr als die 220-230mios für den R520? ich meine in anbetracht der jetzigen spekulationen wonach er "nur" 16 SIMD channels haben soll und angesichts der tatsache, dass ATI mit den transistoren eher recht sparsam umgeht?
Momentan erwarte ich beim r520 gar nichts mehr.....
Aber du hast natürlich recht. Wenn der r520 nur 16Pipes haben wird, könnte es natürlich doch auf eine ähnliche Transistorzahl hinauslaufen (wieviele Transistore n hatte der nv40??)
dildo4u
2005-07-07, 13:47:55
(wieviele Transistore n hatte der nv40??)
222mio
Tomcat70
2005-07-07, 14:00:43
Das Wort flagship wird nämlich nur im Bezug auf G70 und R580 verwendet.
keine ahnung wie du auf das kommst. es steht dort "another flagship", also "noch einen" bzw. einen "zusätzlichen".
robbitop
2005-07-07, 14:59:46
Davon gehe ich diesesmal nicht aus. Sie werden eher die Effizinez verbessern.
16/1/1/1
16/1/3/2(1)
SIMD channel/TMU/ALU OPs/Z/stencil throughput
Nur weils irgendjemand bei B3D raushaut und nicht mal weiß wofür der Kram steht, muss es nicht wahr sein.
robbitop
2005-07-07, 15:00:55
ATi hat bis jetzt auch noch nie wirklich einen "echten" Refresh benötigt.
Dies sollte sich laut der Meinung vieler mit R520 allerdings ändern.
Beim R100/R200 hätte man einen gebrauchen können. Beim R420 auch.
ATI hat einfach eine andere Entwicklungsweise. Lieber öfter neue Designs und dafür keine echten Refreshes. Das ist einfach eine Art der Organisationsstruktur.
wuzetti
2005-07-07, 15:02:28
Nur weils irgendjemand bei B3D raushaut und nicht mal weiß wofür der Kram steht, muss es nicht wahr sein.
war es nicht Dave Baumann selbst, der das eingeworfen hat?
seahawk
2005-07-07, 15:13:20
Nur weils irgendjemand bei B3D raushaut und nicht mal weiß wofür der Kram steht, muss es nicht wahr sein.
Wer sagt, das die Info von B3D ist ? :smile:
Beim R100/R200 hätte man einen gebrauchen können. Beim R420 auch.
ATI hat einfach eine andere Entwicklungsweise. Lieber öfter neue Designs und dafür keine echten Refreshes. Das ist einfach eine Art der Organisationsstruktur.
Böse könnte man jetzt sagen, der RV200 war der Refresh des R100/R6 und der R4xx der Refresh des R3xx.
Das kommt davon, wenn der Unterschied zwischen den Generationen eher gering ausfällt - oder andersrum.
Ja,und wie soll das sein?? 1 quad des g70 ist mit Sichercheit schnaeler als einer des r420 beim gleichen Takt,und das ist fuer mich die hoechere Effizienz.
p.s. vieleich haben die Jungs bei Nv das Problem mit den temp. registern endlich in den Griff bekommen?Mehr als 4 *32bit floats oder 8*16 bit floats.Das wurde die Geschwindigkeitssteigerung erklaeren.G70 hat, wie der 3dc-Artikel auch schreibt, für fullspeed weiterhin nur 4 Temps für full precision. Das reicht nicht um die beiden MADs pro Takt für FP-Rechnungen nutzen zu können. Trotzdem ergibt die Erweiterung Sinn, da das Scheduling vereinfacht wird, wenn beide Units voll MAD/DP-fähig sind.
Hauwech
2005-07-07, 16:54:02
G70 hat, wie der 3dc-Artikel auch schreibt, für fullspeed weiterhin nur 4 Temps für full precision. Das reicht nicht um die beiden MADs pro Takt für FP-Rechnungen nutzen zu können. Trotzdem ergibt die Erweiterung Sinn, da das Scheduling vereinfacht wird, wenn beide Units voll MAD/DP-fähig sind.
Ist das eher eine massnahme um Transistoren zu sparen oder hält man sich so die Tür für einen evtl. deutlich flotteren Refrsh auf?
Demirug
2005-07-07, 17:09:15
G70 hat, wie der 3dc-Artikel auch schreibt, für fullspeed weiterhin nur 4 Temps für full precision. Das reicht nicht um die beiden MADs pro Takt für FP-Rechnungen nutzen zu können. Trotzdem ergibt die Erweiterung Sinn, da das Scheduling vereinfacht wird, wenn beide Units voll MAD/DP-fähig sind.
Natürlich reicht das. Habe hier sogar Benchmark ergebnisse die eindeutig zeigen das 2 MADs pro Takt durchgeführt werden.
Sunrise
2005-07-07, 18:07:24
Böse Leute könnten es sogar so lesen, dass der R580 erst der nächste Flagshipchip von ATI ist, während der R520 evtl. etwas weniger ist ...
Das Wort flagship wird nämlich nur im Bezug auf G70 und R580 verwendet.
Dann hast du im ersten Absatz wohl das "another" überlesen, was in diesem Fall für "ein weiterer", "ein weiteres" steht. Er nennt ja zuerst R520 und R530 und bezieht sich im Context ganz deutlich darauf.
R580 wird dann ein "upgrade" des R520 sein (wissen wir ja bereits), welches wiederum natürlich zu ATIs "flagship" werden wird. Daher erwähnt er diesen Teil auch noch einmal explizit.
EDIT: Tomcat70 - exakt.
Natürlich reicht das. Habe hier sogar Benchmark ergebnisse die eindeutig zeigen das 2 MADs pro Takt durchgeführt werden.Tridam hatte damit Probleme. Darf ich den Shader-Ausschnitt sehen, wo Dual-Issue von zwei MADs funktioniert? Das müsste dann imo schon Sonderfälle sein, wo das mit den Registern eben hinkommt.
Ist das eher eine massnahme um Transistoren zu sparen oder hält man sich so die Tür für einen evtl. deutlich flotteren Refrsh auf?Bei jedem Chip ist zu fragen, was man bringt und wo man spart – irgendwo muss man sparen. Die verbesserte ALU bringt schon was. Dass für "Fullspeed" FP16 genutzt werden muss, sagt auch NV (wenn auch nicht direkt.) Die jetzige Lösung halte ich für einen brauchbaren Kompromiss, doch mit 6 (oder gar 8) Temps für Full Precision ließe sich eben eine weitere Leistungssteigerung erzielen, ohne mehr Ausführungseinheiten einzubauen. Außerdem würde die Shader-Optimierung noch einfacher werden.
Wie umgeht ATI eigentlich die Temp-Problematik?
Demirug
2005-07-07, 18:28:07
Tridam hatte damit Probleme. Darf ich den Shader-Ausschnitt sehen, wo Dual-Issue von zwei MADs funktioniert? Das müsste dann imo schon Sonderfälle sein, wo das mit den Registern eben hinkommt.
Neben den Temps gibt es ja auch noch Konstanten und Inputregister.
Wie umgeht ATI eigentlich die Temp-Problematik?Kurze Pipe. Da können genügend Temps hardwareseitig zur Verfügung gestellt werden. Ich schätze die Länge der Pixelpipe auf etwas weniger als 300 Takte. Das heißt, es werden über 1000 Temps tatsächlich geboten. Bei einer deutlich kürzeren Pipe kann man mit der gleichen Zahl an Temps natürlich mehr Temps pro Pixel (pro Quad) bieten.
Neben den Temps gibt es ja auch noch Konstanten und Inputregister.Was genau meinst du mit "Inputregister"? Interpolatoren? Sind das Extra-Register die intern nicht in Temps umgeladen werden?
Demirug
2005-07-07, 18:36:36
Kurze Pipe. Da können genügend Temps hardwareseitig zur Verfügung gestellt werden. Ich schätze die Länge der Pixelpipe auf etwas weniger als 300 Takte. Das heißt, es werden über 1000 Temps tatsächlich geboten.
IMHO hat nur der ALU Teil der Pipe wirklich 32 Temp Register. Der TMU Teil dagegen nur eine.
IMHO hat nur der ALU Teil der Pipe wirklich 32 Temp Register. Der TMU Teil dagegen nur eine.Die TMU braucht ja auch nicht so viele, oder? Allerdings ist mir ATIs Phasenkonzept im Detail noch immer nicht ganz klar. Jedenfalls müssten die TMU-Ergebnisse doch in die Temps für den ALU-Teil geschrieben werden könnten.
Demirug
2005-07-07, 18:42:36
Was genau meinst du mit "Inputregister"? Interpolatoren? Sind das Extra-Register die intern nicht in Temps umgeladen werden?
Nein, nVidia Interpoliert "On The Fly" genau wie 3dfx beim Rampage. Wahrscheinlich tun das einige andere GPUs aber auch weil es einfach Speicherplatz spart.
Ich weiss jetzta allerdings nicht wie viele man davon pro Takt nutzen kann. Da gibt es auch ein Limit. Wobei das durchaus interesant ist. Ich weiss das man die gleiche Einheit welchen den FP16 NRM berechnet (Name ist mir gerade entfallen) auch als FP16 Interpolator benutzten kann.
r3ptil3
2005-07-07, 20:00:21
R520 wird im August vorgestellt und Ende August etwa verfügbar.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juli/atis_r520_august_r580_anfang_2006/
Nein, nVidia Interpoliert "On The Fly" genau wie 3dfx beim Rampage. Wahrscheinlich tun das einige andere GPUs aber auch weil es einfach Speicherplatz spart.Hrm. Ich denke, der Interpolator sitzt quasi vor der ersten Shading Unit bzw. ist das erste Rechenwerk der ersten Shading Unit. Hast du eine Ahnung, ob die perspektivische Korrektur im Interpolator gemacht wird, oder weitere Teile der ersten Shading Unit dafür gebraucht werden?
Ich weiss jetzta allerdings nicht wie viele man davon pro Takt nutzen kann. Da gibt es auch ein Limit. Wobei das durchaus interesant ist. Ich weiss das man die gleiche Einheit welchen den FP16 NRM berechnet (Name ist mir gerade entfallen) auch als FP16 Interpolator benutzten kann.Die NRM_PP-Unit soll noch was fürs Fogging tun können, aber Nvidia gibt sich bei solchen Details nicht gerade gesprächig.
Ailuros
2005-07-07, 23:22:55
mir kommt eher vor du missverstehst völlig das konzept der "The Inquirer"-seite.
er kann sich gar nicht wirklich blamieren, sein ziel ist einzig und allein aufmerksamkeit zu erregen, und das erreicht er seit jahren besser als 99% aller anderen webseiten die ähnliches anbieten ;)
und wenn er mal daneben liegt mit seinen gerüchten, spekulationen, etc. dann weiss er gekonnt damit umzugehen. seinen bekanntheitsgrad hat er nicht durch die reine wahrheit erlangt, und um die gehts ihm wohl auch nur sekundär.
manchmal jedenfalls hat er auch ein körnchen guter wahrheit anzubieten.....
Ich werde mich ueber diese eher unangenehme Geschichte erst auessern wenn jemand anders mit dem Zeug zum Vorschein kommt. Wuerdest Du ueber den gesamten Hintergrund bescheid wissen, haettest Du auch eine ganz andere Perspektive ueber das Thema.
Ailuros
2005-07-07, 23:25:05
Sie müsssen zumindest beim R520 die Auslieferungen Mitte August starten, wenn sie im Spetember erste Karten in den Regalen haben wollen. Immerhin müssen die Chips ja erst noch von den IHVs auf Boards gesetzt werden und diese müssen in die Läden. Da kann eine breite Verfügbarkeit im September schon eng werden.
Interessant ist imho, dass sie jetzt schon über R580 sprechen. Imho ein Indinz, dass der R520 nur eine kurze Lebenserwartung haben wird.
Uhmmm *hust* *glotzt auf die Decke*.....
Hätte nicht gedacht, dass ATI nVidia selbst das NV30/NV35 Spielchen nachmacht. Der R580 hat anscheinend noch nicht mal das finale TapeOut hinter sich, wenn das genauso wie mit dem R520 wird, dann ist nichts mit early 2006.
Die kurze Lebensdauer muss allerdings nichts mit Performance zu tun haben. Sind die Yields selbst mit dem Respin noch kilometerweit unter den Erwartungen, müssen sie relativ schnell den R580 bringen oder sie zahlen mächtig drauf. Begrenzte Stückzahl vielleicht auch noch?
Stimmt dann auch noch das Gerücht, dass ASUS schon den G70@90nm in den Händen halten soll, bleibt ATI sowieso nichts anderes übrig als den R580 vorzuziehen. Das gilt natürlich alles nur, wenn ATI, so wie ich vermute, bei 16 Pipelines bleibt.
Ailuros
2005-07-08, 09:04:54
1. ATI kann momentan nicht die Wahrheit zurechtbiegen, da kein IHV etwas ueber zukuenftige Produkte ohne eine Ankuendigung angibt heutzutage.
2. Paperlaunch steht ausser Frage mit der G70 Veroeffentlichung/Verfuegbarkeit.
Hätte nicht gedacht, dass ATI nVidia selbst das NV30/NV35 Spielchen nachmacht. Der R580 hat anscheinend noch nicht mal das finale TapeOut hinter sich, wenn das genauso wie mit dem R520 wird, dann ist nichts mit early 2006.
Es gibt IMO zwei Gruende warum man R580 sehr schnell nachladen wird: R520 Verfuegbarkeit und ALU- Leistung. Mehr oder weniger hab ich mich schon ueber das meiste schon geaeussert wenn auch indirekt. Momentan macht mir R580 keine besondere Sorgen.
Die kurze Lebensdauer muss allerdings nichts mit Performance zu tun haben. Sind die Yields selbst mit dem Respin noch kilometerweit unter den Erwartungen, müssen sie relativ schnell den R580 bringen oder sie zahlen mächtig drauf. Begrenzte Stückzahl vielleicht auch noch?
Siehe oben.
Stimmt dann auch noch das Gerücht, dass ASUS schon den G70@90nm in den Händen halten soll, bleibt ATI sowieso nichts anderes übrig als den R580 vorzuziehen. Das gilt natürlich alles nur, wenn ATI, so wie ich vermute, bei 16 Pipelines bleibt.
Asus hat gar nichts in den Haenden.
Von dem abgesehen hat ATI wiederholt erwaehnt dass die Konzentration der Zukunft auf ALU-Power liegen wird; nur erwartete man eben nicht dass die Konkurrenz so schnell aufholen wird. ATI war etwa ein Halbjahr mit 90nm voraus (was sich eher zum Nachteil bewiesen hat mit der verrueckt hohen Taktrate) und NVIDIA eben ein ~Halbjahr voraus mit der aufgepumpten ALU Leistung.
Wunder sollte man sowieso nicht vom G70 Nachfolger erwarten (ebenso wie bei G70-->NV40), aber leicht wird es R580 auch hier nicht haben. Die Frage ist ob die IHVs endlich ihre GPUs mit zumindest 800MHz GDDR4 ausruesten koennen, optimistisch bin ich da momentan aber auch nicht mehr....
Winter[Raven]
2005-07-08, 09:17:01
Jetzt reden wir schon über den G80 und R580 ... das Rad dreht sich immer schneller und irgendwann geht einer von beiden dabei unter!
reunion
2005-07-08, 11:40:54
Von dem abgesehen hat ATI wiederholt erwaehnt dass die Konzentration der Zukunft auf ALU-Power liegen wird; nur erwartete man eben nicht dass die Konkurrenz so schnell aufholen wird. ATI war etwa ein Halbjahr mit 90nm voraus (was sich eher zum Nachteil bewiesen hat mit der verrueckt hohen Taktrate) und NVIDIA eben ein ~Halbjahr voraus mit der aufgepumpten ALU Leistung.
Wunder sollte man sowieso nicht vom G70 Nachfolger erwarten (ebenso wie bei G70-->NV40), aber leicht wird es R580 auch hier nicht haben. Die Frage ist ob die IHVs endlich ihre GPUs mit zumindest 800MHz GDDR4 ausruesten koennen, optimistisch bin ich da momentan aber auch nicht mehr....
Wenn die jetztigen Gerüchte stimmen, wird es R580 gegen G70@90nm sogar verdammt schwer haben IMHO. Oder wie gedenkt ATi, mit einem 16Pipeline-Chip zu bestehen, der Taktvorteil ist dann ja weg?
Ailuros
2005-07-08, 11:51:40
Wenn die jetztigen Gerüchte stimmen, wird es R580 gegen G70@90nm sogar verdammt schwer haben IMHO. Oder wie gedenkt ATi, mit einem 16Pipeline-Chip zu bestehen, der Taktvorteil ist dann ja weg?
Kommt ganz drauf an was NVIDIA fuer den Nachfolger geplant hat. Ich bin mir immer noch nicht sicher ob sie jetzt doch nicht irgendwie an den SONY/PS3 Deal gebunden sind. Es ist ja auch nicht immer so dass die refreshes von refreshes einen anstaendigen Unterschied haben muessen (siehe R420-->R480 oder NV35-->NV36).
Quasar
2005-07-08, 11:53:07
nV36 war nicht der Refresh vom nV35, sondern vom nV31. :)
Allerdings: vielleicht ist's ja möglich, von Sony ein paar RSX zu bekommen, die die 550MHz nicht schaffen. Bei Konsolen gibt's ja keine "Light-Version".
reunion
2005-07-08, 11:59:26
nV36 war nicht der Refresh vom nV35, sondern vom nV31. :)
Allerdings: vielleicht ist's ja möglich, von Sony ein paar RSX zu bekommen, die die 550MHz nicht schaffen. Bei Konsolen gibt's ja keine "Light-Version".
Was will man damit?
Die haben doch AFAIK ein ganz anderes Interfance.
Im übrigen denke ich, dass G80 - oder wie der auch immer heißen wird, deutlich höher als mit 550Mhz taktet. Bei Konsolen lässt man ja normalerweise einen recht großen "Sicherheitsabstand", weil der Chip nicht zu heiß werden darf, und weil man den Ausschuss natürlich Minimieren muss.
R500 taktet ja auch nur mit 500Mhz, obwohl für R520 wesentlich höher Frequenzen spekuliert werden.
Ailuros
2005-07-08, 11:59:55
nV36 war nicht der Refresh vom nV35, sondern vom nV31. :)
Allerdings: vielleicht ist's ja möglich, von Sony ein paar RSX zu bekommen, die die 550MHz nicht schaffen. Bei Konsolen gibt's ja keine "Light-Version".
NV38 Du hast recht...sorry :(
Fuer's zweite muesste die Consolen mit den PC chips bis zu 100% identisch sein, was ich erstmal bezweifeln will.
Quasar
2005-07-08, 12:01:07
NV38 Du hast recht...sorry :(
Fuer's zweite muesste die Consolen mit den PC chips bis zu 100% identisch sein, was ich erstmal bezweifeln will.
Dazu bräuchte man nur beide Chips mit beiden Interfaces ausstatten. Ich weiß nicht, wie aufwendig das ist, aber klingt IMO nicht völlig abwegig.
Was will man damit?
Die haben doch AFAIK ein ganz anderes Interfance.
Ein Interface ist nur ein Interface und zwei Interfaces lösen die Interface-Problematik bereits.
Von deutlich mehr als 500MHz bin ich absolut nicht überzeugt. Immerhin muss nV ja 300 Millionen Transistoren zu so hohem Takt bewegen.
reunion
2005-07-08, 12:01:22
Kommt ganz drauf an was NVIDIA fuer den Nachfolger geplant hat. Ich bin mir immer noch nicht sicher ob sie jetzt doch nicht irgendwie an den SONY/PS3 Deal gebunden sind.
Inwiefern sollte man da an was gebunden sein?
Es ist ja auch nicht immer so dass die refreshes von refreshes einen anstaendigen Unterschied haben muessen (siehe R420-->R480 oder NV35-->NV36).
Selbst wenn man am Chip selbst absolut nichts verändert, erlaubt alleine schon der 90nm Prozess eine deutliche Leistungssteigerung.
r3ptil3
2005-07-08, 12:03:15
R500 taktet ja auch nur mit 500Mhz, obwohl für R520 wesentlich höher Frequenzen spekuliert werden.
Das mit dem Takt des R520 könnte wieder zum R420 hinführen, da die Architektur noch klar am R300 Design ähneln wird und eben auch Takt/Leistung nicht sehr viel höher als beim R420 liegen wird.
Ailuros
2005-07-08, 12:04:17
Was will man damit?
Die haben doch AFAIK ein ganz anderes Interfance.
Im übrigen denke ich, dass G80 - oder wie der auch immer heißen wird, deutlich höher als mit 550Mhz taktet. Bei Konsolen lässt man ja normalerweise einen recht großen "Sicherheitsabstand", weil der Chip nicht zu heiß werden darf, und weil man den Ausschuss natürlich Minimieren muss.
R500 taktet ja auch nur mit 500Mhz, obwohl für R520 wesentlich höher Frequenzen spekuliert werden.
R500 ist nicht vergleichbar mit R520, also lass mal bitte die Frequenzen hier bei Vergleichen aus dem Spiel.
Falls NVIDIA mit der RSX Lizenz daran gebunden ist bei Veroeffentlichung die schnellste GPU von NVIDIA in der Kiste zu haben, wird es wohl schwer werden fuer NV den G70 Nachfolger so hoch zu takten. Da ich keine Ahnung habe wie der Deal genau aussieht und um was fuer Vorraussetzungen es sich handelt, kann ich auch nicht sicher sein wie das Ganze aussehen koennte. PS3 hat noch wieviel Monate bis zur Vorstellung und wann genau wird der G70 Nachfolger erwartet?
reunion
2005-07-08, 12:04:37
Dazu bräuchte man nur beide Chips mit beiden Interfaces ausstatten. Ich weiß nicht, wie aufwendig das ist, aber klingt IMO nicht völlig abwegig.
IMHO zu aufwendig, sonst hätte man das bei der AGP - PCIe Problematik auch schon gemacht, anstatt sich auf einen Brückenchip einzulassen.
ATi hat mit R480/481 sogar zwei, bis auf das Interfance identische Chips parallel produziert.
Ailuros
2005-07-08, 12:07:14
Dazu bräuchte man nur beide Chips mit beiden Interfaces ausstatten. Ich weiß nicht, wie aufwendig das ist, aber klingt IMO nicht völlig abwegig.
Falls SONY und NVIDIA in verschiedenen fabs herstellen, entfaellt Deine These ziemlich schnell.
Ein Interface ist nur ein Interface und zwei Interfaces lösen die Interface-Problematik bereits.
Von deutlich mehr als 500MHz bin ich absolut nicht überzeugt. Immerhin muss nV ja 300 Millionen Transistoren zu so hohem Takt bewegen.
Scheint aber bei RSX zu klappen bis jetzt. Du scheinst zu vergessen dass sie schon auf 430MHz mit 110nm sind. Wieso soll dann >500MHz so schwer sein auf 90nm?
reunion
2005-07-08, 12:07:56
Von deutlich mehr als 500MHz bin ich absolut nicht überzeugt. Immerhin muss nV ja 300 Millionen Transistoren zu so hohem Takt bewegen.
G70 würde mit etwas mehr Konkurrenzdruck IMO schon verdammt nah an 500Mhz kommen.
Quasar
2005-07-08, 12:14:11
IMHO zu aufwendig, sonst hätte man das bei der AGP - PCIe Problematik auch schon gemacht, anstatt sich auf einen Brückenchip einzulassen.
Möglich, allerdings liegt der Brückenchip IMO eher an der Tatsache, daß man für die MidRange flexibel und gleichzeitig kostengünstig sein wollte (für's Low-End war's dann aber immer noch zu teuert). Beim High-End kommt es darauf IMO weniger an.
ATi hat mit R480/481 sogar zwei, bis auf das Interfance identische Chips parallel produziert.
Ich glaube, hier spielte die völlige Fehleinschätzung der Bedeutung von PCIe eine Rolle.
reunion
2005-07-08, 12:16:59
R500 ist nicht vergleichbar mit R520, also lass mal bitte die Frequenzen hier bei Vergleichen aus dem Spiel.
Okay, allerdings sollten aufgrund der oben genannten Dinge trotzdem Taktraten über denen des RSX möglich sein.
Falls NVIDIA mit der RSX Lizenz daran gebunden ist bei Veroeffentlichung die schnellste GPU von NVIDIA in der Kiste zu haben, wird es wohl schwer werden fuer NV den G70 Nachfolger so hoch zu takten. Da ich keine Ahnung habe wie der Deal genau aussieht und um was fuer Vorraussetzungen es sich handelt, kann ich auch nicht sicher sein wie das Ganze aussehen koennte. PS3 hat noch wieviel Monate bis zur Vorstellung und wann genau wird der G70 Nachfolger erwartet?
Mhm, wäre natürlich möglich, nur irgendwie auch ziemlich unsinnig.
Oder was hätte Sony davon, bei der Vorstellung die schnellste nV-GPU zu haben, außer vielleicht etwas Marketing?
Und nV würde sich damit auch ganz schön ins eigene Fleisch schneiden.
Quasar
2005-07-08, 12:20:45
Falls SONY und NVIDIA in verschiedenen fabs herstellen, entfaellt Deine These ziemlich schnell.
Ich verstehe nicht?
Ich gehe doch hier gerade davon aus, daß der G70-Nachfolger eben zumindest anfangs direkt auch mit dem Ausschuss der RSX-Chips aufgebaut wird. Das kann sich später sicherlich ändern, wenn man von TSMC genügend "eigene" Chips bekommt. Sony kann dann ihrerseits beim nächsten Re-Spin des RSX das zusätzliche Interface rausoperieren.
Scheint aber bei RSX zu klappen bis jetzt. Du scheinst zu vergessen dass sie schon auf 430MHz mit 110nm sind. Wieso soll dann >500MHz so schwer sein auf 90nm?
Ich meine "deutlich" mehr. 520-540 MHz halte ich für realistisch, aber ich denke nicht, daß man an die Taktraten von ATis Chips herankommen wird.
Ailuros
2005-07-08, 12:23:00
Okay, allerdings sollten aufgrund der oben genannten Dinge trotzdem Taktraten über denen des RSX möglich sein.
Sicher. Mit der dynamischen Taktung diverser Einheiten wuerden selbst 550MHz das Ding nicht unbedingt ueberlasten, wenn ich schon sehe wie G70 sich uebertakten laesst.
Mhm, wäre natürlich möglich, nur irgendwie auch ziemlich unsinnig.
Oder was hätte Sony davon, bei der Vorstellung die schnellste nV-GPU zu haben?
Marketing-Argumente hauptsaechlich.
Quasar
2005-07-08, 12:23:56
G70 würde mit etwas mehr Konkurrenzdruck IMO schon verdammt nah an 500Mhz kommen.
Sicherlich könnte man so eine "ultra extreme/XTPE"-Edition basteln, aber das würde die Erfordernis an den Nachfolger erhöhen und zugleich die Verfügbarkeit töten.
Ailuros
2005-07-08, 12:27:03
Ich verstehe nicht?
Ich gehe doch hier gerade davon aus, daß der G70-Nachfolger eben zumindest anfangs direkt auch mit dem Ausschuss der RSX-Chips aufgebaut wird. Das kann sich später sicherlich ändern, wenn man von TSMC genügend "eigene" Chips bekommt. Sony kann dann ihrerseits beim nächsten Re-Spin des RSX das zusätzliche Interface rausoperieren.
SONY stellt - wie Du sicher weisst - die RSX chips selber her. Wenn man in zwei verschiedenen fabs herstellt und die libraries nicht identisch sein sollten zwischen den fabs, dann sehe ich nicht ein wie das Ganze zustande kommen soll.
90nm =! 90nm.
Ich meine "deutlich" mehr. 520-540 MHz halte ich für realistisch, aber ich denke nicht, daß man an die Taktraten von ATis Chips herankommen wird.
Zu was denn ueberhaupt? 520 * 24 = 12480. Um diese Rate zu erreichen, muesste R580 auf 780MHz getaktet sein.
Ailuros
2005-07-08, 12:31:32
Sicherlich könnte man so eine "ultra extreme/XTPE"-Edition basteln, aber das würde die Erfordernis an den Nachfolger erhöhen und zugleich die Verfügbarkeit töten.
Der Nachfolger wird so fundamentale Unterschied haben dass ich ihn gar nicht mitberechnen wuerde; da aendern sich schon mal einige Faktoren.
Welche Ultra extreme edition und welche schlechte Verfuegbarkeit? Nochmal G70 ist auf 430MHz getaktet und 550MHz@90nm sind mit Leichtigkeit erreichbar.
Quasar
2005-07-08, 12:35:42
SONY stellt - wie Du sicher weisst - die RSX chips selber her. Wenn man in zwei verschiedenen fabs herstellt und die libraries nicht identisch sein sollten zwischen den fabs, dann sehe ich nicht ein wie das Ganze zustande kommen soll.
90nm =! 90nm.
Eben! Wenn es stimmt, daß nV Sony zugesichert hat, der RSX wäre der schnellste nV-Chip, den es zur Markteinführung der PS3 geben wird, dann wäre es für nV kaum möglich, einen höher getakteten Chip als 550 MHz vor Q1/2 2006 (wann auch immer) rauszubringen.
Und in diesem Falle kann man für einen Refresh, so lange, bis man schneller sein "darf" und die Ausbeute bei TSMC gut hinbekommen hat, ja genausogut den Ausschuß der Sony-RSX benutzen - eben weil man nicht höher darf.
Ich könnte mir gut vorstellen, daß nV diese Zusicherung an Sony, die schnellste GPU zu bekommen, gegen das Mitproduzieren eines PCIe-Interfaces eingetauscht hat.
Das ganze könnte, wegen des zeitlichen Abstandes allerdings auch eher nicht für den G70-Nachfolger, sondern logischer, für die 7800 UltraX aufgespart werden.
Zu was denn ueberhaupt? 520 * 24 = 12480. Um diese Rate zu erreichen, muesste R580 auf 780MHz getaktet sein.
Eben! Deswegen denke ich nicht, daß es sinnvoll ist, zu sagen, 0,09µ brächte bei ATi soundsoviel MHz, ergo muss es auch bei nV dieselbe MHz-Zahl an Zuwachs bringen.
ShadowXX
2005-07-08, 12:35:54
Sicherlich könnte man so eine "ultra extreme/XTPE"-Edition basteln, aber das würde die Erfordernis an den Nachfolger erhöhen und zugleich die Verfügbarkeit töten.
Das glaube ich nicht....eine Ultra Edition mit 480MHz würde nV, so wie die Übertaktbarkeit momentan aussieht, wohl ohne Probleme hinkommen.
Und das wohl sogar mit einer verfügbarkeit die den Abnehmern solcher Karten mehr als genügen würde.
Ich kenne inzwischen x-Leute die ein 7800GTX haben, die sich locker im Taktrahmen von 480-510 Übertakten lassen...und das einfach nur über das im Treiber intergrierte "übertaktungsmodul" (und das ohne extra Overvolten und mit Stockkühlung).
Bei dem Problem mit der Erfordernis an den Nachfolger gebe ich dir allerdings recht....
Quasar
2005-07-08, 12:37:13
Der Nachfolger wird so fundamentale Unterschied haben dass ich ihn gar nicht mitberechnen wuerde; da aendern sich schon mal einige Faktoren.
Das ist irrelevant - du meinst die Architektur, ich rede allein von der Leistung.
Wie will das Marketing einen Chip verkaufen, der zwar eine revolutionäre Architektur hat (wenn er sie denn hat...), aber kaum schneller ist, als der Vorgänger?
Welche Ultra extreme edition und welche schlechte Verfuegbarkeit? Nochmal G70 ist auf 430MHz getaktet und 550MHz@90nm sind mit Leichtigkeit erreichbar.
550MHz ja, aber für welches Design?
Ailuros
2005-07-08, 12:48:44
Das ist irrelevant - du meinst die Architektur, ich rede allein von der Leistung.
Wie will das Marketing einen Chip verkaufen, der zwar eine revolutionäre Architektur hat (wenn er sie denn hat...), aber kaum schneller ist, als der Vorgänger?
Mit dieser Problematik werden sich wohl beide IHVs den Kopf zerbrechen muessen, ueberhaupt falls NVIDIA doch nicht auf unified gehen sollte.
Kann heute der G70 sich in einem normalen mainstream PC ueberhaupt behaupten? Wieviel haben denn ueberhaupt einen >4000+ Prozessor im System und bei wievielen geht die Aufloesung des Bildschirms auf >1600*1200 genau?
550MHz ja, aber für welches Design?
Der Nachfolger von G70 wird wohl auch 6 quads haben. Was genau soll daran so unmoeglich sein verstehe ich immer noch nicht.
Quasar
2005-07-08, 14:38:40
Ja, wie gesagt, ich weiß es nicht, da ich weder GPUs kenne, die auf diesem Prozess hergestellt werden, noch die entsprechenden Ausbeuten.
Was mir allerdings einleuchten würde, wäre, daß es bei ansonsten gleichem Prozess und Design einfacher ist, einen kleineren Chip auf 550MHz zu bringen, als einen größeren.
Hauwech
2005-07-08, 14:46:04
Mit dieser Problematik werden sich wohl beide IHVs den Kopf zerbrechen muessen, ueberhaupt falls NVIDIA doch nicht auf unified gehen sollte.
Kann heute der G70 sich in einem normalen mainstream PC ueberhaupt behaupten? Wieviel haben denn ueberhaupt einen >4000+ Prozessor im System und bei wievielen geht die Aufloesung des Bildschirms auf >1600*1200 genau?
Der Nachfolger von G70 wird wohl auch 6 quads haben. Was genau soll daran so unmoeglich sein verstehe ich immer noch nicht.
Huh? Dachte Unified Shader in Hardware sind nicht mehr vorgeschrieben sondern 'nur' noch Treibersache?
Mit den richtigen Einstellungen kann man auch einen G70 in die Knie zwingen. :) Imho kann man aber eigentlich davon ausgehen, dass der Großteil der Käufer eines G70 einen entsprechenden Unterbau haben, sei es durch Übertakten oder 'Original'.
Bei den Bildschirmen könntest du recht haben, allerdings eher im TFT Bereich, da sind selbst 16x12 eher Mangelware. Bei CRTs sieht es anders aus. Da bekommt man zwar nur gebrauchte trotzdem wirklich sehr gute 21"+ Monitore schon für relativ wenig Geld aber selbst die können >16x12 mit immer noch guten Hz Zahlen fahren.
Der Nachfolger vom G70 ist noch in weiter Ferne. Je nachdem wann die mit WGF2.0 aus dem Kreuz kommen, dauert es sowieso noch mindestens 1 Jahr, eher länger und erst dann lohnt es sich darüber einen Kopf zu machen
Viel interessanter als der Nachfolger vom G70 sind die kleineren Karten die anstehen.
http://pc.watch.impress.co.jp/docs/2005/0708/kaigai196.htm
R520=C1 likeness
hmmmm
http://pc.watch.impress.co.jp/docs/2005/0708/kaigai196.htm
R520=C1 likeness
hmmmm
Tja, anbetracht der Tatsache, dass mein Chinesisch etwas eingerostet ist, werde ich nicht wirklich schlau draus. Wer hat Ahnung?
BodyLove
2005-07-08, 16:39:45
Viel wichtiger ist ja, was auf dem Shot geschrieben steht.;)
Huh? Dachte Unified Shader in Hardware sind nicht mehr vorgeschrieben sondern 'nur' noch Treibersache?
Mit den richtigen Einstellungen kann man auch einen G70 in die Knie zwingen. :) Imho kann man aber eigentlich davon ausgehen, dass der Großteil der Käufer eines G70 einen entsprechenden Unterbau haben, sei es durch Übertakten oder 'Original'.
Bei den Bildschirmen könntest du recht haben, allerdings eher im TFT Bereich, da sind selbst 16x12 eher Mangelware. Bei CRTs sieht es anders aus. Da bekommt man zwar nur gebrauchte trotzdem wirklich sehr gute 21"+ Monitore schon für relativ wenig Geld aber selbst die können >16x12 mit immer noch guten Hz Zahlen fahren.
Der Nachfolger vom G70 ist noch in weiter Ferne. Je nachdem wann die mit WGF2.0 aus dem Kreuz kommen, dauert es sowieso noch mindestens 1 Jahr, eher länger und erst dann lohnt es sich darüber einen Kopf zu machen
Viel interessanter als der Nachfolger vom G70 sind die kleineren Karten die anstehen.
Vor allem, wenn die NV-Preise wieter lustig nach unten purzeln!
Heute für 179€ 6800GT 128MB.
Frage mich ERNSTHAFT warum ein Käufer noch 299€ -399€ für eine abgespeckte G70 ausgeben sollte, wenn er eine schnellere 6800GT 256MB schon für 199€ haben kann.
translation
The next generation GPU of NVIDIA and ATI Technologies
NVIDIA and ATI Technologies, 2 large GPU vendors began crash again in the next generation GPU.
GeForce 7800 GTX (G70) with NVIDIA which precedes is chased, also ATI has prepared the next generation GPU "R520". NVIDIA following to G70, "G71 (old NV49)" for mid range, main stream & "G72 (old NV46)" for the value is the possibility that it keeps throwing gradually. It is said that also ATI after R520, has prepared "RV530" for mid range and main stream & "RV515" for the value. Both corporations, with PC graphics collide with full line-up.
ATI&NVIDIA Desktop GPU
Presumption road map
As for PDF editionthis
In addition, with the game console, NVIDIA it is decended of G70 in PLAYSTATION 3 ATI as R520 the custom GPU which is called the same system (R500) vis-a-vis offering in Xbox 360, "RSX (Reality Synthesizer)" it places. The fight which GPU industry 2 minutes is done again is starting.
The latest point is that the opposition both is an architecture aspect. NVIDIA and ATI collide with the respective be opposed architecture and approach. NVIDIA for the time being goes until recently on the developmental strengthening route of architecture vis-a-vis taking the original architecture where ATI reforms the structure of GPU from root. NVIDIA chose the 110nm process of no option properly in G70 ATI with R520 vis-a-vis applying the 90nm process of the point.
In other words, this time ATI "reformation but, the key" route, NVIDIA "reliable but it confronts each other on the route whose is little". It means at the beginning of DirectX 9 generation GPU, ATI to choose, to adopt and to change RADEON 9700 (R300) /9800 (R350) with reliable architecture + maturity process (150nm) NVIDIA GeForce FX 5800 (NV30) with reformation architecture + advanced process (130nm) standpoint to insert.
This time, ATI architecture process (= operational frequency) leap to be large as for possibility of latent performance rise is higher, but that much risk in efficiency and the production aspect is large. As for NVIDIA, GeForce 6800 (NV40) from architecture and process leap are small, efficiency rise the power industry element (bigger die/di size) is strong, but risk is that much little.
The last time, in R300/350 opposite NV30, NVIDIA which shoulders risk fell largely. This time you do not know yet it becomes some result. If you say to principle, the new architecture of ATI works effectively, when production stands up proper with new process, the possibility ATI extending becomes high. On the one hand, when the architecture of ATI is NV30, the way it does not work efficiently, when passes even with the production with new process and is, the possibility NVIDIA riding in spirit with G7x system becomes high. ATI is the high risk high return.
- ATI of Unified-Shader architecture
As for G70 of NVIDIA, as the originally code name "NV47" even from the fact that is understood, as for the actual condition "NV40 reforming" is. As it develops the based architecture of NV40, 50% increases the quantity of Pixel Shader parallelism inside Shader was raised. Expansion other than Pixel Shader remains relatively properly.
NVIDIA, with NV30 it is sharing the execution resource of Shader, does complicated control, architecture of new idea was adopted. This approach not doing well now has recognized NVIDIA itself. Because of that, as for NVIDIA, you reset to a more proper constitution of ATI type from NV40. With NV40 there is Vertex Shader and Pixel Shader which, become independent controls individual Shader independently. With NV40, efficiency was extended with the power industry that it expands the quantity of Shader and the execution resource inside Shader. NVIDIA having G70, in high end GPU 2005, has shown the fact that it judges that this route is effective.
Vis-a-vis that, ATI does architecture reform with this timing, furthermore, also the tip of that continues radical architecture reform. "R5xx about the same as the time of R300 probably becomes the reform which has impact. But, (the following) R6xx furthermore the reform which is fundamental probably becomes ", that, David E. of ATI Orton (デビッド E オートン) you talk president and CEO.
ATI, has already revealed the fact that Unified-Shader architecture is adopted for Xbox 360 GPU. With Unified-Shader, there is no distinction such as Vertex Shader and Pixel Shader, Unified-Shader array of the architecture which was standardized it becomes. With Xbox 360 GPU, "the sequencer (Sequencer)" does the control of 48 Unified-Shader groups. It differs from former GPU architecture completely, it is radical architecture. R520 is included, the future new generation GPU of ATI, sees that Unified-Shader constitution is succeeded.
- The opinion for Unified-Shader which divides
Whether or not as for difference of the directivity latest both, Unified-Shader type constitution validity there is the judgement. As for ATI that Unified-Shader rises efficiency, it judged, when it is Unified-Shader, it thought NVIDIA that efficiency deteriorates. The group of NVIDIA authorized personnel, have recognized the fact that it is opposite to Unified-Shader as a medium long-term technical trend. But, with current phase, as for Unified-Shader it seems that it judges that it is not suitable.
ATI thinks that it becomes the key where the pliability of Unified-Shader increases the efficiency of GPU. With Unified-Shader type architecture, various tasks can be distributed freely in each Shader unlike mounting which is locked to Vertex Shader and Pixel Shader.
Robert Feldstein of ATI (ATI Technologies and Vice President - Engineering)
"You must process, when the apex increases, the sequencer distributes many apex processing to the Shader pipe. When it does, the number of apex operations increases automatically ", that Robert Feldstein of ATI (ATI Technologies and Vice President - Engineering) you explain. In other words, if apex processing is many, it cuts many of Unified-Shader in apex processing, if pixel processing is many, it is possible to allot many to pixel processing conversely. It is the case that load balancing between Shader becomes possible.
According to ATI, when behavior of actual application is analyzed, you say that Unified-Shader efficiently can make Shader work. "There are no times when, many apex processing many pixel processing is really done simultaneously. That (during apex processing and pixel processing), because it goes back and forth "," because of that, naturally, it reaches the point where it is possessed in either processing ", that Andrew B. Thompson of ATI (Director, Advanced Technology Marketing and ATI Research) you explain.
David B. of NVIDIA Kirk (デビッド B kirk) person (Chief Scientist)
Vis-a-vis that, NVIDIA throws the opinion which is opposed from front. But "as for the people ' apex processing when being, Shader everything 32 can be used in apex processing. Or, but pixel processing when being, everything can be used in pixel. Perhaps you call this and that ' you think. But, such a thing does not happen under any condition. With the game, there is both processing of apex and pixel always. And, in the game program, expectation can do the quantity of geometry processing and the quantity of fragment processing, rather. We think that already good balance is obtained. Dynamically the necessity リバランス to do it is not ", that David B. Kirk (the デビッド B kirk) the person (Chief Scientist) it points out.
In addition, as for NVIDIA as for Unified-Shader, as for operating efficiently it points out even in the control aspect that it is difficult.
"It is very difficult with architecture of Unified-Shader type to make high speed. As NV30 so been, when control is made complicated, because it becomes very difficult "to increase efficiency, (Kirk)
Feldstein of ATI refutes as follows vis-a-vis that.
"Unified-Shader do management by your. Are not the software base and in the hardware base, are very efficient mechanism. Therefore, (コンピ…テーション) cycle does not make at all wasteful ",
Concerning the performance of Unified-Shader, judgement is not possible that really the hardware does not come out.
Kirk of NVIDIA points out also the deterioration of efficiency of the component side.
When "Vertex Shader and Pixel Shader are compared, Vertex Shader is much smaller than Pixel Shader. But, with Unified-Shader, all Shader engines, must have the function of pixel shading. When it does, when doing apex shading, the part for pixel shading becomes wasteful. It is difficult "to do efficiently,
ATI with Unified-Shader did mounting which maintains Shader hard itself simply. Vis-a-vis that, the NV40/G70 architecture of present NVIDIA has made Pixel Shader very complicated. With G70, vectoring operational unit 2 (as for one side texture processing unit and the operational resource) is joint ownership inside Pixel Shader, scalar operational unit and the like belongs respectively. When just this it is complicated, unified conversion is seriously so.
- As for the WGF2.0 generation how becoming?
GPU to 2006 "Windows Graphics Foundation (WGF) 2.0" rushes to the generation. Windows Graphics Foundation the next generation Windows of Microsoft "Longhorn (long horn)" is mounted is new graphic subsystem. There is 2 level of WGF1.0 and WGF2.0 in WGF. Speaking simply, as for WGF1.0 Longhorn edition DirectX 9, as for WGF2.0 in the past DirectX 10 or it is graphic subsystem of the next generation who was called Shader 4.0.
With WGF2.0, as for from Shader which was seen from API side it becomes flexible, the standardization conversion of Shader advances API. This is visible in API which is conscious of Unified-Shader. Actually, the GPU industry authorized personnel that it is it is WGF2.0 generation =Unified-Shader. It is said that also Destination of S3 is Unified-Shader. ATI with R5xx, means to anticipate this trend.
But as for NVIDIA as for WGF2.0 it points out that it is not something which requires Unified-Shader.
"The fact that Microsoft makes is the software. Therefore, WGF2.0 is not the case that it shows Unified-Shader architecture. The fact that WGF2.0 means is Unified API (standardized API). Because of that, it can mount hard side, with Unified-Shader and with former Shader and with whichever. Whether or not as for me, the next generation GPU Unified-Shader you do not say. You must make Unified-Shader, it means ", without being the case, that Kirk of NVIDIA says.
The next generation GPU of NVIDIA becomes "G80 (NV50)" with. You do not know yet from speech manner Kirk whether G80 Unified-Shader whether independent formation Shader. When it is independent formation Shader, the architecture opposition both means to continue even in the WGF2.0 generation. By the way, when it corresponds to WGF2.0 with independent formation Shader architecture of conventional type, the biggest change in the hardware component side becomes the loading Geometry Shader. However, perhaps this it can correspond by the fact that Vertex Shader and Geometry Shader are changed.
□-related article
< June 22nd > < Foreign country > High end GPU "G70" appears from NVIDIA
Http: //pc.watch.impress.co.jp/docs/2005/0622/kaigai193.htm
< April 28th > < Foreign country > Scheduler and Unified-Shader which grasp the key of WGF2.0 generation GPU
Http: //pc.watch.impress.co.jp/docs/2005/0428/kaigai175.htm
□back number
(2005 July 8th)
[ Hiroshige Reported by Goto (Hiroshige Goto)]
seahawk
2005-07-08, 17:11:41
Der Nachfolger von G70 wird wohl auch 6 quads haben. Was genau soll daran so unmoeglich sein verstehe ich immer noch nicht.
Ich habe aber auch schon was von der Idee einer 8 Quadversion gehört. In anbetracht der Tatsache, das der 90nm Prozess bei TSMC momentan auf hohe Taktfrequenzen eher weniger gut reagiert, könnte dies eine Überlegung sein.
R520 620/1200
R580 640/1250
Sample
Mr. Lolman
2005-07-08, 17:48:05
32 Pipes?
32 Pipes?
Wovon träumst du eigentlich immer noch das die ATI 2mal schneller als die 7800GTX ist und dazu noch besseres AF hat?
32 Pipes?
unfied shaders =24 \\ 16/6=24
unfied shaders =24 \\ 16/6=24
16/8=24
Wovon träumst du eigentlich immer noch das die ATI 2mal schneller als die 7800GTX ist und dazu noch besseres AF hat?
R520 @ 3D Mark 05= 10K
Quasar
2005-07-08, 18:05:02
R520 @ 3D Mark 05= 10K
R520 @ Splinter Cell CT = x*G70
x = ?
-error-
2005-07-08, 18:24:50
Wird die R580 eigendlich WGF2.0 komform sein?
dildo4u
2005-07-08, 18:26:40
Wird die R580 eigendlich WGF2.0 komform sein?
Unwarscheinlich ist doch nur ein R520 refresh.
R520 @ Splinter Cell CT = x*G70
x = ?
1280x1024 = 65 frames
1280x1024 = 65 frames
Are you sure?
Are you sure?
no i am gay sorry
R520 @ 3D Mark 05= 10K
hoffen wirs,nach dem der g70 so enttäuscht hat
hoffen wirs,nach dem der g70 so enttäuscht hat
around 11k on 3Dmark, you gonna love it, R520 is nothing you ever seen!
-error-
2005-07-08, 18:59:39
Unwarscheinlich ist doch nur ein R520 refresh.
Macht es denn Sinn auf WGF 2.0-Karten zu warten? Die Karte die ich mir kaufen würde sollte schon 1 Jahr hinlangen, aktuelle Games auf 1280x1024 bei vollen Details @ 4-6xAA bei AF zu spielen.
Eine 7800GTX müsste dazu ja in der Lage sein, nur gebe ich bestimmt nicht soviel Geld aus. Meine Preisklasse liegt bei max 250€, wenn die Karte ein Überflieger ist, dann vielleicht auch 300€.
around 11k on 3Dmark, you gonna love it, R520 is nothing you ever seen!
yeah baby :up:
r3ptil3
2005-07-08, 19:01:13
Was ist denn hier los?
Traut ihr euch nicht angemeldet hier was rein zu posten oder wie? :|
dildo4u
2005-07-08, 19:03:57
Macht es denn Sinn auf WGF 2.0-Karten zu warten? Die Karte die ich mir kaufen würde sollte schon 1 Jahr hinlangen, aktuelle Games auf 1280x1024 bei vollen Details @ 4-6xAA bei AF zu spielen.
Eine 7800GTX müsste dazu ja in der Lage sein, nur gebe ich bestimmt nicht soviel Geld aus. Meine Preisklasse liegt bei max 250€, wenn die Karte ein Überflieger ist, dann vielleicht auch 300€.
Kein plan bei der X800 hats ja ewig gedauert bis es eine bezahlbare nicht Kastrierte version gab (X800XL)
Godmode
2005-07-08, 19:04:54
1280x1024 = 65 frames
laut CB schaft die GTX in dieser Auflösung 83 FPS
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/13/#abschnitt_splinter_cell_chaos_theory
also 65 wären dann schon etwas wenig?
dildo4u
2005-07-08, 19:06:40
laut CB schaft die GTX in dieser Auflösung 83 FPS
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/13/#abschnitt_splinter_cell_chaos_theory
also 65 wären dann schon etwas wenig?
vieliecht meint er ja mit 4XAA 8XAF aber auch so funzt ja nicht mit HDR.
Godmode
2005-07-08, 19:07:58
vieliecht meint er ja mit 4XAA 8XAF aber auch so funzt ja nicht mit HDR.
Ok da schaft die GTX dann "nur" mehr 56 FPS
laut CB schaft die GTX in dieser Auflösung 83 FPS
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/13/#abschnitt_splinter_cell_chaos_theory
also 65 wären dann schon etwas wenig?
Well, full 16x AF, full ;) @6x AA
MSAA + HDR still doesn't work :(
Godmode
2005-07-08, 19:11:09
Well, full 16x AF, full ;) @6x AA
MSAA + HDR still doesn't work :(
full means? nicht Winkelabhängig?
full means? nicht Winkelabhängig?
Got'ya!
Godmode
2005-07-08, 19:13:41
Got'ya!
Also das wäre mehr als erfreulich, aber das glaube ich dir erst wenn ich es sehe! Schneller als GTX und besseres AF, das wär doch mal was ;D
Horimoto
2005-07-08, 19:14:20
full means? nicht Winkelabhängig?
vermutlich..............
wenn das stimmen sollte, und der R520 24US haben sollte, wäre das wohl meine nächste Karte.....hoffentlich stimmt der Preis :)
Godmode
2005-07-08, 19:18:08
vermutlich..............
wenn das stimmen sollte, und der R520 24US haben sollte, wäre das wohl meine nächste Karte.....hoffentlich stimmt der Preis :)
der Preis wird normal Highend sein, also 500-600 Euro!
Horimoto
2005-07-08, 19:22:58
der Preis wird normal Highend sein, also 500-600 Euro!
naja. Die 6800U hat am Anfang deutlich mehr gekostet als eine 7800GTX jetzt. Sie ist kaum ne Woche alt, und schon für 500€ zu haben. Sollte das auch beim r520 eintreffen, und er nciht über 550€ kosten, und für AGP erscheinen sollte, wäre es meine nächste Karte. Aber ich zweifle etwas an den benches muss ich sagen. Wenn ich ein Bild vom R520 sehen könnte, könnte ich vielelicht glauben ^^
Exxtreme
2005-07-08, 19:24:24
Got'ya!
Das wäre sehr erfreulich. =) Endlich WoW ohne Matsch. =)
Quasar
2005-07-08, 19:27:02
Das wäre sehr erfreulich. =) Endlich WoW ohne Matsch. =)
Hoffen wir 's Beste. Ehrlich gesagt, glaube ich aber nicht daran.
http://pc.watch.impress.co.jp/docs/2005/0708/kaigai196.htm
NV46=G72 NV49= G71
R520 = C1 likeness
Demirug
2005-07-08, 19:30:45
Hoffen wir 's Beste. Ehrlich gesagt, glaube ich aber nicht daran.
Ich auch nicht. Ordentliches AF macht die Balken kürzer bringt im Gegenzug in den Reviews aber nichts.
Tomcat70
2005-07-08, 19:32:15
schön langsam kristallisiert sich ja doch ein relativ "neuartiges" design für den r520 heraus, wenn man den letzten spekus (hier als auch auf beyond3d) trauen kann. wär mal eine nette überraschung.
Quasar
2005-07-08, 19:33:31
Was kristallisiert sich denn heraus? Ich habe bisher nur die immer weiter verbreitete und verballhornte Aussage dieses Marketingmenschen gesehen, der sagte, man solle sich auf eine Überraschung gefaßt machen.
Klär' mich bitte auf!
Winter[Raven]
2005-07-08, 19:35:49
Jungs, euch kann man ja leicht verarschen, rät mal wer der gast war mit SC: TC und Full AF und R520 you never sow.
Wollte euch nur mal vorführen das es sinnloses Zeug ist das die gäste hier posten wollen...
Exxtreme
2005-07-08, 19:37:10
schön langsam kristallisiert sich ja doch ein relativ "neuartiges" design für den r520 heraus, wenn man den letzten spekus (hier als auch auf beyond3d) trauen kann. wär mal eine nette überraschung.
Schön wäre es. ATi ist sowas durchaus zuzutrauen. Die waren eigentlich schon immer recht mutig auch wenn sie damit öfter auf die Fresse geflogen sind.
Godmode
2005-07-08, 19:39:03
']Jungs, euch kann man ja leicht verarschen, rät mal wer der gast war mit SC: TC und Full AF und R520 you never sow.
Wollte euch nur mal vorführen das es sinnloses Zeug ist das die gäste hier posten wollen...
Solange du es nicht wiederlegen kannst, weis niemand ob es stimmt oder nicht stimmt. Ok, du könntest Leo fragen mit welcher IP dieser Gast gepostet hat und man könnte dann diese IP mit IPs von Leuten vergleichen, die eher ATI zugeneingt sind.
Tomcat70
2005-07-08, 19:39:21
Was kristallisiert sich denn heraus? Ich habe bisher nur die immer weiter verbreitete und verballhornte Aussage dieses Marketingmenschen gesehen, der sagte, man solle sich auf eine Überraschung gefaßt machen.
Klär' mich bitte auf!
les halt mal was z.b. Jawed so schreibt auf beyond3d.
reunion
2005-07-08, 19:40:41
Solange du es nicht wiederlegen kannst, weis niemand ob es stimmt oder nicht stimmt. Ok, du könntest Leo fragen mit welcher IP dieser Gast gepostet hat und man könnte dann diese IP mit IPs von Leuten vergleichen, die eher ATI zugeneingt sind.
Unabhängig davon, wer es war, war dies bestenfalls Wunschdenken IMHO.
Winter[Raven]
2005-07-08, 19:42:56
Jungs mit SC: TC, Full AF und Never seen, war ICH! *gg*
Exxtreme
2005-07-08, 19:44:16
620/1200
Clockrate?
reunion
2005-07-08, 19:44:45
620/1200
Realistisch, allerdings knapp zu wenig, um G70 in punkto Füllrate zu schlagen.
reunion
2005-07-08, 19:45:05
']Jungs mit SC: TC, Full AF und Never seen, war ICH! *gg*
Aber das davor nicht. ;)
Quasar
2005-07-08, 19:45:29
Ja was schreibt er denn so interessantes/relevantes? Bis auf "16 fragment pipelines and 16 texturing pipelines" stand da nichts sensationelles in den Suchergebnissen.
Wobei - 16 Texturing Pipelines und 16 Fragment Pipelines ja schon die letzte Generation hatte.
Quasar
2005-07-08, 19:46:36
620/1200
700/1400
me > you :|
One of the most admirable people exude something about R520, why you bother to believe?
http://pc.watch.impress.co.jp/docs/2005/0708/kaigai196.htm
Japen's "pc watch" is the most reliable source.
700/1400
me > you :|
no, what AIB get is 620(core)/1200(mem)
Tomcat70
2005-07-08, 19:51:04
']Jungs mit SC: TC, Full AF und Never seen, war ICH! *gg*
durchs 2xmal posten wirds auch nicht interessanter...........
Quasar
2005-07-08, 19:59:53
One of the most admirable people exude something about R520, why you bother to believe?
http://pc.watch.impress.co.jp/docs/2005/0708/kaigai196.htm
Japen's "pc watch" is the most reliable source.
How can one believe something which is incomprehensible?
Tomcat70
2005-07-08, 20:06:12
One of the most admirable people exude something about R520, why you bother to believe?
http://pc.watch.impress.co.jp/docs/2005/0708/kaigai196.htm
Japen's "pc watch" is the most reliable source.
ich kann da nix lesen :D
um was gehts konkret ausser der grafik?
deekey777
2005-07-08, 20:09:10
ich kann da nix lesen :D
um was gehts konkret ausser der grafik?
Blättere ein paar Seiten zurück, denn es wurde schon mal gepostet - inkl. einer Übersetzung.
translation(altavista)
http://pc.watch.impress.co.jp/docs/2005/0708/kaigai196.htm
The next generation GPU of NVIDIA and ATI Technologies
NVIDIA and ATI Technologies, 2 large GPU vendors began crash again in the next generation GPU.
GeForce 7800 GTX (G70) with NVIDIA which precedes is chased, also ATI has prepared the next generation GPU "R520". NVIDIA following to G70, "G71 (old NV49)" for mid range, main stream & "G72 (old NV46)" for the value is the possibility that it keeps throwing gradually. It is said that also ATI after R520, has prepared "RV530" for mid range and main stream & "RV515" for the value. Both corporations, with PC graphics collide with full line-up.
ATI&NVIDIA Desktop GPU
Presumption road map
As for PDF editionthis
In addition, with the game console, NVIDIA it is decended of G70 in PLAYSTATION 3 ATI as R520 the custom GPU which is called the same system (R500) vis-a-vis offering in Xbox 360, "RSX (Reality Synthesizer)" it places. The fight which GPU industry 2 minutes is done again is starting.
The latest point is that the opposition both is an architecture aspect. NVIDIA and ATI collide with the respective be opposed architecture and approach. NVIDIA for the time being goes until recently on the developmental strengthening route of architecture vis-a-vis taking the original architecture where ATI reforms the structure of GPU from root. NVIDIA chose the 110nm process of no option properly in G70 ATI with R520 vis-a-vis applying the 90nm process of the point.
In other words, this time ATI "reformation but, the key" route, NVIDIA "reliable but it confronts each other on the route whose is little". It means at the beginning of DirectX 9 generation GPU, ATI to choose, to adopt and to change RADEON 9700 (R300) /9800 (R350) with reliable architecture + maturity process (150nm) NVIDIA GeForce FX 5800 (NV30) with reformation architecture + advanced process (130nm) standpoint to insert.
This time, ATI architecture process (= operational frequency) leap to be large as for possibility of latent performance rise is higher, but that much risk in efficiency and the production aspect is large. As for NVIDIA, GeForce 6800 (NV40) from architecture and process leap are small, efficiency rise the power industry element (bigger die/di size) is strong, but risk is that much little.
The last time, in R300/350 opposite NV30, NVIDIA which shoulders risk fell largely. This time you do not know yet it becomes some result. If you say to principle, the new architecture of ATI works effectively, when production stands up proper with new process, the possibility ATI extending becomes high. On the one hand, when the architecture of ATI is NV30, the way it does not work efficiently, when passes even with the production with new process and is, the possibility NVIDIA riding in spirit with G7x system becomes high. ATI is the high risk high return.
- ATI of Unified-Shader architecture
As for G70 of NVIDIA, as the originally code name "NV47" even from the fact that is understood, as for the actual condition "NV40 reforming" is. As it develops the based architecture of NV40, 50% increases the quantity of Pixel Shader parallelism inside Shader was raised. Expansion other than Pixel Shader remains relatively properly.
NVIDIA, with NV30 it is sharing the execution resource of Shader, does complicated control, architecture of new idea was adopted. This approach not doing well now has recognized NVIDIA itself. Because of that, as for NVIDIA, you reset to a more proper constitution of ATI type from NV40. With NV40 there is Vertex Shader and Pixel Shader which, become independent controls individual Shader independently. With NV40, efficiency was extended with the power industry that it expands the quantity of Shader and the execution resource inside Shader. NVIDIA having G70, in high end GPU 2005, has shown the fact that it judges that this route is effective.
Vis-a-vis that, ATI does architecture reform with this timing, furthermore, also the tip of that continues radical architecture reform. "R5xx about the same as the time of R300 probably becomes the reform which has impact. But, (the following) R6xx furthermore the reform which is fundamental probably becomes ", that, David E. of ATI Orton (デビッド E オートン you talk president and CEO.
ATI, has already revealed the fact that Unified-Shader architecture is adopted for Xbox 360 GPU. With Unified-Shader, there is no distinction such as Vertex Shader and Pixel Shader, Unified-Shader array of the architecture which was standardized it becomes. With Xbox 360 GPU, "the sequencer (Sequencer)" does the control of 48 Unified-Shader groups. It differs from former GPU architecture completely, it is radical architecture. R520 is included, the future new generation GPU of ATI, sees that Unified-Shader constitution is succeeded.
- The opinion for Unified-Shader which divides
Whether or not as for difference of the directivity latest both, Unified-Shader type constitution validity there is the judgement. As for ATI that Unified-Shader rises efficiency, it judged, when it is Unified-Shader, it thought NVIDIA that efficiency deteriorates. The group of NVIDIA authorized personnel, have recognized the fact that it is opposite to Unified-Shader as a medium long-term technical trend. But, with current phase, as for Unified-Shader it seems that it judges that it is not suitable.
ATI thinks that it becomes the key where the pliability of Unified-Shader increases the efficiency of GPU. With Unified-Shader type architecture, various tasks can be distributed freely in each Shader unlike mounting which is locked to Vertex Shader and Pixel Shader.
Robert Feldstein of ATI (ATI Technologies and Vice President - Engineering)
"You must process, when the apex increases, the sequencer distributes many apex processing to the Shader pipe. When it does, the number of apex operations increases automatically ", that Robert Feldstein of ATI (ATI Technologies and Vice President - Engineering) you explain. In other words, if apex processing is many, it cuts many of Unified-Shader in apex processing, if pixel processing is many, it is possible to allot many to pixel processing conversely. It is the case that load balancing between Shader becomes possible.
According to ATI, when behavior of actual application is analyzed, you say that Unified-Shader efficiently can make Shader work. "There are no times when, many apex processing many pixel processing is really done simultaneously. That (during apex processing and pixel processing), because it goes back and forth "," because of that, naturally, it reaches the point where it is possessed in either processing ", that Andrew B. Thompson of ATI (Director, Advanced Technology Marketing and ATI Research) you explain.
David B. of NVIDIA Kirk (デビッド B kirk) person (Chief Scientist)
Vis-a-vis that, NVIDIA throws the opinion which is opposed from front. But "as for the people ' apex processing when being, Shader everything 32 can be used in apex processing. Or, but pixel processing when being, everything can be used in pixel. Perhaps you call this and that ' you think. But, such a thing does not happen under any condition. With the game, there is both processing of apex and pixel always. And, in the game program, expectation can do the quantity of geometry processing and the quantity of fragment processing, rather. We think that already good balance is obtained. Dynamically the necessity リバランス to do it is not ", that David B. Kirk (the デビッド B kirk) the person (Chief Scientist) it points out.
In addition, as for NVIDIA as for Unified-Shader, as for operating efficiently it points out even in the control aspect that it is difficult.
"It is very difficult with architecture of Unified-Shader type to make high speed. As NV30 so been, when control is made complicated, because it becomes very difficult "to increase efficiency, (Kirk)
Feldstein of ATI refutes as follows vis-a-vis that.
"Unified-Shader do management by your. Are not the software base and in the hardware base, are very efficient mechanism. Therefore, (コンピƒ…テーション cycle does not make at all wasteful ",
Concerning the performance of Unified-Shader, judgement is not possible that really the hardware does not come out.
Kirk of NVIDIA points out also the deterioration of efficiency of the component side.
When "Vertex Shader and Pixel Shader are compared, Vertex Shader is much smaller than Pixel Shader. But, with Unified-Shader, all Shader engines, must have the function of pixel shading. When it does, when doing apex shading, the part for pixel shading becomes wasteful. It is difficult "to do efficiently,
ATI with Unified-Shader did mounting which maintains Shader hard itself simply. Vis-a-vis that, the NV40/G70 architecture of present NVIDIA has made Pixel Shader very complicated. With G70, vectoring operational unit 2 (as for one side texture processing unit and the operational resource) is joint ownership inside Pixel Shader, scalar operational unit and the like belongs respectively. When just this it is complicated, unified conversion is seriously so.
- As for the WGF2.0 generation how becoming?
GPU to 2006 "Windows Graphics Foundation (WGF) 2.0" rushes to the generation. Windows Graphics Foundation the next generation Windows of Microsoft "Longhorn (long horn)" is mounted is new graphic subsystem. There is 2 level of WGF1.0 and WGF2.0 in WGF. Speaking simply, as for WGF1.0 Longhorn edition DirectX 9, as for WGF2.0 in the past DirectX 10 or it is graphic subsystem of the next generation who was called Shader 4.0.
With WGF2.0, as for from Shader which was seen from API side it becomes flexible, the standardization conversion of Shader advances API. This is visible in API which is conscious of Unified-Shader. Actually, the GPU industry authorized personnel that it is it is WGF2.0 generation =Unified-Shader. It is said that also Destination of S3 is Unified-Shader. ATI with R5xx, means to anticipate this trend.
But as for NVIDIA as for WGF2.0 it points out that it is not something which requires Unified-Shader.
"The fact that Microsoft makes is the software. Therefore, WGF2.0 is not the case that it shows Unified-Shader architecture. The fact that WGF2.0 means is Unified API (standardized API). Because of that, it can mount hard side, with Unified-Shader and with former Shader and with whichever. Whether or not as for me, the next generation GPU Unified-Shader you do not say. You must make Unified-Shader, it means ", without being the case, that Kirk of NVIDIA says.
The next generation GPU of NVIDIA becomes "G80 (NV50)" with. You do not know yet from speech manner Kirk whether G80 Unified-Shader whether independent formation Shader. When it is independent formation Shader, the architecture opposition both means to continue even in the WGF2.0 generation. By the way, when it corresponds to WGF2.0 with independent formation Shader architecture of conventional type, the biggest change in the hardware component side becomes the loading Geometry Shader. However, perhaps this it can correspond by the fact that Vertex Shader and Geometry Shader are changed.
□-related article
< June 22nd > < Foreign country > High end GPU "G70" appears from NVIDIA
Http: //pc.watch.impress.co.jp/docs/2005/0622/kaigai193.htm
< April 28th > < Foreign country > Scheduler and Unified-Shader which grasp the key of WGF2.0 generation GPU
Http: //pc.watch.impress.co.jp/docs/2005/0428/kaigai175.htm
□back number
(2005 July 8th)
[ Hiroshige Reported by Goto (Hiroshige Goto)]
Quasar
2005-07-08, 20:21:03
Well, over the understandability of this alta-la-vista translation i'd gladly prefer the original Kanli-signs - at least they do not make my head ring and bear the same understandability.
Tomcat70
2005-07-08, 20:31:53
Well, over the understandability of this alta-la-vista translation i'd gladly prefer the original Kanli-signs - at least they do not make my head ring and bear the same understandability.
lol
so wie ich das versteh gehts darin eben um irgendwelche "neuartigen" shader beim r520, in irgendeiner (keine ahnung welcher) anlehnung an das xenos design.
Quasar
2005-07-08, 20:52:16
lol
so wie ich das versteh gehts darin eben um irgendwelche "neuartigen" shader beim r520, in irgendeiner (keine ahnung welcher) anlehnung an das xenos design.
Ja, sowas könnte man daraus entnehmen. Allerdings finde ich das ganze durch die Übersetzungsmaschine dermaßen wirr, daß ich mich vorerst lieber auf verständliche Quellen freue.
Tomcat70
2005-07-08, 21:31:22
irgendwie auch interessant das der ATI-aktienkurs seit 2 tagen relativ stark am steigen ist......
welche insider da wohl wieder am werk sind :D
könnte aber auch gar nichts spezielles bedeuten und möglicherweise eine rein charttechnische entwicklung sein.
BodyLove
2005-07-08, 21:40:47
oder auch nur ne speku.;)^^
seahawk
2005-07-08, 22:11:21
irgendwie auch interessant das der ATI-aktienkurs seit 2 tagen relativ stark am steigen ist......
welche insider da wohl wieder am werk sind :D
könnte aber auch gar nichts spezielles bedeuten und möglicherweise eine rein charttechnische entwicklung sein.
Nicht unerwartet, aber unabhängig vom R520.
Winter[Raven]
2005-07-08, 22:19:13
irgendwie auch interessant das der ATI-aktienkurs seit 2 tagen relativ stark am steigen ist......
welche insider da wohl wieder am werk sind :D
könnte aber auch gar nichts spezielles bedeuten und möglicherweise eine rein charttechnische entwicklung sein.
Ja genauso "Stark" wie die vor Kurzen abgesoffen sind. Ich würde jedenfalls nicht in ATYT Akrien investieren, dafür ist mir ATI zu Instabil.
TrigPe
2005-07-08, 23:08:16
']Ja genauso "Stark" wie die vor Kurzen abgesoffen sind. Ich würde jedenfalls nicht in ATYT Akrien investieren, dafür ist mir ATI zu Instabil.
Im Moment lohnt es sich allerdings zu spekulieren. Hab grad mal Lineal angelegt. Ich sehe den Kurs bei 12.50 in den nächsten Tagen. Danach gehts aber wieder bergab.(noch keine Trendwende)
MfG
Edit: Mist entfernt ;)
Winter[Raven]
2005-07-08, 23:16:32
Im Moment lohnt es sich allerdings zu spekulieren. Hab grad mal Lineal angelegt. Ich sehe den Kurs bei 12.50 in den nächsten Tagen. Danach gehts aber wieder bergab.(noch keine Trendwende)
PS
werd morgen vormittag mal zuschlagen und sehen was passiert :D
MfG
Tja verspekuliert hab ich mich mit ATYT schon mal, deswegen lass ich die finger davon... :frown:
ich warte bis NVidia mit ihrer Aktie über 30 geht, dann heißt es verlaufen was man damals für 9.80 bekommen hat *gg* ;D
TrigPe
2005-07-08, 23:23:50
']Tja verspekuliert hab ich mich mit ATYT schon mal, deswegen lass ich die finger davon... :frown:
ich warte bis NVidia mit ihrer Aktie über 30 geht, dann heißt es verlaufen was man damals für 9.80 bekommen hat *gg* ;D
OT
Ich sag nur EM-TV. :( Seitdem setze ich automatische Verkaufspreise. :)
Ausserdem hab ich auf 75% Fonds und nur 25% Aktien umgestellt. Auf den Mix kommts an.
MfG
Edit
Edit2: Nvidia würd ich in der nächsten Zeit verkaufen. Die sind im Moment in einer Seitwärtsbewegung. Könnte auf eine Trendumkehr hindeuten. Falls sie auf 21.50 runtergehn, hau sie raus.
Tomcat70
2005-07-09, 00:09:31
Ich sehe den Kurs bei 12.50 in den nächsten Tagen.
ist doch schon auf 12.93, oder meintest du nicht us$?
TrigPe
2005-07-09, 00:13:59
ist doch schon auf 12.93, oder meintest du nicht us$?
meinte Euro
MfG
Tomcat70
2005-07-09, 00:15:22
']Ich würde jedenfalls nicht in ATYT Akrien investieren
das war mir irgendwie klar ^^
jedenfalls kaufen momentan gewisse leute im grösseren stil, dir würd ich ati-aktien ohnehin nie empfehlen :D
ganz wertfrei gesagt, ich wollte warten bis sie unter 10us$ ist und dann einsteigen, aber das hab ich ja wohl nun mal verpasst ;) vielleicht kommt sie ja nochmal vor dem r520 da runter..........
Ailuros
2005-07-09, 02:42:30
Huh? Dachte Unified Shader in Hardware sind nicht mehr vorgeschrieben sondern 'nur' noch Treibersache?
Stimmt schon ich hab auch nicht das Gegenteil behauptet.
Mit den richtigen Einstellungen kann man auch einen G70 in die Knie zwingen. :) Imho kann man aber eigentlich davon ausgehen, dass der Großteil der Käufer eines G70 einen entsprechenden Unterbau haben, sei es durch Übertakten oder 'Original'.
Och geht theoretisch mit jeder Platform.
Bei den Bildschirmen könntest du recht haben, allerdings eher im TFT Bereich, da sind selbst 16x12 eher Mangelware. Bei CRTs sieht es anders aus. Da bekommt man zwar nur gebrauchte trotzdem wirklich sehr gute 21"+ Monitore schon für relativ wenig Geld aber selbst die können >16x12 mit immer noch guten Hz Zahlen fahren.
Ich hab nen 21" CRT der bis auf 2048*1536*32@75Hz faehrt. Erstens gehoere ich zu den letzten der Mohikaner und zweitens sind es bei >1600 keine "wahren" Aufloesungen mehr, sondern eine Art "oversampling", da kann ich praktisch meistens auch gleich AA abstellen ;)
Der Nachfolger vom G70 ist noch in weiter Ferne. Je nachdem wann die mit WGF2.0 aus dem Kreuz kommen, dauert es sowieso noch mindestens 1 Jahr, eher länger und erst dann lohnt es sich darüber einen Kopf zu machen
You better watch out, you better not cry, you better not pout I'm telling you why.... :D
Viel interessanter als der Nachfolger vom G70 sind die kleineren Karten die anstehen.
Tatsaechlich.
Ailuros
2005-07-09, 03:02:51
It is said that also ATI after R520, has prepared "RV530" for mid range and main stream & "RV515" for the value. Both corporations, with PC graphics collide with full line-up.
RV515/530 =! R515/530.
In addition, with the game console, NVIDIA it is decended of G70 in PLAYSTATION 3 ATI as R520 the custom GPU which is called the same system (R500) vis-a-vis offering in Xbox 360, "RSX (Reality Synthesizer)" it places. The fight which GPU industry 2 minutes is done again is starting.
Xenos =! R520.
ATI, has already revealed the fact that Unified-Shader architecture is adopted for Xbox 360 GPU. With Unified-Shader, there is no distinction such as Vertex Shader and Pixel Shader, Unified-Shader array of the architecture which was standardized it becomes. With Xbox 360 GPU, "the sequencer (Sequencer)" does the control of 48 Unified-Shader groups. It differs from former GPU architecture completely, it is radical architecture. R520 is included, the future new generation GPU of ATI, sees that Unified-Shader constitution is succeeded.
I don't know which exactly sources they've been following to come to that conclusion, but someone obviously hasn't been talking to ATI officials about this matter.
GPU to 2006 "Windows Graphics Foundation (WGF) 2.0" rushes to the generation. Windows Graphics Foundation the next generation Windows of Microsoft "Longhorn (long horn)" is mounted is new graphic subsystem. There is 2 level of WGF1.0 and WGF2.0 in WGF. Speaking simply, as for WGF1.0 Longhorn edition DirectX 9, as for WGF2.0 in the past DirectX 10 or it is graphic subsystem of the next generation who was called Shader 4.0.
It's being referred to as Shaders from what I can tell up to now.
The next generation GPU of NVIDIA becomes "G80 (NV50)" with. You do not know yet from speech manner Kirk whether G80 Unified-Shader whether independent formation Shader. When it is independent formation Shader, the architecture opposition both means to continue even in the WGF2.0 generation. By the way, when it corresponds to WGF2.0 with independent formation Shader architecture of conventional type, the biggest change in the hardware component side becomes the loading Geometry Shader. However, perhaps this it can correspond by the fact that Vertex Shader and Geometry Shader are changed.
NVIDIA officials are up to now obviously referring to only currently announced architectures including RSX/PS3 and G70/PC. Those comments should not be counted or transposed for future architectures, since there's no real viable information yet available that NVIDIA might have unified shader architectures for WGF2.0 or not.
-------------------------------------------------------
Bitte nicht jedes Maerchen von jedem Gast glauben ;)
Ailuros
2005-07-09, 03:05:42
']Ja genauso "Stark" wie die vor Kurzen abgesoffen sind. Ich würde jedenfalls nicht in ATYT Akrien investieren, dafür ist mir ATI zu Instabil.
Wenn es um Aktien geht ist das Risiko genauso gleich wie wenn man in NV oder ATI Aktien investiert. Von dem abgesehen ist es nie unbedingt eine schlechte Idee in Aktien zu investieren wenn sie zu einem unnatuerlichen tiefen Preis fallen.
Ailuros
2005-07-09, 03:08:39
700/1400
me > you :|
"you" liegt aber naeher an der Realitaet als Du....:P
"you" liegt aber naeher an der Realitaet als Du....:P
Only 620/1200 for sure
Sample speed is excellent....
Quasar
2005-07-09, 09:22:23
"you" liegt aber naeher an der Realitaet als Du....:P
Ich weiß, trotzdem nützt es niemandem, wenn hier einfach nur Zahlen ohne Beleg in den Raum geworfen werden. Das wollte ich damit deutlich machen.
Sunrise
2005-07-09, 16:41:31
Ich weiß, trotzdem nützt es niemandem, wenn hier einfach nur Zahlen ohne Beleg in den Raum geworfen werden. Das wollte ich damit deutlich machen.
Zugegeben Quasar, mich stört es auch jedesmal, wenn ich keine Belege oder glaubwürdig und/oder nachvollziehbare "Hinweise" zu diversen angesprochenen Daten geliefert bekomme. Besonders dann, wenn diverse Daten schon als Fakten angenommen werden.
Allgemein:
Das Problem, speziell bei dieser Art der Spekulation ist: Wie will man denn zu diesem Zeitpunkt überhaupt Belege zu den Zahlen liefern ? Das wäre, als würde man jemanden fragen, ob er an Gott glaube und er antwortet: "Nein, da ich Gott nicht sehen kann". Man sollte generell nur das lesen, was einem persönlich als wahrscheinlich erscheint, nicht das, was andere durch die eigene Interpretation als wahrscheinlich erachten.
Wenn ich dir jetzt sage, dass aktuell diverse Quellen von <650MHz Kerntakt und 600MHz GDDR3 reden, ist dies auch nur rein eine Wahrscheinlichkeit, aber sicher keine endgültige und einzig richtige Wahrheit. Jeder, der sich für dieses Thema interessiert, sollte immer die Augen und Ohren offenhalten, der Rest ergibt sich von selbst. "Falsche" Informationen werden nicht richtiger, wenn sie permanent gepostet werden.
Nebenbei, wenn hier einige User ein Spiel mit uns spielen wollen (ich nenne bewusst keine Namen) schadet es eher, als es uns nützt. Denn das Schöne am Spekulieren ist, dass wir die Wahrheit eben nicht kennen, uns dieser aber durch gemeinsame Quellen und/oder Fachwissen annähern können. Nur rein die Daten von einem PDF abzulesen ist ebenso langweilig, wie diejenigen Reviews, die ebensolches praktizieren, ohne einen "wertvollen" Anteil an Fakten, Technik- und Anwendungs-betreffend, zu liefern.
spoiler
Based from same core/mem/shaders
R520= 95% G70
Quasar
2005-07-09, 17:32:13
Da war es wieder.... :|
R520:32US * 8FLOP * 620MHz = 158.720 GFLOPS 2XXM
7800GTX:(24PS * 16FLOP + 8VS * 8FLOP) * 430MHz = 192.640 GFLOPS 300M
Wizard
2005-07-09, 20:03:24
HI !
ATI will ja den Launch verschieben in den Spätsommer (wahrscheinlich im September) weil es Probleme mit Fertigung und dem Yield gibt. Aber bleibt der 26.07. wenigstens jetzt der Vorstellunsgtermin ?
Bye,
Wizard
zeckensack
2005-07-09, 20:15:43
Sample speed is excellent....And that means what exactly? Sample quality sucks, but at least it's fast? :|
Demirug
2005-07-09, 20:19:04
HI !
ATI will ja den Launch verschieben in den Spätsommer (wahrscheinlich im September) weil es Probleme mit Fertigung und dem Yield gibt. Aber bleibt der 26.07. wenigstens jetzt der Vorstellunsgtermin ?
Bye,
Wizard
Nachdem was nVidia gemacht hat würde ATI in der Luft zerrissen werden wenn sie einen Paperlaunch hinlegen.
TheGood
2005-07-09, 20:44:11
Nachdem was nVidia gemacht hat würde ATI in der Luft zerrissen werden wenn sie einen Paperlaunch hinlegen.
ne denk eich ned, wenn sie denn ca. 1 monate später liefern ist das imho ok.
deLuxX`
2005-07-09, 20:51:36
Deiner Meinung nach vielleicht. Aber nV's Marketingabteilung wird sie mit allem Möglichen attackieren.
-deLuxX`
Winter[Raven]
2005-07-09, 21:08:41
Was Nvidia sicherlich nützen wird ist die "Verspätung" ;) "Seit ~Nov.2004 brachte ATI zustande..."
And that means what exactly? Sample quality sucks, but at least it's fast? :|
cuz R520 24 shaders (1 Alu per shaders )= G70 24 shaders (2 ALU per shaders)
R520's efficiency is almost equal to G70's same number of shader composition.
Based from same Core/Mem/Shaders, It is known that R520 is 95% G70.
AFAIK,R520 's transistor counts is lower than G70's transistor counts.
R520 PS+VS= 32 ALU
NV40 PS=16 ALU X2
G70 PS= 24 ALU X2
mapel110
2005-07-10, 03:39:55
Wem gehen noch die Zahlenfetzen auf die Nerven?! ;(
Hat nicht R420 3 eventuell je nach zählweise sogar 4 ALUs pro pipe? *verwirrtbin*
DaveBaumann
Senior Member
--------------------------------------------------------------------------------
AFIAK, at the moment, ATI's SM3.0 part is not the same as the XBox and their SM4.0 part isn't either, but that will be closer to the XBox part.
_________________
Beyond3D
Goodbye Noodle
Ailuros
2005-07-10, 03:59:52
Only 620/1200 for sure
Sample speed is excellent....
Da die Prototypen im Maerz fuer die ISVs <600MHz lagen, ist diese These glaubbar. Andere verrueckte Thesen die momentan von 750MHz murmeln liegen im Raum der feuchten Traeume.
Ailuros
2005-07-10, 04:04:54
R520 PS+VS= 32 ALU
NV40 PS=16 ALU X2
G70 PS= 24 ALU X2
ROFL :D Also dieses und vorige Rechengewarkel kann einem geschenkt bleiben....
Schnell nochmal zurueck zu den relevanten Artikeln ueber den genauen Aufbau von NV40/G70.
Dass der R520 bei weitem nicht so viele ALUs hat, ist natuerlich Nebensache.
Ailuros
2005-07-10, 04:10:06
Wem gehen noch die Zeilenfetzen auf die Nerven?! ;(
Hat nicht R420 3 eventuell je nach zählweise sogar 4 ALUs pro pipe? *verwirrtbin*
ALUs =! ALU OPs
***edit:
nur mal so nebenbei was die alberne Rechnerei betrifft....
7800GTX @ 430MHz
1 multiply-add (MADD) = 1 MUL + 1 ADD = 2 FP32 OPs/cycle
24 pixels/clock * 8 MADDs/clk = 192 MADDs/clk * .43 GHz = 82.56 GMADDs/sec = 165 GFLOPs /sec
(theoretical R520 @ 620MHz)
16 pixels/clock * 8 MADDs/clk = 128 MADDs/clk * .62 GHz = 79.36 GMADDs/sec = 159 GFLOPs/sec
Vorraussetzung aber ist in diesem Fall dass R520 auch tatsaechlich ueber 2 FP32/Takt faehig ist.
Ailuros
2005-07-10, 04:14:34
cuz R520 24 shaders (1 Alu per shaders )= G70 24 shaders (2 ALU per shaders)
R520's efficiency is almost equal to G70's same number of shader composition.
Based from same Core/Mem/Shaders, It is known that R520 is 95% G70.
AFAIK,R520 's transistor counts is lower than G70's transistor counts.
While it truly is 1 ALU unit per SIMD channel (ignoring amount of possible ALU OPs/cycle), the amount of SIMD channels is still at 16 or 4 quads in total.
Nachdem was nVidia gemacht hat würde ATI in der Luft zerrissen werden wenn sie einen Paperlaunch hinlegen.
was hat den nv gemacht,eine einzige karte auf dem markt,absolut nichts sagend
ne denk eich ned, wenn sie denn ca. 1 monate später liefern ist das imho ok.
ihr habt alles keine erfahrung was,es gab mal zeiten da kahm ati über ein halbes jahr nach nv und auch anders rum
das ist sowas von egal
R520 :32US * 8FLOP * 620MHz = 158.720 GFLOPS
7800GTX: (24PS * 16FLOP + 8VS * 8FLOP) * 430MHz = 192.640 GFLOPS
Demirug
2005-07-10, 08:06:38
was hat den nv gemacht,eine einzige karte auf dem markt,absolut nichts sagend
Bei der Menge von Leute die schon einen 7800 GTX ihr eigen nennen muß es mehr als eine Karte sein. Ich vermute aber mal du meinst das sie bisher nur das Topmodel der G7X Serie auf den Markt geworfen haben. Um diese Stratgie die IMHO auch ATI beibehalten wird ging es mir allerdings überhaupt nicht. Ich sprach von Verfügbarkeit am Launchtag. Daran wird sich ATI messen lassen müssen.
Bei der Menge von Leute die schon einen 7800 GTX ihr eigen nennen muß es mehr als eine Karte sein. Ich vermute aber mal du meinst das sie bisher nur das Topmodel der G7X Serie auf den Markt geworfen haben. Um diese Stratgie die IMHO auch ATI beibehalten wird ging es mir allerdings überhaupt nicht. Ich sprach von Verfügbarkeit am Launchtag. Daran wird sich ATI messen lassen müssen.
Genauso ist es. Vor allem weil jetzt auch die 7800GT kommen wird. Und jede Wette, dass auch diese sofort verfügbar ist. Die Preise für 6800U und 6800GT fallen dramatisch. Das lässt nur den Schluss zu, dass hier Ausverkauf betrieben wird.
Die 6800U kann Nvidia dann aus dem Programm nehmen.
Die 6800GT wird man noch beibehalten um ATI ordentlich Feuer unter dem Arsch zu machen und ich glaube das weiss ATI auch, sonst hätten sie nicht ihren Ausblick für das kommende Quartal so nach unten reduziert.
Das war schon eine starke Leistung von Nvidia und daran WIRD sich ATI messen lassen müssen und auch gemessen werden.
Ailuros
2005-07-10, 16:11:31
R520 :32US * 8FLOP * 620MHz = 158.720 GFLOPS
7800GTX: (24PS * 16FLOP + 8VS * 8FLOP) * 430MHz = 192.640 GFLOPS
YDKWTFYTA now decipher that.
dargo
2005-07-10, 16:17:36
Die Preise für 6800U und 6800GT fallen dramatisch. Das lässt nur den Schluss zu, dass hier Ausverkauf betrieben wird.
Wo bitte fallen die Preise denn dramatisch ?
Die einzigen Karten die deutlich billiger verkauft werden sind die AGP-Versionen. Die Preise der PCIe-Versionen sind relativ konstant.
Und es ist fraglich ob der G70 als AGP überhaupt kommen wird. Und wenn ja, wird es wahrscheinlich noch etwas dauern.
Vorraussetzung aber ist in diesem Fall dass R520 auch tatsaechlich ueber 2 FP32/Takt faehig ist.Was ich stark hoffe :)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.