Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
boxleitnerb
2010-01-14, 00:10:43
Jetzt bin ich extra wachgeblieben und kein Artikel auf b3d...bleh!
Btw...wenn ich auf b3d gehe und die Seite neu lade, verwürfelt er mir Artikel bunt durcheinander. Da ist einmal ein "latest article" von 2007, dann 1 Minute später von 2009...äh what?
N0Thing
2010-01-14, 00:47:43
Wenn es um irgendein NDA geht, daß nun nicht mehr gilt: Würde sich Nvidia nicht an einer anderen Zeitzone orientieren, als an der MEZ?
Von B3D ist nach den Aussagen von Rys heute wohl nichts zu erwarten, man spekuliert gerade über Montag.
I split it off to keep GF100 product speculation away from serious architecture discussion. I've just moved the stuff that hung off Chris's post to this new thread too. And if there's anything coming out tomorrow, it won't come from me
Gestrandet
2010-01-14, 01:01:21
Von B3D ist nach den Aussagen von Rys heute wohl nichts zu erwarten, man spekuliert gerade über Montag.
Großartig! Dann könnte nv sogar einen Tag vor dem geplanten Termin launchen - denn ursprünglich hieß es doch "Dienstag"! ;)
Tesseract
2010-01-14, 03:30:00
Großartig! Dann könnte nv sogar einen Tag vor dem geplanten Termin launchen - denn ursprünglich hieß es doch "Dienstag"! ;)
zwischen pünktlich und 6 tage zu früh ist alles möglich! :D
Ailuros
2010-01-14, 06:57:57
GT300 anyone? :rolleyes:
Ein L hilft sehr gut PHx und RT und ein L hilft sehr gut GP. Die Verkuerzungen kannst Du Dir ausdenken und auch die Zahlen nach den L's.
AnarchX
2010-01-14, 08:10:43
Nur 64 TMUs für GF100?
Fermi Fun Fact: Launch products will have less TMU's than GT200.
There are 16 LS units per cluster. A bilinear sample takes 4 loads so there are an equivalent of 4 TMUs per cluster and 64 TMUs per Chip.
I think you really can't compare it. Seems like NVIDIA introduced a much more flexible way of doing texture sampling in Fermi. Especially for anisotropic filtering there could be some possible optimizations if you go down to individual point rather than bilinear samples.
http://forum.beyond3d.com/showthread.php?t=56155&page=5
Ailuros
2010-01-14, 08:27:51
Nur 64 TMUs für GF100?
http://forum.beyond3d.com/showthread.php?t=56155&page=5
Wie schon gesagt auf B3D fuer G80 waren es 4 pixel/clock address & setup und 8 INT8 bilerps/clock. Es schwirrt schon seit einer Ewigkeit rum dass bei GF100 etwas aehnliches vorkommen koennte, nur halt ich es fuer ziemlich unwichtig.
4 INT8 bilerps/clock waeren verdammt merkwuerdig.
AnarchX
2010-01-14, 10:48:30
Wenn es wirklich 128 TFs sind, dann ist die Zahl der TAs nicht wirklich so relevant.
Die heute vorgestellte HD 5670 zeigt wieder, wie wichtig die Umsetzung der verfügbaren Rohleistung ist.
So erreicht die 5870 bei ~4,4x TMU/ALU/ROP und 2,4x Bandbreite gerade mal einen Faktor 3-3,24x bei der Spieleistung @ 1680x1050 mit 4x/8xAA und 16xAF (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5670/18/#abschnitt_performancerating_qualitaet).
Wenn da GF100 seine 4,7-fache Tex-, 3,8-fache ALU-Peak-/5,7-fache MADD-, 7-fache Z-Leistung und ~4-fache Bandbreite gegenüber einer GT 240 entsprechend umsetzen kann, dann sollte es nicht so schlecht aussehen.
Bei Tessellation wirkt Cypress auch etwas limitiert, gegenüber seinen kleinen Ablegern: http://www.pcgameshardware.de/aid,703007/Test-Radeon-HD-5670-Redwood-DirectX-11-fuer-unter-100-Euro/Grafikkarte/Test/?page=11
Wenn es wirklich 128 TFs sind, dann ist die Zahl der TAs nicht wirklich so relevant.
Die heute vorgestellte HD 5670 zeigt wieder, wie wichtig die Umsetzung der verfügbaren Rohleistung ist.
So erreicht die 5870 bei ~4,4x TMU/ALU/ROP und 2,4x Bandbreite gerade mal einen Faktor 3-3,24x bei der Spieleistung @ 1680x1050 mit 4x/8xAA und 16xAF (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5670/18/#abschnitt_performancerating_qualitaet).
Was wiederum wenn man die nur die ca 2,5 x Leistungsaufnahme bei 3d Spielen betrachtet gar nicht so übel ist.
Tarkin
2010-01-14, 12:06:07
http://www.digitimes.com/news/a20100114PD202.html
Nvidia is expected to see its share of the global discrete graphics chip market drop from 65% in 2009 to 60% or even lower due to strong competition from AMD, according to sources from graphics card makers.
Nvidia has refuted the claims saying it expects to see strong demand.
Although Nvidia plans to launch its 40nm Fermi-GF100 graphics chip in March 2010, mass shipments are unlikely to start until April, the sources noted. Nvidia responded saying its launch schedule remains unchanged.
On the other hand, AMD has already launched its DirectX 11-supporting 40nm ATI Radeon HD 5970, 5870, 5850 and 5750 GPUs and will launch HD 5670, 5570 and 5450 shortly. The company recently claimed to have shipped a total of two million HD 5800-series GPUs.
Dimon
2010-01-14, 12:06:17
Nö, das ist deine Behauptung und kein Fakt.
Eine Bewertung mit mehr als einem Kriterium kann unter verschiedenen Bewertungsgewichtungen verschiedene Resultate hervorbringen.
OT:
Geforce G210
http://www.pcgameshardware.de/aid,694172/Geforce-G210-Nvidias-erste-DirectX-101-Karte-mit-GT218-Chip-im-Test/Grafikkarte/Test/
Geforce GT220
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_zotac_geforce_gt_220/12/#abschnitt_performancerating_qualitaet
Geforce GT240
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gt_240/18/#abschnitt_performancerating_qualitaet
Sieh dir meine Behauptungen genauer an, vllt. fällt dir da was ein ....
Immer diese Gäste :|
Ailuros
2010-01-14, 12:32:35
http://www.digitimes.com/news/a20100114PD202.html
Nvidia is expected to see its share of the global discrete graphics chip market drop from 65% in 2009 to 60% or even lower due to strong competition from AMD, according to sources from graphics card makers.
Nvidia has refuted the claims saying it expects to see strong demand.
Although Nvidia plans to launch its 40nm Fermi-GF100 graphics chip in March 2010, mass shipments are unlikely to start until April, the sources noted. Nvidia responded saying its launch schedule remains unchanged.
On the other hand, AMD has already launched its DirectX 11-supporting 40nm ATI Radeon HD 5970, 5870, 5850 and 5750 GPUs and will launch HD 5670, 5570 and 5450 shortly. The company recently claimed to have shipped a total of two million HD 5800-series GPUs.
http://forum.beyond3d.com/showpost.php?p=1379925&postcount=138
Immer diese Gäste :|
Glaub mir es gibt schlimmeres ;) :P Und je naeher die Geschichte an den Launch rueckt desto schlimmer wird es auch werden.
Tarkin
2010-01-14, 12:37:21
http://forum.beyond3d.com/showpost.php?p=1379925&postcount=138
ja... von nagus - ziemlich zeitnah :wink:
deekey777
2010-01-14, 12:37:38
Nvidia Fermi Production and Availability (http://www.tomshardware.com/news/nvidia-fermi-gpu,9420.html)
Aha. Und ich dachte schon, der Fermi wäre schon in "Volume Production".
Hoppla, der Link führt ins Leere. ;(
Geforce G210
http://www.pcgameshardware.de/aid,69...fikkarte/Test/
"Der nicht primär für den Spiele-Einsatz konzipierte Chip mit einer Rechenleistung auf dem Niveau aktueller integrierter Grafikeinheiten, kann nur bedingt überzeugen."
Ah, du setzt mir einen Spieletest vor, für eine nicht Spielekarte.
Geforce GT220
http://www.computerbase.de/artikel/h...ting_qualitaetVielleicht willst du GT 220 mit 4670 vergleichen, es bleibt ungewiss.
Geforce GT240
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gt_240/18/#abschnitt_performancerating_qualitaet
Und sonst?
Wollen wir das Ding gegen was vergleichen?
Gegen die billigere 4670 oder die teurere 4770?
Sieh dir meine Behauptungen genauer an, vllt. fällt dir da was ein ....
Immer diese Gäste Sieh dir meinen zweiten Satz, den du zitert hast genauer an, vielleicht fällt dir was auf.
Als kleine Denkstützte noch, du hast als Kriterium nur ein einziges genannt, die Performance in ausgewählten Spielen unter 4xAA, kein AAA/TAA, 16xLowQuality AF.
Abgesehen von anderen Spielen gibt es noch andere Settings und vor allem völlig andere, ungenannte Kriterien.
Ist ok wenn du nur auf das genannte schaust, aber verallgemeiner das nicht.
Alle deine 3 Links haben gemeinsam, das du dich auf nichtmal ein Kriterium, die Leistung festlegst. Die Leistung unter verschiedenen Gesichtspunkten lässt du außer acht, sämtliche andere Kriterien neben der Leistung lässt du unter den Tisch fallen.
Am Besten ich wiederhole nochmal den Satz, den du zitiert hast:
"Eine Bewertung mit mehr als einem Kriterium kann unter verschiedenen Bewertungsgewichtungen verschiedene Resultate hervorbringen."
Dimon
2010-01-14, 13:08:04
"Vielleicht willst du GT 220 mit 4670 vergleichen, es bleibt ungewiss.
Die kostet sogar mehr wie die HD4670.... Also direkter konkurrent...
Und sonst?
Wollen wir das Ding gegen was vergleichen?
Gegen die billigere 4670 oder die teurere 4770?
na wie sind die Preise? Die GT240 ist als konkurrent gegen die HD4770 gesetzt...
Sieh dir meinen zweiten Satz, den du zitert hast genauer an, vielleicht fällt dir was auf.
Als kleine Denkstützte noch, du hast als Kriterium nur ein einziges genannt, die Performance in ausgewählten Spielen unter 4xAA, kein AAA/TAA, 16xLowQuality AF.
Du beachtest keine Preise und du beachtest die keine leistungsniveaus, wie ich schon sagte sind die Geforces den Radeons in Spieleleistung unterlegen, wenn du einen HTPC willst, dann hole dir ein low profile graka und gut ist, denn zurzeit bieten die Radeons einfach das bessere Preis/Leistungs verhältnis.... Vor allem aber im niedrigpreissegment...
Abgesehen von anderen Spielen gibt es noch andere Settings und vor allem völlig andere, ungenannte Kriterien.
Ist ok wenn du nur auf das genannte schaust, aber verallgemeiner das nicht
Dann nenn mir diese Settings ..
Alle deine 3 Links haben gemeinsam, das du dich auf nichtmal ein Kriterium, die Leistung festlegst. Die Leistung unter verschiedenen Gesichtspunkten lässt du außer acht, sämtliche andere Kriterien neben der Leistung lässt du unter den Tisch fallen.
Am Besten ich wiederhole nochmal den Satz, den du zitiert hast:
"Eine Bewertung mit mehr als einem Kriterium kann unter verschiedenen Bewertungsgewichtungen verschiedene Resultate hervorbringen."
Was lasse ich außer acht? Das Nvidia mit Cuda aufwartet? Das ATI weniger strom braucht? Das beide Videos Enkodieren und Dekodieren können? Das beide Folding@home unterstützen? Was fehlt den deiner meinung nach?
Ansonsten sry für OT
Ailuros
2010-01-14, 13:27:46
Ich war gerade dabei eine Bremse fuer's OT zu signalisieren, aber beim "sry" wurde ich schon wieder weich ;)
Und jetzt bitte schluss damit.
Die alten GT200 Modelle werden schon noch neue, wohlklingende Namen bekommen. Hier im Forum ist der Bereich um die 5850 und GTX360 eh wichtiger. Der Rest freut sich halt, dass der Markt nicht kaputt gemacht wurden ist.:freak:
ich kann euch alle hier wirklich nicht verstehen.
Die gesamte Computer- und Consumer-Elektronik Branche lebt von der Deflation. 30% mehr Leistung pro Jahr für das gleiche Geld, oder 30% weniger für die gleiche Leistung zahlen..das ist das Mantra der gesamten Branche.
Und ihr wollt immer (freiwillig :freak: ) viel Geld für wenig Leistung zahlen.
Wenn alle so denken würden wie ihr hier würden wir immer noch Computer mit 8086 CPUs und 640KB Speicher haben und dafür dann wahrscheinlich >>4000,- Euro zahlen.
http://www.8bit-museum.de/docs/amstrad3.htm
=> 2490 DM für einen Z80-Rechner, der 8086-PC war wahrscheinlich noch wesentlich teurer. Bei 5% Inflation pro Jahr für 23 Jahre werden eben aus den 2490DM 3910 Euro.
Wen jucken einige 10.000 GF100, wenn der Rest des Line-ups obsolete ist?
Wenn jucken einige 10.000 GF100, wenn der Rest des Line-ups obsolete ist?
Wir werden sehen, wieviele es sind...
mapel110
2010-01-14, 14:08:41
Wenn jucken einige 10.000 GF100, wenn der Rest des Line-ups obsolete ist?
Und erstmal muss sich zeigen, wie viel ATI überhaupt wirklich ausliefert. Sie bringen ja wirklich alles auf 40nm. Ich würde mich nicht wundern, wenn sie an den Kapazitäten bei TSMC zu knabbern haben. Das könnte den Vorteil der besseren Produkte zum Teil auffressen.
Ailuros
2010-01-14, 14:24:31
War ja klar das mein Post gelöscht wird.
Konsequent müsste sein Mist auch weg, denn so siehts aus als ob er mit seinen seltsamen Argumenten Recht hätte und Nvidia durch die Bank unbrauchbare Produkte hätte.
Den das war die urpsrüngliche Behauptung, die mit seinen einseitigen Betrachtungen gestützt hat, am Schluss hat er sogar zugegeben, was er außer Acht lässt.
Wenn ein Mod sagt dass Schluss mit OT dann bleibt es auch dabei. Ich kann Dir ja auch gerne erzaehlen was genau die Missachtung von der Moderation genau bedeutet. Wie dem auch sei Ihr koennt stets Eure Debatte woanders privat ausfuehren.
------------------------------------------
So und jetzt zurueck zum Thema:
Neliz hatte Recht mit dem tmu Zeug. Aber unbedingt negativ ist es nicht. Ach und ich werde mich vielleicht sogar bei Arun entschuldigen muessen :(
reunion
2010-01-14, 14:35:20
So und jetzt zurueck zum Thema:
Neliz hatte Recht mit dem tmu Zeug. Aber unbedingt negativ ist es nicht. Ach und ich werde mich vielleicht sogar bei Arun entschuldigen muessen :(
Dh es sind wirklich nur 64 bi Samples pro Takt? Filteroptimierungen anyone?
AnarchX
2010-01-14, 14:35:57
Ach und ich werde mich vielleicht sogar bei Arun entschuldigen muessen :(
Als doch noch eine wichtige Taktdomain (TMUs oder Setup) bei ~1GHz?
Dh es sind wirklich nur 64 bi Samples pro Takt? Filteroptimierungen anyone?
Wahrscheinlicher sind da wohl eher 64 TA(die den 16 LS im Fermi-Material entsprechen) und 128 TF. Oder Arun hatte doch recht mit ~1GHz TMUs. ;D
Ailuros
2010-01-14, 14:40:10
Als doch noch eine wichtige Taktdomain (TMUs oder Setup) bei ~1GHz?
Ich weiss es nicht. Ich hab den armen Kerl durch die Hoelle gezogen weil er stur anfangs darauf bestand. Ohne seine aeltere These aber mit flexiblen Frequenzen klingt mir sagen wir mal 64*1.5 gegen 128*0.65 als Stromverbrauchs-selbstmord. So besoffen koennen die NV engineers nicht sein.
***edit: ja zum Doppeldecker; wann keine Ahnung.
Tarkin
2010-01-14, 15:04:36
Langsam komm ich nicht mehr mit... :freak:
Könnte die aktuellen Spekulationen mal jemand zusammenfassen bzw auf den Punkt bringen? Ailuros plz?
Ailuros
2010-01-14, 15:08:07
Langsam komm ich nicht mehr mit... :freak:
Könnte die aktuellen Spekulationen mal jemand zusammenfassen bzw auf den Punkt bringen? Ailuros plz?
* 64 statt 128 TMUs hoechstwahrscheinlich aber auf hot clock (was aber nicht in meinen Schaedel passen will weil es sinnlos ist...)
* Hoher Stromverbrauch (TDP in etwa einen Schnitt unter 5970)
* Doppeldecker kommt trotz dem obrigen. Bei heutigen Zustaenden muessen sie sich aber etwas einfallen lassen was die Stecker und Kuehlungsloesungen betrifft.
reunion
2010-01-14, 15:09:50
* 64 statt 128 TMUs hoechstwahrscheinlich aber auf hot clock (was aber nicht in meinen Schaedel passen will weil es sinnlos ist...)
Na da bin ich aber gespannt wie das gelöst wird.
* Hoher Stromverbrauch (TDP in etwa einen Schnitt unter 5970)
Dann müssen sie auch um einiges schneller sein, wenn sie nur die Leistung/Watt einer gehandikapten 5970 erreichen wäre das schon blamabel. Eine Dual-GPU kann man damit IMO vergessen, es sei denn 400W und mehr stört sie nicht.
Ich weiss es nicht. Ich hab den armen Kerl durch die Hoelle gezogen weil er stur anfangs darauf bestand. Ohne seine aeltere These aber mit flexiblen Frequenzen klingt mir sagen wir mal 64*1.5 gegen 128*0.65 als Stromverbrauchs-selbstmord. So besoffen koennen die NV engineers nicht sein.
***edit: ja zum Doppeldecker; wann keine Ahnung.
Ich dachte, dass die 3 Taktdomänen eigentlichen als wahrscheinlich angesehen wurden.
Ich erinnere mich da an 1,0 - 1,6 - 2,2.
Also z.B. 640 - 1000 - 1400
Tarkin
2010-01-14, 15:12:04
* 64 statt 128 TMUs hoechstwahrscheinlich aber auf hot clock (was aber nicht in meinen Schaedel passen will weil es sinnlos ist...)
* Hoher Stromverbrauch (TDP in etwa einen Schnitt unter 5970)
* Doppeldecker kommt trotz dem obrigen. Bei heutigen Zustaenden muessen sie sich aber etwas einfallen lassen was die Stecker und Kuehlungsloesungen betrifft.
Dankeschön :)
Ailuros
2010-01-14, 15:13:13
Dann müssen sie auch um einiges schneller sein, wenn sie nur die Leistung/Watt einer gehandikapten 5970 erreichen wäre das schon blamabel. Eine Dual-GPU kann man damit IMO vergessen.
Der erwaehnte Herr in Deinem PM ist sich ziemlich sicher ueber den Doppeldecker.
Ich dachte, dass die 3 Taktdomänen eigentlichen als wahrscheinlich angesehen wurden.
Ich erinnere mich da an 1,0 - 1,6 - 2,2.
Also z.B. 640 - 1000 - 1400
64*1.0GHz = 64 GTexels/s
128*0.64GHz = 81.9 GTexels/s
Was hat im ersten Fall dazugewonnen? Gar nichts. Ergo wenn ja dann wohl eher eine Schnapssidee.
These B= TMUs@hot clock
64*1.4 = 89.6 GTexels/s
128*0.64 = 81.9 GTexels/s
Jetzt liegt zumindest die hypothetische Fuellrate im ersten Fall in einem logischerem Bereich. Nur sehe ich selbst in diesem Fall keinen Sinn sich es so umstaendlich zu machen. 64*1.4 klingt mir auf jeden Fall nicht stromsparender als 128*64 und der erste Fall ist auch noch verdammt umstaendlich einzubauen.
reunion
2010-01-14, 15:13:43
Der erwaehnte Herr in Deinem PM ist sich ziemlich sicher ueber den Doppeldecker.
Na das Ding will ich sehen. :)
mapel110
2010-01-14, 15:17:32
Gibts dann den ersten 400 Watt Dustbuster. Langsam erreichen wir wirklich Staubsaugerregionen. Zwar die niedrigste Saugleistungsstufe, aber immerhin. :ugly:
/edit
Hm, ich sehe die Leute, die sich Fermi-SLI kaufen wollten, schon schwitzen. "Oh, hoffentlich reicht mein 1000 Watt NT noch." ...
Jetzt liegt zumindest die hypothetische Fuellrate im ersten Fall in einem logischerem Bereich. Nur sehe ich selbst in diesem Fall keinen Sinn sich es so umstaendlich zu machen. 64*1.4 klingt mir auf jeden Fall nicht stromsparender als 128*64 und der erste Fall ist auch noch verdammt umstaendlich einzubauen.
mag ja sein, aber bei 3 Milliarden Transistoren könnte man meinen, dass nvidia erst das Transistor-Budget ausging und nun eben das Taktbudget.
Ailuros
2010-01-14, 15:22:09
Na das Ding will ich sehen. :)
Ich fragte natuerlich. Er sagte nur schnell Krone um jeden Preis. Da es vielerlei Kronen gibt kann man viele gemeine Wortspiele damit machen. Nein danke (ich halt ja sowieso nichts von SLi/CF).
Die Wärme überträgt sich bestimmt auch massiv aufs PC Gehäuse. Will nicht wissen wie sich das Blech erhitzt...
mapel110
2010-01-14, 15:25:12
Oh, es sind wohl doch nur 3 Milliarden Transistoren und nicht 3.2 Milliarden.
Originally Posted by Rys
Why's it suddenly gone up the size of 200 Voodoo1s? I thought 3.0B was understood.
Dann müssen sie auch um einiges schneller sein, wenn sie nur die Leistung/Watt einer gehandikapten 5970 erreichen wäre das schon blamabel. Eine Dual-GPU kann man damit IMO vergessen, es sei denn 400W und mehr stört sie nicht.
Siehe GTX 285 und GTX 295.
204W vs 289W.
Und dennoch ist das Ding minimal sparsamer als eine 4870 X2.
Ailuros
2010-01-14, 15:46:58
Cypress=
16+16
1+1
GF100=
12+12+12+12
1+1+1+1
* 64 statt 128 TMUs hoechstwahrscheinlich aber auf hot clock (was aber nicht in meinen Schaedel passen will weil es sinnlos ist...)
* Hoher Stromverbrauch (TDP in etwa einen Schnitt unter 5970)
* Doppeldecker kommt trotz dem obrigen. Bei heutigen Zustaenden muessen sie sich aber etwas einfallen lassen was die Stecker und Kuehlungsloesungen betrifft.
@Ail
wieviel Chipfläche spart man wenn man statt 128TMUs nur 64TMUs verbaut?
Ailuros
2010-01-14, 16:02:20
@Ail
wieviel Chipfläche spart man wenn man statt 128TMUs nur 64TMUs verbaut?
Wenn man die letzteren sehr hoch taktet fast gar nichts.
hmm da versteh ich diese Entscheidung nicht.
Die hohe TDP ist auch gesichert?
Edit: mich würde die hohe Verlustleistung unter Last kaum stören, wenn ein vernünftiger Stromverbrauch im Idle da wäre.
Die meiste Zeit mach ich eh andere Dinge außer spielen.
Ailuros
2010-01-14, 16:10:25
hmm da versteh ich diese Entscheidung nicht.
Die hohe TDP ist auch gesichert?
Ja. Nur will ich trotz allem noch wissen ob diese am Rand liegt oder ob man fuer vendor oder User OC noch vorgesorgt hat.
crux2005
2010-01-14, 16:12:52
Cypress=
16+16
1+1
GF100=
12+12+12+12
1+1+1+1
die x*4*12 passen aber nicht zu 512 A(i)LUs
Ja. Nur will ich trotz allem noch wissen ob diese am Rand liegt oder ob man fuer vendor oder User OC noch vorgesorgt hat.
stimmt. TDP ist ja nicht gleich Verlustleistung
Ailuros
2010-01-14, 16:18:58
die x*4*12 passen aber nicht zu 512 A(i)LUs
Wer sagt dass es sich um ALUs handelt? Was hat Cypress doppelt dass jeweils 16 pixel entspricht?
***edit: hmmm wo ist Charlie mit seinen tape out newsblurbs wenn man ihn braucht?
crux2005
2010-01-14, 16:24:34
achso, klar, ROPs
GF100 soll ja 48 haben
und die 4 ist die Anzahl an Rasterizer?
edit: Heute bin ich n (_?_) :uhippie:
Ailuros
2010-01-14, 16:26:35
Als Moderator sollte ich eigentlich so viele Fragen versuchen zu beantworten wie moeglich. Darf ich das selbstverstaendliche aber dann weglassen? ;)
Mehr als 2 Tri/clk werdens dann trotzdem nicht sein :P
Vor den Rasterizern ist ein relativ großer FIFO. Selbst bei 1 Tri/Clk limitiert das meiner Meinung nach nicht.
Vermutlich nicht, aber man wird das Trisetup wohl auch bei Tesselation verwenden, da kanns dann schon mal eng werden.
Ailuros
2010-01-14, 18:50:05
Vermutlich nicht, aber man wird das Trisetup wohl auch bei Tesselation verwenden, da kanns dann schon mal eng werden.
Von den beiden gibt es aber jeweils ein Schnaeppchen pro SM und nicht universale Einheiten.
Mehr als 2 Tri/clk werdens dann trotzdem nicht sein :P
Ich bin mir nichtmal sicher dass es sogar 2 sein sollten, aber wenn es tatsaechlich 2 sind (siehe auch oben) und dann auch noch die Moeglichkeit auf hot clock zu operieren....errrrr. Ich persoenlich tippe weiterhin auf nur 1Tri/clock aber sehr hohe Frequenzen. Sonst erklaert es erstmal nicht die Unterschiede zu cypress in tesselations-limitierten Faellen.
Tarkin
2010-01-14, 19:52:26
Wer sagt dass es sich um ALUs handelt? Was hat Cypress doppelt dass jeweils 16 pixel entspricht?
***edit: hmmm wo ist Charlie mit seinen tape out newsblurbs wenn man ihn braucht?
A3 zurück und nicht das was sich nvidia gewünscht hätte?
http://forum.beyond3d.com/showpost.php?p=1380042&postcount=155
neliz: I would like to say "you'll see for yourself shortly" but that seems to not be the case either (smells like A4 to me)
Oh Mann... Das ist ja die Hardwareversion von Duke Nukem Foerever...
A3 zurück und nicht das was sich nvidia gewünscht hätte?
http://forum.beyond3d.com/showpost.php?p=1380042&postcount=155
neliz: I would like to say "you'll see for yourself shortly" but that seems to not be the case either (smells like A4 to me)
vielleicht meint er "DIN A4"? ;)
Tarkin
2010-01-14, 20:05:40
noch was von neliz...
http://www.xtremesystems.org/Forums/showpost.php?p=4198803&postcount=899
So far, most of the things I've written have been backed by (uncheckable) facts. When nv says they'll launch in February, I write that.. when they announce their intent to launch in March, I write March. Now I can safely say my dual-fermi "a few weeks after GF100" was way too optimistic, just like the March launch, April availability.
und
Yeah, that's the official spin "they're much more efficient" bla bla bla.. it's still BS because the units are THERE, why disable them?
Another hint, when Huddy says he expects AMD to have the fastest card for most of 2010, he's not talking about AMD refreshes.
uh??? hört sich für mich ehrlich gesagt nach Mai/Juni an... was machen die?? :confused:
boxleitnerb
2010-01-14, 20:18:42
So langsam gehen die mir auf die Nerven :mad:
Da können sie GF100 gleich einstampfen und den Refresh rausbringen!
boxleitnerb, da zitiert ein Fanboy den anderen ;)
Es wird garantiert kein A4 geben.
Armaq
2010-01-14, 20:27:41
Vll. kommt gar kein GF 100 mehr.
mapel110
2010-01-14, 20:28:41
boxleitnerb, da zitiert ein Fanboy den anderen ;)
Es wird garantiert kein A4 geben.
Genau, am Montag kommt ne weitere Techpreview und die Meldung "canned". Warten auf den Refreshchip. :D
boxleitnerb
2010-01-14, 20:32:03
Ich weiß halt gar nicht mehr, was ich glauben soll :(
Spekulationen hin oder her, das ist ja nicht mehr feierlich.
So langsam gehen die mir auf die Nerven :mad:
Da können sie GF100 gleich einstampfen und den Refresh rausbringen!
Inwiefern Refresh? Ich denke langsam, dass der geplante Chip in 40 nm nicht annähernd wirtschaftlich machbar ist und sein wird. So wie es aussieht, hat Amd mit der 5870 schon hart am verträglichen Limit mit Transistoren und Clocks gekratzt.
Der Refresh müsste vielleicht diese Transistoren für den "wissenschaftlichen Berechnungsmurks" bei der der "Spieleversion" weglassen.
Oder gleich auf 28 nm setzen, wenn die finanziellen Rücklagen nV's das Aussitzen zulassen.
* 64 statt 128 TMUs hoechstwahrscheinlich aber auf hot clock (was aber nicht in meinen Schaedel passen will weil es sinnlos ist...)
Mal bösartig:
Nvidia hat sich von Intel mit Larrabee voll ins Boxhorn jagen lassen.
Nvidia's Topmanagment hat wahrscheinlich wegen dem Larrabee mit seinen angeblich 2GHz die Hosen voll gehabt und deshalb wollten sie da mithalten. Deshalb vielleicht der gesamte Chip auf "hot clock"
Menace
2010-01-14, 20:40:40
"hot clock"
Was bedeutet hot clock und welche Konsequenzen hat es? :confused:
mapel110
2010-01-14, 20:42:50
Generell haben sie sich sicher von Intel unter Druck setzen lassen.
Ich verstehs mittlerweile auch nicht mehr, warum man nicht separat einen Gamer-Chip entwickelt. So viel kann das nicht kosten. Wenn ich bei ATI sehe, dass sie quasi Chips pro 10€ Schritt Verkaufspreis entwerfen (5200,5300,5400,5500,5600 etc).
Burgard
2010-01-14, 20:46:07
A3 zurück und nicht das was sich nvidia gewünscht hätte?
http://forum.beyond3d.com/showpost.php?p=1380042&postcount=155
neliz: I would like to say "you'll see for yourself shortly" but that seems to not be the case either (smells like A4 to me)
Das kann man nicht glauben oder besser darf nicht glauben???
Man stelle sich nurmal vor, A4 bedeutet, dass die Prodiuktion ggf. Mitte Februar anfangen würde, aber der Release soll ja zur Cebit sein...Wieviel Karten wird es denn dann zu kaufen geben, 1000, 2000 ggf. 10.000?
Ne, irgendwie gleicht der Fermi immer mehr einem Fiasko par excellence, wenn es tatsächlich zutreffen SOLLTE.
AnarchX
2010-01-14, 20:48:00
Ich verstehs mittlerweile auch nicht mehr, warum man nicht separat einen Gamer-Chip entwickelt. So viel kann das nicht kosten. Wenn ich bei ATI sehe, dass sie quasi Chips pro 10€ Schritt Verkaufspreis entwerfen (5200,5300,5400,5500,5600 etc).
Das sind aber alles <334mm² GPUs basierend auf der gleichen Architektur.
Eine zusätzliche D3D11-Gamer-Architektur und ein entsprechend großer Die basierend darauf, kann sich NV wohl kaum leisten.
deekey777
2010-01-14, 20:51:14
Genau, am Montag kommt ne weitere Techpreview und die Meldung "canned". Warten auf den Refreshchip. :D
Ist GF100 etwa Larrabee II? oh-oh...
Ich sehe es schon: In einem Jahr (oder zwei) werden wir von einem Original-GF100 sprechen, der einfach zu ambitioniert war und diesen in den Schrank stellte, so dass Nvidia schnell einen realitätsnäheren GF100 bringt.
Rolsch
2010-01-14, 20:51:17
Laut Chip ist schon alles verloren:
http://www.chip.de/news/Nvidia-Fermi-Warum-der-GPU-Krieg-verloren-ist_40770689.html
Das kann man nicht glauben oder besser darf nicht glauben???
Man stelle sich nurmal vor, A4 bedeutet, dass die Prodiuktion ggf. Mitte Februar anfangen würde, aber der Release soll ja zur Cebit sein...Wieviel Karten wird es denn dann zu kaufen geben, 1000, 2000 ggf. 10.000?
Ne, irgendwie gleicht der Fermi immer mehr einem Fiasko par excellence, wenn es tatsächlich zutreffen SOLLTE.
Es gibt kein A4.
Menace
2010-01-14, 21:02:33
Es gibt kein A4.
Somit gehe ich davon aus, dass Du mehr weißt, aber weniger sagen darfst. :biggrin:
Danke.
reunion
2010-01-14, 21:03:04
Ja, weil sie ihn dann gleich aufgeben können. Außerdem ist es laut Huang schon in Massenproduktion.
Botcruscher
2010-01-14, 21:05:22
Wenn jetzt schon die Presse (negativ) spekuliert sollte NV endlich mal paar brauchbare Informationsbröckchen raus werfen. Inzwischen werden ja echt alle Extreme abgedeckt.:freak:
Armaq
2010-01-14, 21:08:25
Nvidia muss irgendwas sagen. Mich wundert das Analysten und Shareholder so ruhig bleiben. Huang sollte vielleicht um seiner selbst Willen die Marketingstrategie ändern.
Black-Scorpion
2010-01-14, 21:14:33
Sollte sich A4 wirklich bewahrheiten, sollte auch dem letzten bewusst sein wie er alle angelogen und verarscht hat.
Die Kleinanleger werden sich an der Börse dafür bedanken.
Die großen auf der Aktionärsversammlung.
Ja, weil sie ihn dann gleich aufgeben können. Außerdem ist es laut Huang schon in Massenproduktion.
Es gibt auch überhaupt nichts zum "gleich aufgeben" ;)
Nvidia muss irgendwas sagen. Mich wundert das Analysten und Shareholder so ruhig bleiben.
Tja überleg mal.
Sollte sich A4 wirklich bewahrheiten, sollte auch dem letzten bewusst sein wie er alle angelogen und verarscht hat.
Die Kleinanleger werden sich an der Börse dafür bedanken.
Die großen auf der Aktionärsversammlung.
Es gibt kein A4.
Ein weiterer Metal-Spin würde nichts bringen, wenn A3 nicht laufen würde. Wenn überhaupt irgendwas kommen würde, würde es B1 sein.
reunion
2010-01-14, 21:19:20
Es gibt auch überhaupt nichts zum "gleich aufgeben" ;)
Wenn man die TDP nicht beachtet sicherlich.
reunion
2010-01-14, 21:22:18
Och auch so nicht...
Ich denke ich habe dieselben Infos wie du, von daher.
Schön. Und wie ist nochmal die TDP von einer HD5970?
Und dann überleg mal was das für die kleineren Chips bedeutet mit etwas weniger Spannung. Ich denke man braucht sie keine Sorgen machen ;)
Menace
2010-01-14, 21:29:27
Momentan sehe ich Parallelitäten zu anderen Hersteller und ihr mal weniger gelungenes Produkt (Ati 2900, AMD Phenom I, Intel vielleicht mit Pent. 4, Microsoft mit vista :wink: ). Ich glaube, falls Fermi wirklich suboptimal sei, dass dann jetzt mit Augen zu und durch gefahren wird. Alle die oben genannten Firmen, konnten anschließend ihr Nachfolgeprodukt verkaufen und haben aus ihren Fehlern gelernt.
Gab es aber nicht ganz euphorische Stimmen (auch von Ail) vor 1 Wocher und habe ich das falsch interpretiert?
Und war meine Frage zu Hot clock so dumm?
reunion
2010-01-14, 21:29:28
Schön. Und wie ist nochmal die TDP von einer HD5970?
Und dann überleg mal was das für die kleineren Chips bedeutet mit etwas weniger Spannung. Ich denke man braucht sie keine Sorgen machen ;)
Du willst einen Single-Chip doch nicht wirklich mit einer Dual-GPU vergleichen, wo schon alleine durch die mangelnde Skalierung, durch den doppelten VRAM, Stromversorgung usw. jedemenge Effizienz verschwendet wird. Es sieht nicht wirklich so aus als ob man die Leistung/Watt von AMD erreicht, geschweige denn überbietet. Das man mit so einem Monster schneller sein muss ist selbstverständlich. Aber das ist dann einfach nur brute-force. Es ist aber zweifellos eine zukunftsweisende Architektur, die wohl auch vorallem in Zukunft ihr Potential mehr und mehr wird ausspielen können.
Ich glaube nicht das du weißt was ich weiß. EOD.
reunion
2010-01-14, 21:36:06
Na dann werden wir ja sehen. :)
Armaq
2010-01-14, 22:12:54
Es gibt auch überhaupt nichts zum "gleich aufgeben" ;)
Tja überleg mal.
Es gibt kein A4.
Ein weiterer Metal-Spin würde nichts bringen, wenn A3 nicht laufen würde. Wenn überhaupt irgendwas kommen würde, würde es B1 sein.
Ich brauche nicht überlegen. So gut kann Fermi nicht sein, dass die ganzen negativen Eindrücke nicht im Hinterkopf bleiben. Wie ewig hat Audi gebraucht, um sein Image in den 90er los zu werden?
Ailuros
2010-01-14, 22:32:42
Du willst einen Single-Chip doch nicht wirklich mit einer Dual-GPU vergleichen, wo schon alleine durch die mangelnde Skalierung, durch den doppelten VRAM, Stromversorgung usw. jedemenge Effizienz verschwendet wird.
Da wohl NV selber einen dual chip unter 40nm plant, ist die Debatte ohnehin sinnlos.
Es sieht nicht wirklich so aus als ob man die Leistung/Watt von AMD erreicht, geschweige denn überbietet.
Behalt mal den Gedanken im Hinterkopf (und ja natuerlich hast Du recht, nur kommt das "aber" weiter unten...)
Das man mit so einem Monster schneller sein muss ist selbstverständlich. Aber das ist dann einfach nur brute-force.
Absolutes und uebertriebenes brute force ist in meinem Buch dann eher die "GT104" oder wie immer das X2 Ding heissen wird unter den heutigen Vorraussetzungen. Sonst koennen wir lange Bandbreite verschwenden ob und warum eine 5970 ein "eleganteres" und mit weniger Redundanz Produkt am Ende ist. Und nein ich hab keineswegs vor mich hier zu wiedersprechen; ich war nie ein SLi bzw. Crossfire Fan.
Es ist aber zweifellos eine zukunftsweisende Architektur, die wohl auch vorallem in Zukunft ihr Potential mehr und mehr wird ausspielen können.
So und jetzt rueck mal mit dem obrigem Gedanken nochmal raus. Steck mal alles in einen Kasten das bisschen 3D das heraussickerte, was sie fuer den Profi-Markt geleistet haben; wenn jetzt der Stromverbrauch in etwa analog zur 5970 Leistung liegt dann tut es mir leid es ist und bleibt eine Realitaet. Und genau gegen meine 5870-380 Vergleiche meckerte heute Nachmittag jemand von AMD ich solle ein 189W Produkt nicht mit einem 280W Produkt vergleichen, weil mehr die area auch mehr Leistung bedeutet.
Entschuldige wenn es von jemand von AMD kommt der auch hauptsaechlich PR fuer sie macht, dann passt mir diese Perspektive durchaus. Wenn sie es besser haben wollten haetten sie sich ihre Hintern hinsetzen sollen und selber einen =/>550mm2 chip bauen, damit man nach Dir nicht mit ihren "uneleganten" 5970-ern vergleicht. Dass sie aber geringen Chancen gehabt haetten es vor NV auf Regale zu schaffen verschweigen wir auch.
Was jetzt NV ausbaden muss ist dass bis sie eine komplette DX11 Familie auf Regalen haben konstant mehr und mehr diverse Marktanteile an AMD verschenkt haben. Und ja NVIDIA ist der eigentliche IHV der IMHO seine Strategie aendern muss und nicht AMD, damit man zukuenftige Verspaetungen entweder maessigt oder so gut wie moeglich ausschliesst.
Und nein ich haeng Dir persoenlich auch nichts an; aber behalt mal ein paar Kleinigkeiten im Hinterkopf aus diesem Post und wir werden schon sehen in welche Richtung sich AMD's PR bewegen wird.
Nightspider
2010-01-14, 22:38:16
Bisher erinnert mich alles an die Zeiten, bevor der G80 erschien...nur das ATI jetzt schon draußen ist...
Solang Nvidia dann sein Hammer rausholt, können sie jetzt meinetwegen schweigen, bis sich die Leute zu tode spekuliert haben. :biggrin:
Ailuros
2010-01-14, 22:50:12
Ich brauche nicht überlegen.
Dass ein weiterer metal spin auf der gleichen A revision nichts besonderes mehr bringen kann? Ich befuerchte dass es so ist, zumindest nach den Profis die ich ueber's Thema fragte.
So gut kann Fermi nicht sein, dass die ganzen negativen Eindrücke nicht im Hinterkopf bleiben.
GF100 kommt spaeter an. Was weisst Du sonst dass ich nicht weiss?
Wie ewig hat Audi gebraucht, um sein Image in den 90er los zu werden?
Dann wundere ich mich warum ATI nach R600 nicht untergegangen ist.
das klingt irgendwie als wäre hier jemand gekränkt. hoffe du hast genügend taschentücher in der nähe ;)
Ach der gute alte Bekannte. Wie geht's der Familie sonst? :D
Bisher erinnert mich alles an die Zeiten, bevor der G80 erschien...nur das ATI jetzt schon draußen ist...
Solang Nvidia dann sein Hammer rausholt, können sie jetzt meinetwegen schweigen, bis sich die Leute zu tode spekuliert haben. :biggrin:
Wie Du sehen kannst ist mein Lieblingsgast schon unruhig geworden. In kurzer Zeit wird er ziemlich viel Arbeit haben und alle anderen sock puppets einiges Material zu untermauern. Irgendwo brauchen wir sie auch sonst wird's langweilig.
Botcruscher
2010-01-14, 23:00:04
Und wehe "einiges Material" kommt nicht bis einschließlich Montag.:usweet:
Ailuros
2010-01-14, 23:57:22
Und wehe "einiges Material" kommt nicht bis einschließlich Montag.:usweet:
Es gibt genuegend Material zum uebersehen momentan, nur zwitschert leider keiner bis jetzt.
Ich brauche nicht überlegen. So gut kann Fermi nicht sein, dass die ganzen negativen Eindrücke nicht im Hinterkopf bleiben. Wie ewig hat Audi gebraucht, um sein Image in den 90er los zu werden?
Was für negative Eindrücke? Bisher ist er nur spät, der Rest ist alles blub.
tombman
2010-01-15, 00:02:39
An eine weitere Verzögerung glaub ich nicht- ok, ich hab aber auch an Jänner geglaubt :ugly:
Trotzdem: März wirds, immerhin haben sie schon laufende Karten auf der CES gezeigt- so übel kanns also ned sein :)
Armaq
2010-01-15, 00:02:41
Was für negative Eindrücke? Bisher ist er nur spät, der Rest ist alles blub.
Die sehr negativ belegte Presse. :)
Das ist einfach nicht gut für Nvidia. Manche Kunden schreiben Fermi jetzt schon ab.
Das ist sehr schnell vergessen, wenn das Produkt gut ist ;)
deekey777
2010-01-15, 00:10:22
Die sehr negativ belegte Presse. :)
Das ist einfach nicht gut für Nvidia. Manche Kunden schreiben Fermi jetzt schon ab.
Schaue dir doch die ganzen Meldungen auf PCGH an. Sie machen die Stimmung und nicht zB Digitimes.
Schaue dir doch die ganzen Meldungen auf PCGH an. Sie machen die Stimmung und nicht zB Digitimes.
Und? Interessiert doch keinen, wenn der Chip und die Karte gut werden. Dann verkaufen sie sich auch und sind ein Erfolg.
Wenn sie nicht gut werden, dann werden sie eben kein Erfolg. Aber nur davon geht Nvidia nicht unter, man gucke sich mal an was im nachhinein aus so Gurkenchips wie GeForce FX oder HD2000 geworden ist.
Der Vorteil von Nvidia ist ganz klar, dass sie den harten und steinigen Weg der neuen Architektur gegangen sind. Der steht ATI wohl 2011 noch bevor, wer weiß bis wann die die erste Karte rausbringen?
Ailuros
2010-01-15, 00:20:55
Die sehr negativ belegte Presse. :)
Das ist einfach nicht gut für Nvidia. Manche Kunden schreiben Fermi jetzt schon ab.
Die Presse haelt momentan die Klappe. Ich hab mir gerade eine Liste von positiven 3D Punkten ueber das Ding gemacht und es sind 10 momentan. Ich weiss noch nicht wo ich die TMUs verschachteln soll, ergo momentan mit Fragezeichen und der einzige Minuspunkt ist der TDP.
***edit: uebrigens so wie es sich anhoert wird es wohl beim workflow von rasterizing womoeglich keinen grossen Unterschied zwischen den beiden Architekturen geben (obwohl doppelt so viele rasterizing units). Kritische Unterschiede liegen wohl eher in anderen Stellen die sich hauptsaechlich auf Geometrie konzentrieren (ein jahrelanger Schwachpunkt von NV). Ich hab leider dummerweise die ersten generellen Infos vor einiger Zeit verschachtelt, aber jetzt wird es deutlich dass ich dabei bleiben haette sollen. Jeglicher SM ist diesmal um einiges naeher an dem was man "core" nennen koennte, was zwar einen hoeheren Grad von quasi "Unabhaengigkeit" fuer jeden SM gibt, aber kommt natuerlich wohl nicht umsonst was die area betrifft. So und jetzt reicht's fuer heute ;)
derguru
2010-01-15, 00:31:21
wenn die leistung stimmt würde ich nicht mal den höheren verbrauch als minuspunkt zählen,aber klar wenn.:)
Ailuros
2010-01-15, 00:38:06
wenn die leistung stimmt würde ich nicht mal den höheren verbrauch als minuspunkt zählen,aber klar wenn.:)
In aelteren Spielen im Vergleich zu GT200 ist das Gefuehl zwar nicht schlecht aber nichts besonderes. In neueren Spielen liegt der Unterschied dann schon im Bereich was man von einer neuen Generation erwarten wuerde. Im rein synthetischen Bereich sieht es natuerlich am Besten aus.
Aber von dem Phaenomen ist auch RV870 vs. RV770 befallen. Treiber werden auch hier keine besonderen Unterschied machen, sondern zunehmend Spiele in Richtung DX11 selbst wenn es nur paths sind.
Dural
2010-01-15, 00:56:21
meine Geforce 3 hat sogar ein A5... :wink:
wenn die leistung stimmt würde ich nicht mal den höheren verbrauch als minuspunkt zählen,aber klar wenn.:)
Wozu auch? Kann man bei 30% Mehrleistung über 30% Mehrverbrauch meckern? Ich denke nicht.
Armaq
2010-01-15, 01:25:52
Irgendwann finde ich Mehrverbrauch grenzwertig. Ich traue Nvidia ein 85% Produkt zu. Abstriche nur durch TDP/Lautstärke.
Ailuros
2010-01-15, 01:40:24
Irgendwann finde ich Mehrverbrauch grenzwertig. Ich traue Nvidia ein 85% Produkt zu. Abstriche nur durch TDP/Lautstärke.
Wofuer sollen die 85% genau stehen? Das Ding hat einen TDP bei 280W (6pin+8pin), welches GTX285+37% TDP entspricht.
Knuddelbearli
2010-01-15, 06:19:00
denk mal er meitn leistung frage nur wovon aus gtx 285 oder gtx 295 bzw 5870
Das was Ati gemacht hat, hat mit "nix können" nicht viel zu tun, oder das was NV gemacht hat mit Revolution. Es geht um Massen von Geld über Jahre verteilt bis das Produkt im Regal steht. Ati hat sich dafür entschieden ein DX11 Produkt auf einer Basis rauszubringen die nicht so viel Risiko beinhaltet in einem Finanziellen Desaster zu enden, Nvidia hat durch mehr Rücklagen den aggressiveren weg gewählt.
Man sollte sich bei so Entwicklungen nicht nur den Technischen Aspekt betrachten, es geht um langfristige Kosten, ums überleben.
Die Mehrporfomance ist denk ich in der Realität völlig unerheblich, da sie nicht umsetzbar ist, bis Spiele diese benötigen, wird jeder der Freaks :) 2 neuere Generationen im Rechner haben. Denke das sich die geringeren Kosten im Stromverbrauch, weniger Lautstärke wesentlich mehr auszahlen während man 2 Jahre auf Titel wartet, die für diese Hardware gemacht werden.
Aber wenn man sonst nix zu tun hat, was Solls, jedem das seine lol
Sollte sich A4 wirklich bewahrheiten, sollte auch dem letzten bewusst sein wie er alle angelogen und verarscht hat.
Die Kleinanleger werden sich an der Börse dafür bedanken.
Die großen auf der Aktionärsversammlung.
Es gibt kein A4
reunion
2010-01-15, 07:09:15
Wozu auch? Kann man bei 30% Mehrleistung über 30% Mehrverbrauch meckern? Ich denke nicht.
Und wie sieht es aus wenn man bei 50% Mehrverbrauch 30%, vielleicht optimistische 40% schneller ist, wenn man NVs Angaben schluckt? Wenn man bei 50% mehr Die-Size 30-40% schneller ist, obwohl eigentlich die Effizienz mit der Die-Size steigen sollte? Sorry, aber das haut mich dann nicht vom Hocker. Aber warten wir ab bis es unabhängige Tests gibt.
Wofuer sollen die 85% genau stehen? Das Ding hat einen TDP bei 280W (6pin+8pin), welches GTX285+37% TDP entspricht.
Entscheidend ist 5870 +50%, und dafür will man auch eine äquivalenten Mehrwert. Ganz davon abgesehen das irgendwann der Punkt erreicht ist wo man Verlustleistung nicht mehr leise kühlen kann. Bis dato habe ich keine GPU mit >200W gesehen die leise gekühlt wurde.
Könnte jemand ein paar Worte dazu sagen was über die üblichen Verdächtigen, die immer Gerüchte in die Welt setzen, bekannt ist? Wer sind sie, sind sie vielleicht angestellt bei Nvidia oder ATI, liegen sie oft richtig oder stochern sie nur in Gerüchten herum?
Ich denke da vor allem an Neliz, Rys, semi-accurate (charli), fudzilla und andere
5870 + 50% kann die GF100 in praxisnahen Szenarien nicht darstellen.
mapel110
2010-01-15, 07:25:39
Das sind aber alles <334mm² GPUs basierend auf der gleichen Architektur.
Eine zusätzliche D3D11-Gamer-Architektur und ein entsprechend großer Die basierend darauf, kann sich NV wohl kaum leisten.
Ich glaube kaum, dass es einen Aufwand darstellt, einfach für Gamer überflüssige Hardware-Elemente aus dem Design rauszuschmeißen und ein wenig neu anzuordnen. Ich stelle mir das sehr simpel vor. Bei den Chips für andere Marktsegmente (low cost, IGP) wird man das ja wohl ohnehin machen.
boxleitnerb
2010-01-15, 07:51:24
280W TDP für Single GPU? So langsam gehts auf die Schmerzgrenze zu. Obwohl Ailuros wohl mitunter die besten Insiderinfos hat, kann ich das nicht so recht glauben. Will es nicht glauben! Wie soll das weitergehen? In jeder neuen Generation/refresh im Schnitt nochmal 20W druff trotz kleinerem Prozess?
Ailuros
2010-01-15, 08:07:07
Und wie sieht es aus wenn man bei 50% Mehrverbrauch 30%, vielleicht optimistische 40% schneller ist, wenn man NVs Angaben schluckt? Wenn man bei 50% mehr Die-Size 30-40% schneller ist, obwohl eigentlich die Effizienz mit der Die-Size steigen sollte? Sorry, aber das haut mich dann nicht vom Hocker. Aber warten wir ab bis es unabhängige Tests gibt.
Der Knackpunkt der ganzen Affaere ist dass das bisherige Gefuehl war dass NV sehr viel in HPC hat und 3D darunter gelitten hat (anders eine Art umgekrempelte GT200-aehnliche Architektur). Ich bin zwar nicht in der Lage einschaetzen zu koennen wie die Relation in investierten Transistoren zwischen HPC und 3D genau aussieht, aber es sieht auf jeden Fall nicht danach aus als ob das letztere "vernachlaessigt" wurde. Es gibt auch hier fundamentale Aenderungen die eben nicht die GT200 Richtung deuten nur weil es auf Papier 512 SPs sind.
Uebrigens behauptet NV nirgends dass sie im Durchschnitt um so und so viel schneller sind als 5870 oder um so viel langsamer 5970. Im Gegensatz wedeln sie mit einer Sammlung von vorsichtig ausgesuchten synthetischen (hauptsaechlich) Faellen wo zich Male ueber der 5870 angezeigt wird. Dass GF100 ein kleines Stueck unter 5970 in Leistung liegen wird ist meine eigene Schaetzung und diese teilen ziemlich viele momentan. Man wird wohl das typisch uebertriebene PR/marketing Zeug herausfiltern koennen oder?
Auf jeden Fall sieht das Ding erstmal nach einem sehr potentiellen "Geometrie-Prozessor" aus und diesen Vorteil werden sie wohl auch IMO fuer Quadros ausnutzen koennen u.a. Und ja nur unabhaengige ausfuehrliche reviews werden insgesamt klaeren was Zusatz A,B oder C in Echtzeit in Spielen genau ausmachen kann.
Entscheidend ist 5870 +50%, und dafür will man auch eine äquivalenten Mehrwert. Ganz davon abgesehen das irgendwann der Punkt erreicht ist wo man Verlustleistung nicht mehr leise kühlen kann. Bis dato habe ich keine GPU mit >200W gesehen die leise gekühlt wurde.
Ich persoenlich schere mich nicht so stark (stets in logischen Grenzen) ueber Lautstaerke als Abwaerme und Stromverbrauch. Wenn ich das air-con einschalte saeuselt es lauter als ein PC. Mein persoenliches Problem waere hauptsaechlich Abwaerme da ich konstant von Mitte Mai bis Mitte Oktober (dank subtropischem Klima) sehr hohe Temperaturen habe. Bei jeglicher Hitzewelle wird es dann noch kritischer. Und ja neben all den zusaetzlichen case-Kuehlungsmassnamen die ich habe kann ich zwar im Sommer das air-con konstant laufen lassen damit sich die Zimmertemperatur wenigstens auf 25-26C haelt, aber in dem Fall geht es im Gegensatz zu allem anderen dann schon auf die Stromrechnung.
Kann sein dass ich uebertreibe oder mir zu grosse Sorgen mache, aber wir werden schon sehen im Maerz wie es generell aussieht.
Wenn's aber jetzt zum Mehrwert fuer zusaetzlichen Stromverbrauch geht, vorsicht denn diesen bekommt um noch weniger von einer 5970 im Vergleich zu einer 5870. Unter der Vorraussetzung dass der Leistungsabstand relativ klein insgesamt ist Hand aufs Herz: wenn es darum ginge dass Du zwischen einer 5970 und einer GF100 waehlen wuerdest, bist Du Dir absolut sicher dass es die erste werden wuerde? Und nein es sollte nicht zu einer Entschuldigung vom Stromverbrauch gelten, sondern als reales Dilemma wen es zu jeglichem "Mehrwert" genau kommt.
280W TDP für Single GPU? So langsam gehts auf die Schmerzgrenze zu. Obwohl Ailuros wohl mitunter die besten Insiderinfos hat, kann ich das nicht so recht glauben. Will es nicht glauben! Wie soll das weitergehen? In jeder neuen Generation/refresh im Schnitt nochmal 20W druff trotz kleinerem Prozess?
Meine Insiderinfos sind mittelmaessig da stets von dritten. Da aber der TDP direkt von der Konkurrenz kommt und von jemand den ich tatsaechlich als eine der best informierten Quellen beschreiben wuerde hab ich keinen einzigen Zweifel. Schon gar nicht wenn Tesla 2070 448SPs@1.4GHz bei 225W TDP liegt.
-------------------------------------------------
***edit: zwar OT aber +1 fuer den der sich die Werbung ausgedacht hat: http://www.youtube.com/watch?v=1DPQW0e9ufM
Armaq
2010-01-15, 09:03:00
Wofuer sollen die 85% genau stehen? Das Ding hat einen TDP bei 280W (6pin+8pin), welches GTX285+37% TDP entspricht.
Ich meinte damit ein im besten Fall bewertbares Produkt i.S. einer Bewertung durch z.B. die PCGH. Dabei nehme ich einfach mal zur Grundlage die 8800GTX, die war mMn. nah an den 100%. Wegweisende Technologie bei gutem Kühlkonzept und sehr guter Gesamtperformance.
tombman
2010-01-15, 09:05:17
***edit: zwar OT aber +1 fuer den der sich die Werbung ausgedacht hat: http://www.youtube.com/watch?v=1DPQW0e9ufM
Und wie passend... nur Affen wollen ATI :devil:
IMO ne saudumme Idee- Assoziationen ahoi...
Botcruscher
2010-01-15, 09:17:04
Damit ist der Affe aber schon gefühlten 90% der Bevölkerung überlegen. Wer es nicht glaubt kann ja in die "der PC wird untergehen"-Threads rein schauen.
desert
2010-01-15, 09:24:40
Und wie sieht es aus wenn man bei 50% Mehrverbrauch 30%, vielleicht optimistische 40% schneller ist, wenn man NVs Angaben schluckt? Wenn man bei 50% mehr Die-Size 30-40% schneller ist, obwohl eigentlich die Effizienz mit der Die-Size steigen sollte? Sorry, aber das haut mich dann nicht vom Hocker. Aber warten wir ab bis es unabhängige Tests gibt.
Entscheidend ist 5870 +50%, und dafür will man auch eine äquivalenten Mehrwert. Ganz davon abgesehen das irgendwann der Punkt erreicht ist wo man Verlustleistung nicht mehr leise kühlen kann. Bis dato habe ich keine GPU mit >200W gesehen die leise gekühlt wurde.
Ganz ehrlich, die effizienz ist mir sowas von egal. Und ich glaube jeder der sich eine High-End Grafikkarte kauft, den interessiert der verbrauch oder die effizienz nur rudimentär. Dem geht es meistens nur um die fps.
Ich sitz doch nicht vor dem Computer und finde meine grafikkarte so toll weil sie so schön effizient ist. Ich will maximale Leistung und der stromverbrauch interessiert mich auch nicht wirklich. Ich finde diese diskussionen um die idle-verbräuche sogar eher belustigend, ob meine grafikkarte nun 15 watt oder 25watt ist mir sowas von egal.
Schlammsau
2010-01-15, 09:25:53
.......ob meine grafikkarte nun 15 watt oder 25watt ist mir sowas von egal.
Vielen andren inkl mir aber nicht. ;)
mapel110
2010-01-15, 09:28:32
Interessant wird die Verlustleistung erst, wenn es zur Kühlung kommt. Wenn man denn auf Strategie-Rotz(TM) steht, will man sicher beim Überlegen keine Geräuschkulisse eines Jets haben. Bei Ego-Shootern dreht man die Boxen auf und der Rest ist wayne.
Ganz ehrlich, die effizienz ist mir sowas von egal. Und ich glaube jeder der sich eine High-End Grafikkarte kauft, den interessiert der verbrauch oder die effizienz nur rudimentär. Dem geht es meistens nur um die fps.
Ich sitz doch nicht vor dem Computer und finde meine grafikkarte so toll weil sie so schön effizient ist. Ich will maximale Leistung und der stromverbrauch interessiert mich auch nicht wirklich. Ich finde diese diskussionen um die idle-verbräuche sogar eher belustigend, ob meine grafikkarte nun 15 watt oder 25watt ist mir sowas von egal.
fuck the umwelt :freak:
Mich interessiert das ich die Spiele die ich Spielen will gut laufen mit vollen Settings.
Wenn sie dies tun, brauch keiner 5 FPS mehr + Gehörschaden inklusive einem Reaktor im Garten :)
Mal im Ernst, es hat doch auch kaum einer einen Ferrari um zum ALDI um die Ecke zu fahren, ne Graka ,wie die besagte, ist doch nur Prestige für Arme ;)
Wobei ich natürlich jedem seine Hobbys gönne
desert
2010-01-15, 09:52:52
Vielen andren inkl mir aber nicht. ;)
Ist sie dir doch, dir passt es nur ins konzept das ati anscheinend vorne liegt bei der neuen generation, vom stromverbrauch her. Nur was machst du wenn plötzlich nvidia vorne liegen sollte, beim fps/watt verhältnis. Dann ist dir das plötzlich doch wieder egal. Du änderst deine meinung immer dahingehend das ati positiv dargestellt wird. Ist ati vorne bei stromverbrauch ist der plötzlich ausschlaggebend, liegt nvidia vorne ist es unwichtig. Bietet nvidia ssaa an, ist es völlig unbedeutend, bei ati eine meisterleistung.
Rolsch
2010-01-15, 09:56:46
Den Öko-Zeitgeist sollte man nicht zu gering schätzen, ein glühendes 300 Watt Transistorenmonster wird auch bei grandioser Leistung Akzeptanzprobleme haben. Mir käme sowas nicht in den Rechner.
Vielen andren inkl mir aber nicht. ;)
Ich glaube das sich nur ein bestimmter Personenkreis für die TDP interessiert weil sie keine anderen Argumente finden ihren Fehlkauf später zu rechtfertigen!
Und ja ich zahl meine Stromrechnung selber.
Mfg
Wobei es für den "Ökozeitgeist" imho relevanter ist, wieviel die KArte idle braucht, als unter Last. Sollten Idle z.B. bei 95W liegen, wäre das schon unschön.
Ailuros
2010-01-15, 10:16:15
Ich meinte damit ein im besten Fall bewertbares Produkt i.S. einer Bewertung durch z.B. die PCGH. Dabei nehme ich einfach mal zur Grundlage die 8800GTX, die war mMn. nah an den 100%. Wegweisende Technologie bei gutem Kühlkonzept und sehr guter Gesamtperformance.
Du meinst also G80 im Vergleich zu G71 z.B? Wenn ja war der Unterschied damals stellenweise groesser zu G71 als nur 100%, aber so wichtig ist es momentan nicht. Die 8800GTX (und spaeter die Ultra noch mehr) hat auch damals jeglichen Stromverbrauchs-Rekord der Zeit gebrochen und ich kann mich sehr gut an unendliche Debatten und Meckerei ueber diesen Punkt damals erinnern:
http://www.xbitlabs.com/images/video/msi8800gts-640/nx8800_power.gif
(und dabei sind die 7950GX2 Verbrauchswerte nicht unbedingt realistisch)
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html#sect0
Noch dazu kam dass die GPU ziemlich gross fuer ihre Zeit war und ich musste damals ein paar Stuecke vom hinteren Teil der Kiste herausbrechen um sie unterbringen zu koennen.
Hier dann der heutige Zustand: http://www.xbitlabs.com/articles/video/display/radeon-hd5970_5.html#sect0
Die GTX295 hat einen TDP von 289W laut NV (6pin+8pin --->GF100 = 6pin+8pin 280W TDP) und zumindest der obrige Test zeigt mir nicht dass sie im lauten Bereich im Vergleich zu allen anderen Loesungen liegt.
Ich glaube zwar nicht (und dieses sagte ich auch schon von Anfang an) dass GF100 im Vergleich zu GT200 einen so grossen Unterschied haben wird wie G80 vs. G71, aber insgesamt schon groesser als GT200 vs. G80 und je mehr neue Spiele ankommen je mehr wird der Unterschied wachsen.
Die Meldungen von sehr lauten GPUs von CES stimmen zwar, aber ich bin mir auch ziemlich sicher dass in den Kisten nicht finale samples steckten. Deshalb halte ich auch persoenlich nichts von solchem Vorfuehrungs-Mist wenn wirklich alles nicht auf den Punkt stimmt. Nochmal dass ein hauseigenes Demo auf dem SLi System abstuerzt ist zweifellos eine Blamage.
Aquaschaf
2010-01-15, 10:17:42
Über den Idle-Verbrauch mache ich mir keine Sorgen. Für die Tesla-Produkte wäre das sehr ungünstig und deswegen ist es unwahrscheinlich dass Nvidia dort einen Rückschritt macht.
Ich glaube das sich nur ein bestimmter Personenkreis für die TDP interessiert weil sie keine anderen Argumente finden ihren Fehlkauf später zu rechtfertigen!
Glaube ich auch... es soll ja auch Menschen geben, die einen funktionierenden Kühlschrank niedriger Energieklasse der Umwelt wegen ersetzen, ohne zu bedenken, dass man damit größeren Umweltschaden anrichtet (von Rohstoff bis Produktion und Lieferung, gesamte Energieverschwendungskette)
Gibts eigentlich ein inoffizielles Datum wann die Infos denn nun kommen?
Benchmarkwerte werden wieder nicht enthalten sein?
Ich glaube das sich nur ein bestimmter Personenkreis für die TDP interessiert weil sie keine anderen Argumente finden ihren Fehlkauf später zu rechtfertigen!
Und ja ich zahl meine Stromrechnung selber.
Mfg
Ziemlich schwach das Argument, auch wenn man den Strom selbst bezahlt.
Hast du auch zb. 3 Kinder, ein Haus, 3 Autos, die bezahlt werden müssen, da könnte man sich vieleicht schon überlegen ob man die Mehrkosten, für nicht wirklich spürbares, zahlen will. Und wirklich, sowas soll es geben :)
Man sollte mal anfangen die Welt über sich hinaus zu sehen, es gibt sicher für jeden gewichtige Argumente und nicht jedes wird damit zu tun haben ob man mit Rot oder Grün ein Liebesbeziehung führt.
Dieses ewige Gezanke, nur weil x eine andere Meinung hat wie Y, zuhause redet man doch auch nicht so mit jedem der einen anderen Standpunkt vertritt. Bevor man sich über die Defizite von Ati und NV den Kopf zerbricht sollte man vieleicht mal bei sich anfangen ;)
Dein Argument ist aber mit verlaub auch ziemlich schwach. Wenn irgendjemand 3 Kinder, ein Haus und oder 3 Autos hat fällt es nicht wirklich ins Gewicht wenn er eine neue Grafikkarte kauft die unter Last x Prozent mehr Energie verbraucht. Und Danke für den Hinweis auf meine persönlichen Defizite :rolleyes:
Ps: Ich versteh Menschen nicht die eigentlich Registriert sind und als Gast posten da der jeweilige Mod eh Bescheid weis.
Armaq
2010-01-15, 10:42:19
Du meinst also G80 im Vergleich zu G71 z.B? Wenn ja war der Unterschied damals stellenweise groesser zu G71 als nur 100%, aber so wichtig ist es momentan nicht. Die 8800GTX (und spaeter die Ultra noch mehr) hat auch damals jeglichen Stromverbrauchs-Rekord der Zeit gebrochen und ich kann mich sehr gut an unendliche Debatten und Meckerei ueber diesen Punkt damals erinnern:
http://www.xbitlabs.com/images/video/msi8800gts-640/nx8800_power.gif
(und dabei sind die 7950GX2 Verbrauchswerte nicht unbedingt realistisch)
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html#sect0
Noch dazu kam dass die GPU ziemlich gross fuer ihre Zeit war und ich musste damals ein paar Stuecke vom hinteren Teil der Kiste herausbrechen um sie unterbringen zu koennen.
Hier dann der heutige Zustand: http://www.xbitlabs.com/articles/video/display/radeon-hd5970_5.html#sect0
Die GTX295 hat einen TDP von 289W laut NV (6pin+8pin --->GF100 = 6pin+8pin 280W TDP) und zumindest der obrige Test zeigt mir nicht dass sie im lauten Bereich im Vergleich zu allen anderen Loesungen liegt.
Die Meldungen von sehr lauten GPUs von CES stimmen zwar, aber ich bin mir auch ziemlich sicher dass in den Kisten nicht finale samples steckten. Deshalb halte ich auch persoenlich nichts von solchem Vorfuehrungs-Mist wenn wirklich alles nicht auf den Punkt stimmt. Nochmal dass ein hauseigenes Demo auf dem SLi System abstuerzt ist zweifellos eine Blamage.
Im Vergleich zur Vorgängergeneration - natürlich! Ich kann als Laie die Innovationskraft ja nur an den vorhandenen Produkten messen. Wobei der Kühler der 7900er auch sehr gut wahr. In meiner persönlichen Rekapitulation des Erlebten war die 8800er einfach nahezu makellos.
tombman
2010-01-15, 10:47:38
Ps: Ich versteh Menschen nicht die eigentlich Registriert sind und als Gast posten da der jeweilige Mod eh Bescheid weis.
Ich hasse Regs, die sich sooo schlau vorkommen, alles was nicht 100% harmlos ist, unbedingt als "Gast" posten zu müssen. Glauben wohl, sie werden unantastbar dadurch :rolleyes:- in echt sinds nur kleine Wichte ohne Ehre ;)
reunion
2010-01-15, 10:49:19
Ps: Ich versteh Menschen nicht die eigentlich Registriert sind und als Gast posten da der jeweilige Mod eh Bescheid weis.
Der jeweilige Mod hat keine Ahnung, die kann er auch gar nicht haben wenn sich der ausgeloggte nicht ganz blöd anstellt. Deshalb: Regpflicht.
Dein Argument ist aber mit verlaub auch ziemlich schwach. Wenn irgendjemand 3 Kinder, ein Haus und oder 3 Autos hat fällt es nicht wirklich ins Gewicht wenn er eine neue Grafikkarte kauft die unter Last x Prozent mehr Energie verbraucht. Und Danke für den Hinweis auf meine persönlichen Defizite :rolleyes:
Ps: Ich versteh Menschen nicht die eigentlich Registriert sind und als Gast posten da der jeweilige Mod eh Bescheid weis.
Ich meine gar nichts, ich räume nur ein das es vieleicht sowas gibt.
Aber wie ich schon sagte Defizite eben :)
PS: Dann frag mal deine MODS on ich Registriert bin.
Aber das Niveau wird langsam zu schwach, have fun :)
PSPS: zu Tombman muss man denk ich nichts mehr sagen, da sagt uns schon seine Sig alles ;)
Es haelt Dich nichts davon auf Dich zu registrieren und den Unterschied fuer Dich selber zu machen. Wer aber anonym mit dem Finger herumzeigt, klingt mir nicht unbedingt nach jemand der einen besseren Unterschied machen koennte. Wie war es nochmal mit Deinem Satz dass bevor man mit X anfaengt bei sich selber erst anfangen sollte?....Eben.
mictasm
2010-01-15, 10:58:49
Der jeweilige Mod hat keine Ahnung, die kann er auch gar nicht haben wenn sich der ausgeloggte nicht ganz blöd anstellt. Deshalb: Regpflicht.
Im Zeitalter von Flats und Routern glaube ich eher nicht daran, dass die Leute sich neue IPs ziehen oder ein Tool benutzen, bevor sie als Gast posten. Ach und falls doch, bestätigt das tombmans Meinung perfekt...
Ailuros
2010-01-15, 11:04:03
Ziemlich schwach das Argument, auch wenn man den Strom selbst bezahlt.
Hast du auch zb. 3 Kinder, ein Haus, 3 Autos, die bezahlt werden müssen, da könnte man sich vieleicht schon überlegen ob man die Mehrkosten, für nicht wirklich spürbares, zahlen will. Und wirklich, sowas soll es geben :)
Jeder interessierte wird sich wohl schon ueberdenken muessen wie seine Ausgaben im Vergleich zum Einkommen aussieht und das unabhaengig von dem was er eigentlich besitzt. Wenn die Ausgaben erstmal leicht unter dem Einkommen liegt versucht man erstmal unter normalen Umstaenden diese zu reduzieren und die ueberfluessigsten Ausgaben reduziert oder ganz gestrichen. Und auch hier gibt es keine Regeln, denn man kann auch niemand vorschreiben was wirklich Ueberfluss ist.
Ich hab meine eigene Vorbehaltungen oben schon illustriert und es gibt sicher einige geben die Vorbehaltungen haben werden aus verschiedenen Gruenden.
Man sollte mal anfangen die Welt über sich hinaus zu sehen, es gibt sicher für jeden gewichtige Argumente und nicht jedes wird damit zu tun haben ob man mit Rot oder Grün ein Liebesbeziehung führt.
Wem ein rotes oder gruenes Produkt mit <300W TDP nicht zusteht kann stets zu einem kleinerem Produkt von einem der beiden mit bescheidenerem Stromverbrauch besorgen.
Dieses ewige Gezanke, nur weil x eine andere Meinung hat wie Y, zuhause redet man doch auch nicht so mit jedem der einen anderen Standpunkt vertritt. Bevor man sich über die Defizite von Ati und NV den Kopf zerbricht sollte man vieleicht mal bei sich anfangen ;)
Ach und Dich sollen meine oder andersrum mich Deine finanziellen Affaeren genau wieso interessieren? Wo und wie jeder sein Geld verplempert geht mich persoenlich einen feuchten Dreck an. Ich renn gewiss nicht zu meinem Nachbar und motze ihn an weil er fuer X sein Geld verschwendet.
Im Vergleich zur Vorgängergeneration - natürlich! Ich kann als Laie die Innovationskraft ja nur an den vorhandenen Produkten messen. Wobei der Kühler der 7900er auch sehr gut wahr. In meiner persönlichen Rekapitulation des Erlebten war die 8800er einfach nahezu makellos.
Dem letzteren hab ich mich damals auch angeschlossen deshalb hab ich mir damals die GTX trotz pfiffigem Preis auch gekauft. Das heisst aber nicht dass damals ziemlich intensiv ueber dessen Stromverbrauch gemeckert wurde. Wenn jetzt die GF100 im durchschnittlichen Lastverbrauch in Echtzeit nicht weit ueber 180W liegt (etwa so viel verbratet eine GTX295) koennte ich es mir ueberdenken wenn alle andere Faktoren wie Preis/Leistung etc auch stimmt.
Ich kann schon verstehen dass Du meinst dass Du fuer X mehr Stromverbrauch auch etwas anstaendiges sehen willst. Die Anzeichen bis jetzt sind gut, aber wie schon oefters von mehreren erwaehnt: bevor unabhaengige Tests nach dem Launch auftreten kann man sich nicht sicher sein.
Der jeweilige Mod hat keine Ahnung, die kann er auch gar nicht haben wenn sich der ausgeloggte nicht ganz blöd anstellt. Deshalb: Regpflicht.
Nimm aber bloss kein Gift drauf dass ich mehr als oefters mir die IPs von Gaesten anschaue. Ich bin sogar noch neugieriger wenn ich einen sehr logischen und balancierten Beitrag lese. Regpflicht wird IMO nie kommen.
Jeder interessierte wird sich wohl schon ueberdenken muessen wie seine Ausgaben im Vergleich zum Einkommen aussieht und das unabhaengig von dem was er eigentlich besitzt. Wenn die Ausgaben erstmal leicht unter dem Einkommen liegt versucht man erstmal unter normalen Umstaenden diese zu reduzieren und die ueberfluessigsten Ausgaben reduziert oder ganz gestrichen. Und auch hier gibt es keine Regeln, denn man kann auch niemand vorschreiben was wirklich Ueberfluss ist.
Ich hab meine eigene Vorbehaltungen oben schon illustriert und es gibt sicher einige geben die Vorbehaltungen haben werden aus verschiedenen Gruenden.
Wem ein rotes oder gruenes Produkt mit <300W TDP nicht zusteht kann stets zu einem kleinerem Produkt von einem der beiden mit bescheidenerem Stromverbrauch besorgen.
Ach und Dich sollen meine oder andersrum mich Deine finanziellen Affaeren genau wieso interessieren? Wo und wie jeder sein Geld verplempert geht mich persoenlich einen feuchten Dreck an. Ich renn gewiss nicht zu meinem Nachbar und motze ihn an weil er fuer X sein Geld verschwendet.
???? ich denke hier hat jemand vor lauter Zorn nicht einen einzigsten Satz richtig interpretiert :)
Passt aber ins Bild, und viel Spass beim Löschen :)
Ich meine gar nichts, ich räume nur ein das es vieleicht sowas gibt.
Aber wie ich schon sagte Defizite eben :)
PS: Dann frag mal deine MODS on ich Registriert bin.
Aber das Niveau wird langsam zu schwach, have fun :)
PSPS: zu Tombman muss man denk ich nichts mehr sagen, da sagt uns schon seine Sig alles ;)
Entschuldigen Sie bitte das ich mit meinem pupertären Verhalten das Niveau des Threads herunterziehe. Danke nochmals für den Hinweis auf meine "vorhandenen" Defizite.
Was meinen Sie denn mit "Hast du auch zb. 3 Kinder, ein Haus, 3 Autos, die bezahlt werden müssen, da könnte man sich vieleicht schon überlegen ob man die Mehrkosten, für nicht wirklich spürbares, zahlen will.". Sind mehr Fps denn etwas nicht spürbares? Wenn ich für 30 Prozent mehr Fps 30 Prozent mehr zahle kommt das aufs Gleiche raus, dann muss ich mir vielleicht auch 30 Prozent später ne neue Grafikkarte kaufen als andere :wink:
Aber des Niveaus wegen halte ich mich jetzt zurück :freak:
derguru
2010-01-15, 11:18:54
280w soll der tdp sein?holla die waldfee,dann erwarte ich aber fps/watt bezogen eine leistung ganz dicht hinter einer 5970,ein bissel mehr leistung wie eine 5870 wäre total fail und gehört für mich dann in die kategorie das war wohl nix.
ps.leute die sich gedanken gemacht haben wegen einem triple sli sollten sich dann auch gedanken machen ob ein 1000w netzteil reicht und ehrlich gesagt halte ich es unter luft für ein triple kaum für machtbar oder die sonen steigen und steigen.:lol:
MorPheuZ
2010-01-15, 11:23:17
Die 380GTX darf meinen Erachtens die 280w ziehen wenn sie die Leistung der 5970 erreicht IMO.
Ailuros
2010-01-15, 11:24:09
???? ich denke hier hat jemand vor lauter Zorn nicht einen einzigsten Satz richtig interpretiert :)
Es gab keinen einzigen Blitz an Zorn in meinem vorigen Beitrag. Es ist aber eben fuer Dich gerade einfacher der Debatte zu entgehen wenn Dir die Argumente ausgehen.
Passt aber ins Bild, und viel Spass beim Löschen :)
Ich hab guten Grund es stehen zu lassen.
Spasstiger
2010-01-15, 11:27:58
Evtl. wird dann endlich das Thema Mikroruckler von Nvidia auf den Tisch gebracht. Denn wenn man wegen der hohen TDP nicht mit einer Dual-GPU-Karte angreifen kann und die GTX 380 in den Benchmarks schlechter abschneidet als die HD 5970 (was sehr wahrscheinlich ist), dann muss gefühlte Leistung mit der GTX 380 gegenüber der mikroruckelnden HD 5970 besonders hervorgehoben werden. Wobei die HD 5970 ja immer noch Crossfire-SSAA als Trumpf hat, was nicht mikroruckelt.
mapel110
2010-01-15, 11:31:11
Evtl. wird dann endlich das Thema Mikroruckler von Nvidia auf den Tisch gebracht. Denn wenn man wegen der hohen TDP nicht mit einer Dual-GPU-Karte angreifen kann und die GTX 380 in den Benchmarks schlechter abschneidet als die HD 5970 (was sehr wahrscheinlich ist), dann muss gefühlte Leistung mit der GTX 380 gegenüber der mikroruckelnden HD 5970 besonders hervorgehoben werden. Wobei die HD 5970 ja immer noch Crossfire-SSAA als Trumpf hat, was nicht mikroruckelt.
Es wird aber eine Dual-Fermi geben, relativ kurz nach Single-Fermi.
Nach den Erfahrungen von Frank1974
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=444944
Bin ich selbst gar nicht mal so abgeneigt, auch mal dieses Experiment zu wagen. Er meinte zuletzt, dass MR nicht so oft auftreten, dass es einen stören müsste.
Spasstiger
2010-01-15, 11:33:58
Bei 280 Watt Single-GPU-TDP habe ich aber arge Zweifel an einer Dual-GPU-Karte, die sich deutlich von der Single-GPU-Karte absetzen kann.
derguru
2010-01-15, 11:34:07
Es wird aber eine Dual-Fermi geben, relativ kurz nach Single-Fermi.
wie soll das gehen?das sind für mich nur durchhalte parolen,es wird bestimmt irgendwann eine kommen aber ganz sicher nicht 1-2 monate später.
mapel110
2010-01-15, 11:35:05
Bei 280 Watt Single-GPU-TDP habe ich aber arge Zweifel an einer Dual-GPU-Karte, die sich deutlich von der Single-GPU-Karte absetzen kann.
Hat ATI ja auch nicht geschafft, daher wayne. Oder findest du die 40% mehr im Schnitt bei der 5970 so toll?!
Spasstiger
2010-01-15, 11:36:52
Mit SSAA sind durchaus auch mal über 70% Vorteil der HD 5970 gegenüber der HD 5870. Die HD 5970 muss bildquali-technisch gefordert werden, um ihr volles Potential zu entfalten.
derguru
2010-01-15, 11:38:01
Mit SSAA sind durchaus auch mal über 70% Vorteil der HD 5970 gegenüber der HD 5870. Die HD 5970 muss bildquali-technisch gefordert werden, um ihr volles Potential zu entfalten.
eben aber die leute schauen sich ja die reviewseiten mit ihren popel 4-8mssaa an.;D
wenn eine 380gt schon sehr schnell sein soll,wie soll sich dann eine gx2 absetzen unter diesen settings,ich sehe schon das geheule,boah nur 20% schneller als eine 380gt. :lol:
Generell haben sie sich sicher von Intel unter Druck setzen lassen.
Ich verstehs mittlerweile auch nicht mehr, warum man nicht separat einen Gamer-Chip entwickelt. So viel kann das nicht kosten.Reine Gamer-Chips sind nicht die Zukunft.
Gibts dann den ersten 400 Watt Dustbuster. Langsam erreichen wir wirklich Staubsaugerregionen. Zwar die niedrigste Saugleistungsstufe, aber immerhin. :ugly:Eine PCI-E-Karte darf maximal 300 Watt verbrauchen.
mapel110
2010-01-15, 11:44:01
eben aber die leute schauen sich ja die reviewseiten mit ihren popel 4-8mssaa an.;D
wenn eine 380gt schon sehr schnell sein soll,wie soll sich dann eine gx2 absetzen unter diesen settings,ich sehe schon das geheule,boah nur 20% schneller als eine 380gt. :lol:
Bei nvidia braucht man nicht 3 Monate auf ein SLI-Profil zu warten, vor allem nicht bei einem Toptitel. Daher kommt ja dieses miese Rating der Radeons.
Und Crysis möchte ich mit SSAA sehen, aber bitte erst mit der übernächsten Generation.
Reine Gamer-Chips sind nicht die Zukunft.
Wenn nvidia sieht, dass High End Chips keinen Anklang mehr finden, werden sie sich was überlegen müssen.
/edit
Könnte mir vorstellen, dass sie wie ATI eben auch zwei Midrange-Chips zu High End zusammenschalten und für den Profi-Bereich eben einen Single Chip bringen. Mutmaßt man ja derzeit sogar für GF100. Nur wenige Exemplare an Gamer und den Rest schön teuer im Profibereich verscherbeln.
Reine Gamer-Chips sind nicht die Zukunft.
Das glaube Ich auch.
Dazu hätte der Realitäts/Grafikwahn nach Crysis nicht aufhören dürfen und es hätte zu einem Massenphänomen werden müssen.
So wie sich der Markt entwickelt, werden enorme R&D-Budgets allein für Gamerkarten kaum zu rechtfertigen sein.
Ich glaube kaum, dass es einen Aufwand darstellt, einfach für Gamer überflüssige Hardware-Elemente aus dem Design rauszuschmeißen und ein wenig neu anzuordnen. Ich stelle mir das sehr simpel vor. Bei den Chips für andere Marktsegmente (low cost, IGP) wird man das ja wohl ohnehin machen.
Dann hast du keine Ahnung vom Chipdesign.
Das layouten das chips ist vielleicht das kleinste übel.
Aber man muß den Chip auch produzieren.
d.h. anderer Maskensatz -> Tape Out -> usw ...
eben aber die leute schauen sich ja die reviewseiten mit ihren popel 4-8mssaa an.;D
wenn eine 380gt schon sehr schnell sein soll,wie soll sich dann eine gx2 absetzen unter diesen settings,ich sehe schon das geheule,boah nur 20% schneller als eine 380gt. :lol:
LOL in einem Post kritisierst du in welchen Settings die 5970 getestet wird und das die gx2 von Nvidia nur 20 Prozent mehr Leistung im gleichen "popel" Setting bringt. Das soll mal einer verstehen.;D
mapel110
2010-01-15, 11:50:25
Dann hast du keine Ahnung vom Chipdesign.
Das layouten das chips ist vielleicht das kleinste übel.
Aber man muß den Chip auch produzieren.
d.h. anderer Maskensatz -> Tape Out -> usw ...
Und?! ATI macht das für das Segment unter 100 € ja auch etliche Male. 5600er/5500er/5400er etc und alles darunter extra Chips. Es muss sich offenbar lohnen, da etliche Millionen zu verpulvern, um in 10 € Schritten andere Produkte anbieten zu können.
derguru
2010-01-15, 11:50:41
Bei nvidia braucht man nicht 3 Monate auf ein SLI-Profil zu warten, vor allem nicht bei einem Toptitel. Daher kommt ja dieses miese Rating der Radeons.
Und Crysis möchte ich mit SSAA sehen, aber bitte erst mit der übernächsten Generation.
die miesen ratings kommen nicht weil die skalierung mist ist sondern weil die karte kaum gefordert wird abgesehen davon weißt man sich zu helfen bei fehlenden profilen,da wartet man vieleicht paar sekunden.:)
ach crysis kann man jetzt schon mit ssaa genießen,mit 2*5870 karten kommt man auf ca.35fps im durchschnitt unter 1920*1200 4sgsaa/16af.(microruckler in crysis ist harmlos,falls das kommt)
LOL in einem Post kritisierst du in welchen Settings die 5970 getestet wird und das die gx2 von Nvidia nur 20 Prozent mehr Leistung im gleichen "popel" Setting bringt. Das soll mal einer verstehen.;D
ja das muss man erst verstehen,richtig Lu.:wink:
Generell haben sie sich sicher von Intel unter Druck setzen lassen.
Jetzt lässt sich das leicht sagen. Hätte Intel aber ein ordentliches Produkt rausgebracht (und bei deren Marketing hätte es nicht mal eni überlegenes sein müssen), würde es dann heißen, Nvidia hätte ignorant und überheblich den Weltmarktführer unterschätzt usw.
Schauen wir doch erstmal wie gut der Fermi wird. Evtl war es ja doch die richtige Strategie? Gerade im Hinblich auf OpenCL, ComputeShaders usw. dürften jetzt die APIs da sein, das ganze Thema massentauglicher zu machen.
Dann hast du keine Ahnung vom Chipdesign.
Das layouten das chips ist vielleicht das kleinste übel.
Aber man muß den Chip auch produzieren.
d.h. anderer Maskensatz -> Tape Out -> usw ...
Außerdem ist es auch wichtig woher man kommt.
Hat man einen HPC Chip entwickelt und muss nun einen Gamerchip daraus machen?
Oder hat man einen Gamerchip und muss einen HPC Chip daraus machen?
So oder so hat man bei einem Chip einen beträchtlichen Mehraufwand und muss sich auch entscheiden ob nun das Game- oder das HPC-Design das Leaddesign sein soll.
reunion
2010-01-15, 11:59:50
Bei nvidia braucht man nicht 3 Monate auf ein SLI-Profil zu warten, vor allem nicht bei einem Toptitel. Daher kommt ja dieses miese Rating der Radeons.
Gibt es jetzt schon ein SLI-Profil für Dirt2? Ich denke es ist auch hier eine Frage des Support der Entwickler, denn bei Spielen wo AMD supportet ist NV auch nicht schneller.
Und?! ATI macht das für das Segment unter 100 € ja auch etliche Male. 5600er/5500er/5400er etc und alles darunter extra Chips. Es muss sich offenbar lohnen, da etliche Millionen zu verpulvern, um in 10 € Schritten andere Produkte anbieten zu können.
in 10€ Schritten wird kein Chip entworfen.
Meiner Meinung nach lohnt es sich nicht, wenn ich mir die Bilanzen beider so anschaue.
Außerdem ist es auch wichtig woher man kommt.
Hat man einen HPC Chip entwickelt und muss nun einen Gamerchip daraus machen?
Oder hat man einen Gamerchip und muss einen HPC Chip daraus machen?
So oder so hat man bei einem Chip einen beträchtlichen Mehraufwand und muss sich auch entscheiden ob nun das Game- oder das HPC-Design das Leaddesign sein soll.
ich denke der Mehraufwand ist billiger als zwei einzelne Chips zu entwerfen.
MorPheuZ
2010-01-15, 12:29:52
Mit SSAA sind durchaus auch mal über 70% Vorteil der HD 5970 gegenüber der HD 5870. Die HD 5970 muss bildquali-technisch gefordert werden, um ihr volles Potential zu entfalten.
Das wird auch bei Fermi GX2 der Fall sein.
ich denke der Mehraufwand ist billiger als zwei einzelne Chips zu entwerfen.
Das sehe ich genauso.
Die Entwicklung wird, genau wie jetzt schon bei AMD und Intel im Prozessormarkt, immer mehr in die Richtung gehen Highendconsumerprodukte als Nebenprodukte der Entwicklungen für HPC und Servermarkt zu verkaufen.
Aber bei Grafikkarten ist es bis dahin noch ein weiter Weg. Darüber können auch NVs Marketingveranstaltungen nicht hinwegtäuschen.
Ganz ehrlich, die effizienz ist mir sowas von egal. Und ich glaube jeder der sich eine High-End Grafikkarte kauft, den interessiert der verbrauch oder die effizienz nur rudimentär. Dem geht es meistens nur um die fps.
Ich sitz doch nicht vor dem Computer und finde meine grafikkarte so toll weil sie so schön effizient ist. Ich will maximale Leistung und der stromverbrauch interessiert mich auch nicht wirklich. Ich finde diese diskussionen um die idle-verbräuche sogar eher belustigend, ob meine grafikkarte nun 15 watt oder 25watt ist mir sowas von egal.
Ja, wenn man keine Stromrechnung zu zahlen hat, wird das auch in 50 Jahren wenig jucken.
Hatte auch nie Probleme damit, hauptsache immer mehr Leistung.
Heute musste man aber drauf achten, wenn man einen eigenen Haushalt zu führen hat.
Haushalt selbst frisst schon Strom ohne ende, allein hier hat man mittlerweile gut was zu zahlen.
Hinzu kommen sonstige elektrische Spielereien in der Wohnung, plus Hobby -> Konsole/PC und wenn man dann noch von Zuhause aus arbeitet (zb wie ich) und durchgehend die Hardware mit rendereien und zockereien non stop belastet, tun irgendwann auch die paar mehr Watt ziemlich weh. Wenn das ganze dann Ausmaße von um die 1000 Watt annimt, ist es nicht mehr tragbar, da kannst du noch soviel erzählen.
mfg
Palpatin
2010-01-15, 12:55:48
Hat ATI ja auch nicht geschafft, daher wayne. Oder findest du die 40% mehr im Schnitt bei der 5970 so toll?!
Geh ich recht in der Annahme das du auf Computerbase Rating - 2560x1600 4xAA/16xAF anspielst? da sind die 39% bei der 5970 im vergleich zur 5870 immerhin toller als die 35% der GTX 295 auf die GTX 285.
Ich halte es schon für möglich das die GTX 380 nicht das best mögliche Performance Watt verhältnis hat, sprich NV mit einigen Maßnahmen den Verbrauch stärker als die Leistung in Spielen drücken kann und mann so mit der Dual Karte die dann vielleicht weniger RAM etc hat vom Verbrauch hinkommt und am Ende doch im Schnitt 30-40% mehr Frames rausspringen, das das über kastrierte Bandbreite RAM etc wie bei der GTX 295 erkauft und daher so ne Karte für viele Sinnlos ist steht auf nem anderen Blatt. Ist in meinen Augen die 5970 auch, wenn schon dann 2x 5870.
Aquaschaf
2010-01-15, 13:09:55
Könnte mir vorstellen, dass sie wie ATI eben auch zwei Midrange-Chips zu High End zusammenschalten und für den Profi-Bereich eben einen Single Chip bringen.
Für HPC wären Karten mit mehreren Chips viel weniger ein Problem als sie es für Gamer sind. D.h. extra für den Profimarkt einen größeren Chip zu entwickeln macht eigentlich keinen Sinn.
Für HPC wären Karten mit mehreren Chips viel weniger ein Problem als sie es für Gamer sind. D.h. extra für den Profimarkt einen größeren Chip zu entwickeln macht eigentlich keinen Sinn.
Naja die Größe dürfte mehr oder weniger egal sein.
Wichtig wird wohl die Abwärme/Fläche und Kosten/Chip sein.
Also im Endeffekt eher viele kleine Chips.
Gibt es jetzt schon ein SLI-Profil für Dirt2? Ich denke es ist auch hier eine Frage des Support der Entwickler, denn bei Spielen wo AMD supportet ist NV auch nicht schneller.
ja gibts
seit ein paar treibern schon
Ganz ehrlich, die effizienz ist mir sowas von egal. Und ich glaube jeder der sich eine High-End Grafikkarte kauft, den interessiert der verbrauch oder die effizienz nur rudimentär. Dem geht es meistens nur um die fps.
Ich sitz doch nicht vor dem Computer und finde meine grafikkarte so toll weil sie so schön effizient ist. Ich will maximale Leistung und der stromverbrauch interessiert mich auch nicht wirklich. Ich finde diese diskussionen um die idle-verbräuche sogar eher belustigend, ob meine grafikkarte nun 15 watt oder 25watt ist mir sowas von egal.
ich schon, wenn meine graka wenig im idle verbraucht find ich das sehr sehr toll
der last verbrauch ist mir jetzt nicht ganz so wichtig
gerade wo der RV870 so einen exzelenten idle verbrauch hat, wäre alles was deutlich drüber liegt für mich sehr enttäuschend
um +10 watt gehts nicht aber bei 50 und mehr watt idle verbrauch halt ich das für untragbar gemessen an der konkurenz
ist übrigends auch der grund warum ich derzeit durchaus überlegen würde ob 5770 o. GTX260
letztendlich hätte ich mich aber wahrscheinlich doch wieder für die collera entschieden um mich nicht der treiberpest auszuliefern
Über den Idle-Verbrauch mache ich mir keine Sorgen. Für die Tesla-Produkte wäre das sehr ungünstig und deswegen ist es unwahrscheinlich dass Nvidia dort einen Rückschritt macht.
Gerade für Tesla ist der idle-Verbrauch sowas von egal.
Es kauft niemand einen Tesla-Cluster um ihn dann idlen zu lassen :D
Ailuros
2010-01-15, 15:11:32
Gerade für Tesla ist der idle-Verbrauch sowas von egal.
Es kauft niemand einen Tesla-Cluster um ihn dann idlen zu lassen :D
Er meinte wohl im zweiten Satz dass bei Tesla der TDP (fuer 2070) bei 225W halt macht (und deshalb auch 448SPs@1.4GHz). Gegen die 280 von der GF100 ist es schon ein grosser Unterschied.
Mich wundert das es dieser Link bisher nicht hier her geschafft hat, das wird drüben im Luxx schon seit dem Vormittag diskutiert.
http://vimeo.com/8754848
Angeblich ein Far Cry 2 Benchmark der GF100 gegen eine der Karte der Vorgängergeneration.
Obwohl die Systemkonfig nicht bekannt ist haben im Luxx einige User Vergleichsbenchmarks mit 5870er und GTX280/285 laufen lassen, da man die Settings des benchmarks im Video erkennen kann.
bei der Karte der Vorgängergeneration handelt es sich damnach wahrscheinlich um ne GTX280/285.
http://www.hardwareluxx.de/community/showpost.php?p=13762689&postcount=1221
Die Fermi Karte erreicht demnach avg 84 FPS
http://www.hardwareluxx.de/community/showpost.php?p=13762353&postcount=1208
Eine 5870@960/1280 mit nem I7@3,8 und identischen Einstellungen Im Bechmark erreicht avg 80FPS
http://www.hardwareluxx.de/community/showpost.php?p=13762683&postcount=1220
Wenn man die ca. 10% Übertaktung der 5870 abzieht bleiben für die GF100 ca. 15% Vorsprung.
Finde ich nicht sehr prikelnd wenn die 280W TDP stimmen sollten. Außerdem gehe ich davon aus das ATI Zeitnah zum Fermi launch ein Refesh des Cypress in Form einer 5890 bringen welche sicher 15-20% schneller sein wird als die 5870.
Burgard
2010-01-15, 16:19:26
Wenn die Werte tatsächlich echt sind, dann sehe ich es schon kommen.
PR-Abteilung:
Der Fermi ist keine Spielerkarte, sondern wurde primär für den wissenschaftlichen Bereich entwickelt, somit haben wir unser Ziel erreicht.
Wenn die Werte tatsächlich echt sind, dann sehe ich es schon kommen.
PR-Abteilung:
Der Fermi ist keine Spielerkarte, sondern wurde primär für den wissenschaftlichen Bereich entwickelt, somit haben wir unser Ziel erreicht.
Das ist vielleicht auch gar nicht gelogen, aber doch ein sehr schwaches Argument um Fermi an Spieler zu verkaufen.
naja verglichen mit der GTX280 wären es 50% Mehrleistung in FC2 was eigentlich gut ist
aber selbst wenn die Werte stimmen befürchte ich das Farcry2 ziemlich von der "Tesla" auslegung profitieren könnte
AnarchX
2010-01-15, 16:21:58
Da gibt es noch mehr Videos:
http://vimeo.com/8754848
http://vimeo.com/8754676
http://vimeo.com/8754728
http://vimeo.com/8754813
http://vimeo.com/8754874
:D
0.63 FPS GF100 vs 0.23 FPS (GTX 285?) bei Raytracing.
mapel110
2010-01-15, 16:24:41
84 fps bei 1920er Auflösung mit 4xAA wäre jedenfalls sehr ordentlich
http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=10
Da dürfte eh schon die CPU eine große Rolle spielen.
/edit
GTX 295 wäre damit getoppt.
http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/?page=4
Die Videos sind wohl kein Fake.
AnarchX
2010-01-15, 16:27:53
Da es nun wohl 1,2-1,25-fache HD 5870 Leistung bei FarCry 2 sind, stimmt vielleicht sogar dieser Leak vom 1.1.:
3D performance will easily exceed that same level opponents Ati Radeon HD 5870, in the mainstream games, such as: Crysis Warhead, Far Cry 2, HAWX, and Fallout 3, GF 100's performance of HD 5870, respectively 1.6 times, 1.2 times, 1.55 times and 1.2 times.
http://translate.google.de/translate?u=http%3A%2F%2Fitbbs.pconline.com.cn%2Fdiy%2F10903044.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
derguru
2010-01-15, 16:29:53
naja eine 5870 default packt nicht mal in 1920*1080 4aa/16af die 70fps.
http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/?page=4
aber ich finde die werte doch ernüchternd,far cry2 ist nv gebiet und dafür sind werte nicht gerade berauchend,eine 1ghz 5870 sollte gleichziehen.
Da es nun wohl 1,2-1,25-fache HD 5870 Leistung bei FarCry 2 sind, stimmt vielleicht sogar dieser Leak vom 1.1.:
Kurz und bündig (?):
Crysis Warhead: + 60 %
Far Cry 2: + 20 %
HAWX: + 55 %
Fallout 3: + 20 %
Das entspräche den erwarteten 30-40 % im Mittel.
Die Raytracing-Demos von AMD finde ich hübscher ;)
Da dürfte eh schon die CPU eine große Rolle spielen.
Das stimmt, da ja nicht bekannt ist welche CPU in den Rechnern im Video verwendet worden ist.
Allerdings fände ich es schon sehr fragwürdig wenn in so einer "Präsentation" nicht auch ne dicke CPU zum Einsatz käme, sodass die GF100 eben nicht in ein CPU-limit läuft ;)
dildo4u
2010-01-15, 16:34:48
naja eine 5870 default packt nicht mal in 1920*1080 4aa/16af die 70fps.
http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/?page=4
aber ich finde die werte doch ernüchternd,far cry2 ist nv gebiet und dafür sind werte nicht gerade berauchend,eine 1ghz 5870 sollte gleichziehen.
Wieso ist FC2 NV Gebiet?Die 5870 ist gut schneller als die GTX 285.
James Ryan
2010-01-15, 16:35:33
Kurz und bündig (?):
Crysis Warhead: + 60 %
Far Cry 2: + 20 %
HAWX: + 55 %
Fallout 3: + 20 %
Das entspräche den erwarteten 30-40 % im Mittel.
Die Raytracing-Demos von AMD finde ich hübscher ;)
Stellt sich nur die Frage, in wie weit neuere Treiber da noch was oben bewegen könnten. Sollten die 60% in Crysis stimmen, würde mir das persönlich schon reichen, da Crysis eh das einzige Spiel ist, das wirklich deutlich mehr Leistung braucht.
FarCry 2 lief schon auf meiner 8800 GTX ordentlich.
MfG :cool:
AnarchX
2010-01-15, 16:35:42
Bei den Min-FPS des 2. und 3. Durchlaufs steht es schon bei 65 FPS für GF100 und 38 FPS für die andere Karte, also +70%.
MorPheuZ
2010-01-15, 16:38:59
Bei den Min-FPS des 2. und 3. Durchlaufs steht es schon bei 65 FPS für GF100 und 38 FPS für die andere Karte, also +70%.
Stimmt.... hmmm sieht lecker aus wenns dann auch stimmt.
aylano
2010-01-15, 16:40:30
Ist sie dir doch, dir passt es nur ins konzept das ati anscheinend vorne liegt bei der neuen generation, vom stromverbrauch her. Nur was machst du wenn plötzlich nvidia vorne liegen sollte, beim fps/watt verhältnis.
Dass Nvidia bei fps / Watt vorne liegt ist höchst unwahrscheinlich.
Schließlich hatte RV770 & GT200 die ähnliche/selben Performance-Pro-Watt und da war der höhere Stromverbrauch von GT200 kein Thema, da die GT200 dementsprechend schneller war.
Das Problem des GT200 waren die Die-Kosten, wodurch sie nicht mit ATI-Preisen mithalten konnte.
Also, wäre Fermi 30% schneller als RV870, dann wäre ein 30% höherer Stromverbrauch eben kein Problem.
ATI hatte beim R600 eben auf eine effizientere Takt & Spannungs-Verhältnis gesetzt, damit es nicht so schlimm aussieht, wenn man die Krone nicht schafft.
Nvidia schafft sie und will einen deutlichen Abstand, den sie nicht nur immer schon im Auge hatten, sondern ihr Image baut auch recht stark darauf auf.
Es sieht so aus als ob sie den deutlichen Abstand nur mit mehr Spannung erreichen und somit ineffizienter und noch schlechter in Sachen Performance pro Watt werden.
--------------------------------
Nicht zu vergessen ist, Nvidia kann im Vergleich zu ATI die Einheiten besser auslasten.
Daher wenn wenn wenn Fermi wirklich eine TDP von 280 Watt hat, könnte sie mit der selben GT200(b)-Einheiten-Auslastung/Effizienz in Spielen dann ca. 240 Watt verbrauchen, was ca. 50% mehr als HD4870 wäre.
Ich schätze nicht, dass Fermi 50% & 280 TDP schneller ist als HD5870.
Denn Fermi würde dann mit "15%" weniger Takt & "15%" weniger Performance eben besser aussehen
Denn mit 35% Vorsprung und ohne Spannungserhöhung wäre Fermi Stromverbrauchs effizienter.
Aus dieser Überlegung würde ich Fermi bei 20%-40%
(20% bei Worst Case und 40% wenn Nvidia ein RV870-Refresh berücksichtigt) mehr Performance sehen, falls die 280 TDP stimmen würden.
dildo4u
2010-01-15, 16:43:17
Bei den Min-FPS des 2. und 3. Durchlaufs steht es schon bei 65 FPS für GF100 und 38 FPS für die andere Karte, also +70%.
Jup der Bench ist noch ziehmlich CPU limitiert,nur die min fps scheinen den wahren Unterscheid zu zeigen.
Bei den Min-FPS des 2. und 3. Durchlaufs steht es schon bei 65 FPS für GF100 und 38 FPS für die andere Karte, also +70%.
Und 10-20% kriegen die Treiberleute wohl auch noch rausgequetscht bis zum Launch.
Und 10-20% kriegen die Treiberleute wohl auch noch rausgequetscht bis zum Launch.
Bei Beurteilung von min Fps sollte man immer vorsichtig sein.(da reichen schon Framedrops durchs Nachladen)
Zu "Durch neue Treiber wird alles viel schneller" braucht man auch Nichts mehr sagen.
derguru
2010-01-15, 16:50:12
Wieso ist FC2 NV Gebiet?Die 5870 ist gut schneller als die GTX 285.
ich bezieh mich rückwirkend,eine 280gtx war ein gutes stück schneller als eine eine 4870 1gb.
wieso hat eigentlich cb far cry2 aus dem bench parcours raus genommen?
dildo4u
2010-01-15, 16:51:01
Bei Beurteilung von min Fps sollte man immer vorsichtig sein.(da reichen schon Framedrops durchs Nachladen)
Guck dir das Video an das zeigt das die GTX 285 paar Sekunden ohne Nachladeruckler bei 38-40fps hängt.(Expolsion)
tombman
2010-01-15, 16:57:21
@Leak Videos: :massa:
Also scheint Furby doch zu herrschen :cool:
derguru
2010-01-15, 16:59:01
sorry aber was herrscht da?
ich find es sogar lächerlich das eine 1ghz 5870 gleichziehen würde.
jaja die treiber werden es noch bringen;)
chemistry
2010-01-15, 17:00:42
So - jetzt klinke ich mich nach dauerlesen auch mal ein!
Bin gespannt, ob die Videos echt sind - wenn, dann finde ich die Performance toll - wobei man die letztendlichen Specs noch abwarten muss.
Beindruckend finde ich die RayTracing Videos...
Jetzt steigt die Spannung.... :)
dildo4u
2010-01-15, 17:01:10
sorry aber was herrscht da?
ich find es sogar lächerlich das eine 1ghz 5870 gleichziehen würde.
Nicht das CPU Limit vergessen bei dem Bench und gleiche Leistung bei 600mhz vs 1Ghz fänd ich nicht lächerlich.Ich schätze das die 5890 höstens mit 950mhz kommt.
Wäre ca Gleichstand erste Fermi vs 5890 und NV kann dann aber whol noch später mit einer 385 nachlegen.
tombman
2010-01-15, 17:02:08
sorry aber was herrscht da?
ich find es sogar lächerlich das eine 1ghz 5870 gleichziehen würde.
jaja die treiber werden es noch bringen;)
Also, ich kann es jetzt schon sehen ;)
Du mußt natürlich deine Investition beschützen- ist mir klar ;)
sorry aber was herrscht da?
ich find es sogar lächerlich das eine 1ghz 5870 gleichziehen würde.
jaja die treiber werden es noch bringen;)
Nun ja, AMD müsste eine HD 5890 mit mindestens 20 Prozent höherem Takt bringen, um gleichzuziehen. Das fällt auch nicht aus dem Ärmel.
MfG,
Raff
Ronny145
2010-01-15, 17:03:37
Die Videos sind wohl kein Fake.
Also beim Betrachten des ersten Videos hätte ich vom Gefühl her gesagt Fake, weil mir das etwas inszeniert vorkommt.
derguru
2010-01-15, 17:04:18
gleiche Leistung bei 600mhz vs 1Ghz fänd ich nicht lächerlich.Ich schätze das die 5890 höstens mit 950mhz kommt.
was wird das denn jetzt für ein armutsargument.:rolleyes:
Nun ja, AMD müsste eine HD 5890 mit mindestens 20 Prozent höherem Takt bringen, um gleichzuziehen. Das fällt auch nicht aus dem Ärmel.
MfG,
Raff
ja das ist schon richtig aber ich habe aber erwartet das die auch eine 5870 1ghz oc beherschen sollte und dann noch ein tdp von 280w,omg echt.
reunion
2010-01-15, 17:06:39
Nun ja, AMD müsste eine HD 5890 mit mindestens 20 Prozent höherem Takt bringen, um gleichzuziehen. Das fällt auch nicht aus dem Ärmel.
MfG,
Raff
Das braucht es auch nicht. Selbst wenn sie nichts bringen, können sie mit einer solchen Konkurrenz wohl sehr gut leben. 20% mehr Leistung, riesen Die, 280W TDP, und das ganze sechs Monate später. Aber die Leistung wird wohl höher liegen im Durchschnitt, sofern die Videos überhaupt authentisch sind.
dildo4u
2010-01-15, 17:07:53
was wird das denn jetzt für ein armutsargument.:rolleyes:
Was ist es für ein Argument eine OC Karte gegen nicht OC zu vergleichen?Fermi kann man auch OC und NV kann wie ATI ein Refresh bringen,nur ist ATI mit der 5890 schon am Limit für diese Gen.
So - jetzt klinke ich mich nach dauerlesen auch mal ein!
Bin gespannt, ob die Videos echt sind - wenn, dann finde ich die Performance toll - wobei man die letztendlichen Specs noch abwarten muss.
Beindruckend finde ich die RayTracing Videos...
Jetzt steigt die Spannung.... :)
Wobei man sagen muss, dass im ersten Video (wo das Raytracing im Fenster gezeigt wird) gleich drei GF100 im Rechner waren.
Bin auch schon sau gespannt, wenn das kein Kolbenfresser wie Geforce FX wird, ist des meine neue Karte.
pXe
Rolsch
2010-01-15, 17:08:52
Also ich hätte nach dem ganzen Theater mehr erwartet.
tombman
2010-01-15, 17:09:42
ja das ist schon richtig aber ich habe aber erwartet das die auch eine 5870 1ghz oc beherschen sollte.
Das war nur FC2, welches hochgradig Cpu/Ram abhängig ist- warten wir mal auf relevante games wie C. :)
20% mehr Leistung, riesen Die, 280W TDP, und das ganze sechs Monate später. Aber die Leistung wird wohl höher liegen im Durchschnitt, wenn die Videos überhaupt authentisch sind.
Die 20 % scheinen mir eher der Worst Case als das Mittel zu sein...
reunion
2010-01-15, 17:10:40
Die 20 % scheinen mir eher der Worst Case als das Mittel zu sein...
Ich bezog mich auf die Aussage von Raff wie unschwer zu erkennen.
reunion
2010-01-15, 17:12:35
Fermi kann man auch OC und NV kann wie ATI ein Refresh bringen,nur ist ATI mit der 5890 schon am Limit für diese Gen.
Am Limit ist erstmal NV mit der Die-Size. Und bei 280W TDP will ich sehen wie man bei GF100 den Takt noch weiter anheben will. AMDs Refresh soll im Juni kommen, und da sind durchaus auch mehr Einheiten machbar.
dildo4u
2010-01-15, 17:13:15
Am Limit ist erstmal NV mit der Die-Size. Und bei 280W TDP will ich sehe wie NV den Takt noch weiter anheben will. AMDs Refresh soll im Juni mit mehr Einheiten kommen.
280TDP sind wo bestätigt?
Nicht das CPU Limit vergessen bei dem Bench und gleiche Leistung bei 600mhz vs 1Ghz fänd ich nicht lächerlich.Ich schätze das die 5890 höstens mit 950mhz kommt.
Wäre ca Gleichstand erste Fermi vs 5890 und NV kann dann aber whol noch später mit einer 385 nachlegen.
Es sind bereits mehrere 1 GHZ 5870 OC Karten Angekündigt wie etwa die MSI 5870 Lightning oder die Gigabyte 5870 Super Overcloc und ich wette da kommt noch mehr.
Ich würde sogar davon ausgehen das eine 5890 noch schneller sein wird ;)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14057-msi-radeon-hd-5800-im-neuem-gewand-lightning-und-cyclone-gesichtet.html
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14105-gigabyte-radeon-hd-5780-super-overclock-mit-1-0-ghz.html
AnarchX
2010-01-15, 17:13:27
Was sollte an den Videos nicht authentisch sein?
Ein Fake für den man sogar ein Lars Weinand Double besorgt hat?:D
Interessant wäre wie weit die Demo-Karte mit der finalen SKU übereinstimmt oder ob es auch nur 448SPs@1.4GHz waren.
reunion
2010-01-15, 17:14:14
280TDP sind wo bestätigt?
Frag Ailuros, ich werde die Quelle nicht nennen.
AMDs Refresh soll im Juni kommen, und da sind durchaus auch mehr Einheiten machbar.
Vor weniger als zwei Jahren hat AMD mehr als 9 Monate gebraucht, um eine bestehende Karte mit etwas mehr Takt zu bringen (HD4890). Und jetzt sollen sie nach den Monaten mit Problemen bei der Fertigung bei TSMC im selben Zeitraum eine neue Version mit mehr Takt UND mehr Einheiten bringen? Wers glaubt ;)
dildo4u
2010-01-15, 17:14:48
Was sollte an den Videos nicht authentisch sein?
Ein Fake für den man sogar ein Lars Weinand Double besorgt hat?:D
Ah danke hab den Namen vergessen aber ihn erkannt,der hatte doch früher ne bekannte 3D Karten Seite oder?
ich bezieh mich rückwirkend,eine 280gtx war ein gutes stück schneller als eine eine 4870 1gb.
wieso hat eigentlich cb far cry2 aus dem bench parcours raus genommen?
die 4870 war nie der gegenspieler zur GTX280 sondern zur GTX260
enn man sich so anguckt das die 5870 in FC2 gut 50% schneller als die 4870 ist stimmt das verhältnis wieder angenommen das video war GTX380 vs GTX280
MorPheuZ
2010-01-15, 17:15:45
Frag Ailuros, ich werde die Quelle nicht nennen.
Wird aber max TDP sein
reunion
2010-01-15, 17:17:08
Vor weniger als zwei Jahren hat AMD mehr als 9 Monate gebraucht, um eine bestehende Karte mit etwas mehr Takt zu bringen (HD4890). Und jetzt sollen sie nach den Monaten mit Problemen bei der Fertigung bei TSMC im selben Zeitraum eine neue Version mit mehr Takt UND mehr Einheiten bringen? Wers glaubt ;)
Und vor fünf(?) Jahren hat man zwei(?) Monate gebraucht um nach dem R520 einen R580 mit mehr Einheiten zu bringen. Sinnloser Vergleich sag ich da nur. Wenn sie einen solchen Chip rechtzeitig vorgesehen haben spricht nichts dagegen.
Und vor fünf(?) Jahren hat man zwei(?) Monate gebraucht um nach dem R520 einen R580 mit mehr Einheiten zu bringen. Sinnloser Vergleich sag ich nicht.
Ich glaub da hat sich einiges verklärt ;) Zumal 2006 jetzt nicht gerade vor fünf Jahren waren und die zwei Monate....Naja, lies selbst:
http://de.wikipedia.org/wiki/R520#Modelldaten
Wenn sie einen solchen Chip rechtzeitig vorgesehen haben spricht nichts dagegen.
Warum haben sie dann keinen vom RV770 gemacht? Und hatten sie überhaupt die ressourcen, den chip zu entwickeln? ich glaube kaum, dass man TSMC da monatelang hat rumbasteln lassen, da wurden wohl einige ressourcen gebunden, um endlich genug karten liefern zu können.
derguru
2010-01-15, 17:23:34
Was ist es für ein Argument eine OC Karte gegen nicht OC zu vergleichen?Fermi kann man auch OC und NV kann wie ATI ein Refresh bringen,nur ist ATI mit der 5890 schon am Limit für diese Gen.
alter schwede bist du ein extrem fanboy,das geht ja in keine kuhhaut.
haben nicht alle gedacht die soll in 5970 regionen kommen? und jetzt kann eine 5870 oc variante schon mithalten.
und welche depp soll die denn kaufen wenn man von 600 euro zum start ausgeht?
du vielleicht?:wink:
Das war nur FC2, welches hochgradig Cpu/Ram abhängig ist- warten wir mal auf relevante games wie C. :)
muss man sehen dann,ich glaub nicht das es sooo cpu abhängig ist.schade das es keine 8xmssaa benchmarks waren.
reunion
2010-01-15, 17:24:33
Ich glaub da hat sich einiges verklärt ;) Zumal 2006 jetzt nicht gerade vor fünf Jahren waren und die zwei Monate....Naja, lies selbst:
http://de.wikipedia.org/wiki/R520#Modelldaten
Danke, an der Intention meiner Aussage ändert das trotzdem nichts. Dann waren es eben vier Jahre bzw. 3,5 Monate. Cypress wird es schon 6 Monate geben wenn GF100 kommt.
Warum haben sie dann keinen vom RV770 gemacht? Und hatten sie überhaupt die ressourcen, den chip zu entwickeln? ich glaube kaum, dass man TSMC da monatelang hat rumbasteln lassen, da wurden wohl einige ressourcen gebunden, um endlich genug karten liefern zu können.
Offensichtlich waren die DX11-Chips wichtiger, und damit ist man ja nicht so schlecht gefahren würde ich meinen.
Und vor fünf(?) Jahren hat man zwei(?) Monate gebraucht um nach dem R520 einen R580 mit mehr Einheiten zu bringen. Sinnloser Vergleich sag ich da nur. Wenn sie einen solchen Chip rechtzeitig vorgesehen haben spricht nichts dagegen.
das lag aber auch daran das der R580 auch schon lang in der Entwicklung war und der R520 sich einfach nur sehr verzögert hat.
Da ATI diesmal "pünktlich" mit der DX11 Generation dran ist (bis auf lieferprobleme) würde ich nicht von einem kurzfristigen refresh ausgehen
AnarchX
2010-01-15, 17:25:05
Und vor fünf(?) Jahren hat man zwei(?) Monate gebraucht um nach dem R520 einen R580 mit mehr Einheiten zu bringen. Sinnloser Vergleich sag ich nicht.
Vier Monate und R520 war nicht erst für Oktober 2005 geplant.
Und ob AMD von den 334mm² wirklich unter 40nm noch höher geht, ist eher zweifelhaft.
GF100 distanziert sich zwar wie erwartet, aber dessen Verfügbarkeit dürfte wohl noch lange kritisch sein.
Warum haben sie dann keinen vom RV770 gemacht? .
RV790 alias 4890? :ugly:
reunion
2010-01-15, 17:26:46
das lag aber auch daran das der R580 auch schon lang in der Entwicklung war und der R520 sich einfach nur sehr verzögert hat.
Da ATI diesmal "pünktlich" mit der DX11 Generation dran ist (bis auf lieferprobleme) würde ich nicht von einem kurzfristigen refresh ausgehen
Wie schon gesagt: Zum Fermi Launch gibt es Cypress sechs Monate. Selbst wenn es neun Monate dauern sollte hätte man spätestens im Juni einen solchen Refresh. Man kann jedenfalls wohl kaum davon ausgehen das AMD nicht kontert.
MorPheuZ
2010-01-15, 17:27:23
Ich würd jetz nicht überstürzen und schon urteilen, das heisst noch gar nix. Jetz haben wir erstmal ein kleiner Hinweis, oder noch besser, ein Lebenszeichen. Aber obs tatsächlich GF100 war und in welcher Form, oder Tesla oder was auch immer...
dildo4u
2010-01-15, 17:29:17
Ich würd jetz nicht überstürzen und schon urteilen, das heisst noch gar nix. Jetz haben wir erstmal ein kleiner Hinweis, oder noch besser, ein Lebenszeichen. Aber obs tatsächlich GF100 war und in welcher Form, oder Tesla oder was auch immer...
Außerdem gilt hier das Argumert Treiber ebnd doch,durch die ganzen Hardwareverschiebungen haben sie viel Zeit zum tunen im Gegensatz zu ATI.
reunion
2010-01-15, 17:29:31
Und ob AMD von den 334mm² wirklich unter 40nm noch höher geht, ist eher zweifelhaft.
Der 40nm Prozess wird nicht auf ewig Probleme machen. Wenn NV einen GF100 liefern kann dann kann AMD allemal mit einem größeren Chip dagegen halten. Wenn nicht dann hat man eh kein Problem. Aber abwarten.
Danke, an der Intention meiner Aussage ändert das trotzdem nichts. Dann waren es eben vier Jahre bzw. 3,5 Monate. Cypress wird es schon 6 Monate geben wenn GF100 kommt.
Sagt immer noch nichts darüber aus, ob und wann es einen Refresh geben wird. Die letzte Generation lässt eher das Gegenteil vermuten.
Vorallem angesichts dessen, dass ATI nun gut 2 Jahre gebraucht hat um einen RV770 zu verdoppeln und an DX11 anzupassen. Da sind die 6 Monate mehr, die Nvidia für eine neue Architektur braucht eigentlich sehr, sehr gut.
Offensichtlich waren die DX11-Chips wichtiger, und damit ist man ja nicht so schlecht gefahren würde ich meinen.
Das werden wir erst dann wissen, wenn es die offiziellen Benchmarks vom Fermi gibt und natürlich, wann die Nachfolgegeneration kommt. Wenn Fermi so gut wird, dass ATI nicht kontern kann und der Nachfolger erst irgendwann 2011 kommt, sieht die Sache anders aus.
RV790 alias 4890? :ugly:
RV790 hatte mehr Einheiten als der RV770? Wäre mir jetzt neu....
MorPheuZ
2010-01-15, 17:32:38
Außerdem gilt hier das Argumert Treiber ebnd doch,durch die ganzen Hardwareverschiebungen haben sie viel Zeit zum tunen im Gegensatz zu ATI.
Naja, das ist nicht bestätigt. Wir wissen nicht seid wann der Fermi für die Treiber Ingis "fertig" beprogrammierbar waren. Aber hast recht Treiber spielen sicher ebenfalls noch eine gewisse Rolle. Aber ob sie mehr Zeit hatten/haben, bezweifle ich jetz mal.
dildo4u
2010-01-15, 17:35:02
Naja, das ist nicht bestätigt. Wir wissen nicht seid wann der Fermi für die Treiber Ingis "fertig" beprogrammierbar waren. Aber hast recht Treiber spielen sicher ebenfalls noch eine gewisse Rolle.
Imo mher als bei ATI,Fermi ist fast komplett neu.Die 5870 der direkte Nachfolger der 4870 für die der Triber schon optemiert wurde.Sicherlich ist auch noch bei ATI bissel luft bei NV aber meiner Meinung nach mher.
tombman
2010-01-15, 17:36:47
Interessant wäre wie weit die Demo-Karte mit der finalen SKU übereinstimmt oder ob es auch nur 448SPs@1.4GHz waren.
Das fragte ich mich auch.
Btw, selbst wenn ATI mit 'ner OC-Variante gleichziehen kann- nehme ich trotzdem NV ;)
ATI müßte schon deutlich besser sein, bis ich auch nur erwäge nicht NV zu nehmen- vorallem nach Blairs Berichten
über "MR-from-Hell" bei 3x CF ;)
2x bis 3x Fermi wirds vermutlich bei tombi für 2010 werden :)
p.s.: vermutlich wird Fermi die erste Single Gpu sein, die Crysis in Full HD 4/16 @ very high wirklich flüssig darstellen kann :eek: Immerhin, lang genug hats ja gedauert ;D
MorPheuZ
2010-01-15, 17:40:21
Imo mher als bei ATI,Fermi ist fast komplett neu.Die 5870 der direkte Nachfolger der 4870 für die der Triber schon optemiert wurde.Sicherlich ist auch noch bei ATI bissel luft bei NV aber meiner Meinung nach mher.
Ah du deutest auf die ungereiften Treiber bei nv an, dann geb ich dir recht. Schon das deute ich als gutes Zeichen in Hinblick auf die Vids.
mapel110
2010-01-15, 17:40:42
Imo mher als bei ATI,Fermi ist fast komplett neu.Die 5870 der direkte Nachfolger der 4870 für die der Triber schon optemiert wurde.Sicherlich ist auch noch bei ATI bissel luft bei NV aber meiner Meinung nach mher.
Wenn sie eine komplett andere Art TMUs drin haben, ist da sicherlich noch Optimierungsbedarf. Bislang weiß man ja auch nichts über die Qualität der fps. Vielleicht gibts neues AF?! =)
MorPheuZ
2010-01-15, 17:41:10
Das fragte ich mich auch.
Btw, selbst wenn ATI mit 'ner OC-Variante gleichziehen kann- nehme ich trotzdem NV ;)
ATI müßte schon deutlich besser sein, bis ich auch nur erwäge nicht NV zu nehmen- vorallem nach Blairs Berichten
über "MR-from-Hell" bei 3x CF ;)
2x bis 3x Fermi wirds vermutlich bei tombi für 2010 werden :)
p.s.: vermutlich wird Fermi die erste Single Gpu sein, die Crysis in Full HD 4/16 wirklich flüssig darstellen kann :eek: Immerhin, lang genug hats ja gedauert ;D
Hehe, alter Spinner;)
Ich hoffe eigentlich dass mit GF100 ein Multi GPU System hinfällig wird ;)
Hakkerstiwwel
2010-01-15, 17:41:28
Außerdem gilt hier das Argumert Treiber ebnd doch,durch die ganzen Hardwareverschiebungen haben sie viel Zeit zum tunen im Gegensatz zu ATI.
? irgendwie kann ich deiner Logik nicht ganz folgen. Weshalb ist eine Harwareverschiebung bei der Treiberentwicklung von Vorteil. Bei einem erhältlichen Produkt fließ imo mehr Feedback ein, als bei einem nicht erhältlichen.
dildo4u
2010-01-15, 17:43:50
? irgendwie kann ich deiner Logik nicht ganz folgen. Weshalb ist eine Harwareverschiebung bei der Treiberentwicklung von Vorteil. Bei einem erhältlichen Produkt fließ imo mehr Feedback ein, als bei einem nicht erhältlichen.
NV hat intern schon lange Karten zum testen.
Wie schon gesagt: Zum Fermi Launch gibt es Cypress sechs Monate. Selbst wenn es neun Monate dauern sollte hätte man spätestens im Juni einen solchen Refresh. Man kann jedenfalls wohl kaum davon ausgehen das AMD nicht kontert.
Ich glaube nicht das AMD so schnell nachlegt, momentan ist man in der angenehmen Situation die angedachten MSRPs auch mal zu halten und nicht gleich wieder die Preiskeule auspacken zu müssen. ICh denke eher der AMD-Refresh kommt auf halben Weg zwischen GF100-launch und breiter Verfügbarkeit des nächstkleineren Prozessschritts (was sicher länger dauern wird als manche hier wahr haben wollen ;) ).
derguru
2010-01-15, 17:48:48
Ich glaube nicht das AMD so schnell nachlegt, momentan ist man in der angenehmen Situation die angedachten MSRPs auch mal zu halten und nicht gleich wieder die Preiskeule auspacken zu müssen. ICh denke eher der AMD-Refresh kommt auf halben Weg zwischen GF100-launch und breiter Verfügbarkeit des nächstkleineren Prozessschritts (was sicher länger dauern wird als manche hier wahr haben wollen ;) ).
ich glaub auch nicht mehr das amd so schnell was nach legt weil es einfach nicht notwendig ist,hast recht.
hoffentlich kommen bald weitere benchmarks,ich brauch was zum lachen.;D
tombman wenn du ein triple aufbauen willst solltest du ein stäkeres netzteil in erwägung ziehen,1000w reicht dann nicht mehr.:tongue:
Hakkerstiwwel
2010-01-15, 17:50:22
NV hat intern schon lange Karten zum testen.
das beantwortet allerdingd nicht die Frage warum aufgrund der Hardwareverschiebung die Treiberentwicklung schneller gehen soll als bei fertiger Hardware??
dildo4u
2010-01-15, 17:54:49
das beantwortet allerdingd nicht die Frage warum aufgrund der Hardwareverschiebung die Treiberentwicklung schneller gehen soll als bei fertiger Hardware??
Die Hardware ist für Treiberoptemierung lange brauchbar/fertig.Takt und Verbrauch der ersten Steppings verhindern eine kommerzielle Release bisher.Im Labor ist es egal wenn die Karte nur mir 500mhz läuft und 300Watt verbraucht man kann trotzdem optemieren.
Sagt immer noch nichts darüber aus, ob und wann es einen Refresh geben wird. Die letzte Generation lässt eher das Gegenteil vermuten.
Vorallem angesichts dessen, dass ATI nun gut 2 Jahre gebraucht hat um einen RV770 zu verdoppeln und an DX11 anzupassen. Da sind die 6 Monate mehr, die Nvidia für eine neue Architektur braucht eigentlich sehr, sehr gut.
Also wenn man bedenkt das der GT200 im Groben noch ein G80 ist stecken da schon deutlich mehr als 6monate drin
also zaubern können die nicht ;)
AnarchX
2010-01-15, 17:56:43
Das fragte ich mich auch.
Wenn man dem Chinesen glaubt, der am 1.1. schon die 1,2x für FarCry 2 genannt hat, dann waren es wohl nur 448SPs:
http://itbbs.pconline.com.cn/diy/10903044.html
輕易超越 HD 5870
GF 100 實際效能表現,備受業界及用家關注。消息指,單核版本、擁有 448 CUDA Core 的 GF 100 顯示卡,3D 效能將輕易超越同級對手即 Ati Radeon HD 5870,在主流遊戲如:Crysis Warhead、Far Cry 2、H.A.W.X 及 Fallout 3,GF 100 的效能分別為 HD 5870 的 1.6倍、1.2倍、1.55倍及1.2倍。
Surmounts HD easily 5870 GF 100 actual potency performance, is subject to the field and pays attention with the family. The news refers to, the single nucleus edition, will have 448 CUDA Core GF 100 indicators, the 3D potency will surmount the same level match will be easily Ati Radeon HD 5870, at mainstream game for example: Crysis Warhead, Far Cry 2, H.A.W.X and Fallout the 3, GF 100 potency respectively are HD 5870 1.6 time, 1.2 time, 1.55 times and 1.2 times.
Easily beyond the HD 5870
GF 100 actual performance, highly concerned about the industry and users. Sources indicated that single-core version, with 448 CUDA Core of the GF 100 graphics card, 3D performance will easily exceed that same level opponents Ati Radeon HD 5870, in the mainstream games, such as: Crysis Warhead, Far Cry 2, HAWX, and Fallout 3, GF 100's performance of HD 5870, respectively 1.6 times, 1.2 times, 1.55 times and 1.2 times..
Also könnte da ein 512SPs Fermi, sofern er erscheint und die 448SPs für die Demo-Karte stimmen, wohl nochmal gut 10% Leistung drauflegen.
Also 1,3x 5870 für FC2 und fast 1,8x 5870 für Crysis Warhead. ;)
Also wenn man bedenkt das der GT200 im Groben noch ein G80 ist stecken da schon deutlich mehr als 6monate drin
Ich red von Fermi und RV870 und du? :D
Also 1,3x 5870 für FC2 und fast 1,8x 5870 für Crysis Warhead. ;)
Was zumindest in Crysis eine HD5970 schlagen würde:
http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/?page=3
Ich red von Fermi und RV870 und du? :D
Und? Soll jetzt Nvidia sich damit trösten dass Sie "nur" 6 Monate zu spät sind?
WTF?
Ich red von Fermi und RV870 und du? :D
ich auch, ich wollte darauf hinaus das es seit G80 2006 keine neue Architektur mehr bei NV gab
Wenn man dem Chinesen glaubt, der am 1.1. schon die 1,2x für FarCry 2 genannt hat, dann waren es wohl nur 448SPs:
http://itbbs.pconline.com.cn/diy/10903044.html
Also könnte da ein 512SPs Fermi, sofern er erscheint und die 448SPs für die Demo-Karte stimmen, wohl nochmal gut 10% Leistung drauflegen.
Also 1,3x 5870 für FC2 und fast 1,8x 5870 für Crysis Warhead. ;)
hmhm... fermi schneller als 5970er ... klar. und ich bin der kaiser von china.
also sorry. aber wer diesen schwachsinn jetzt glaubt, basierend auf einen chinesischen foreneintrag und ein paar videos bei denen mann überhaupt nicht gesischert sagen kann was da in den pcs gesteckt ist... ähmm.... tja. selber schuld sag ich da nur.
aber schon klar... nvidia hat jetzt mal reagieren müssen nachdem die allgemeine stimmung schon sehr ins negative abgedriftet ist. "releasen wir mal ein paar videos, die community wird ihr übriges tun ;)
jetzt mal im ernst: glaubt wirklich jemand ERNSTHAFT, dass eine 360er!! in crysis DOPPELT so schnell sein wird wie eine 285er?
y33H@
2010-01-15, 18:04:23
FC2 ist bei einer Karte der Fps-Klasse mit 1920 + 4x iirc massiv CPU-limitiert im "Ranch small".
derguru
2010-01-15, 18:05:01
das will ich aber erst sehen das eine gt300 60-80% schneller in warhead ist als eine 5870,so wäre die ja mehr als doppelt so schnell wie eine 285gtx.:rolleyes:
oder haben die 2560*1600 8aa als setting genommen,mit 1,5gb ram vorstellbar weil die anderen einbrechen:wink:
tombman
2010-01-15, 18:10:11
tombman wenn du ein triple aufbauen willst solltest du ein stäkeres netzteil in erwägung ziehen,1000w reicht dann nicht mehr.:tongue:
Deswegen hab ich auch schon lange ein Enermax 1250W Revolution mit 80+ Silber und über 100 Ampere auf 12V ;)
Warst wohl nicht auf dem neuestem Stand, was? :tongue:
Soviel zum Thema "tombman ist kein fanboi" :lol:
Eine Boje bin ich echt nicht ;D
Was du meinst, wäre ein fanboY, aber auch das bin ich nicht, denn ein f. kauft stur eine Marke, auch wenn sie schlechter ist. Da ich SLI, besonders bei mehr 2 Gpus, gegenüber Crossfire überlegen halte, außerdem NV developer relations und Treiber im Vergleich zu ATIs für besser halte, kaufe ich NV.
Das sind wohlüberlegte und von Erfahrung gestützte Entscheidungen. Fanbojen brauchen sowas nicht, die kaufen stur und verteidigen bis aufs Blut.
So, jetzt ist die Lehrstunde aber vorbei :)
Und? Soll jetzt Nvidia sich damit trösten dass Sie "nur" 6 Monate zu spät sind?
WTF?
Dafür haben sie eine neue Architektur und ATI nicht. Deren Vorteil wird sich auch sehr bald zeigen (also der, der neuen Architektur ;)). ATI hat diesen Schritt noch vor sich, wer weiß wielange die dafür brauchen?
Dennoch halte ich 30 Monate nicht für viel im Vergleich zu 24 Monate für einen relativ simplen Aufguss. Hätte Nvidia auch machen können, dann wäre der GT300 wohl deutlich früher am Markt gewesen, aber eben längst nicht so schnell.
ich auch, ich wollte darauf hinaus das es seit G80 2006 keine neue Architektur mehr bei NV gab
Richtig, bei ATI auch nicht. Die wollen es ja mit der nächsten Generation machen.
jetzt mal im ernst: glaubt wirklich jemand ERNSTHAFT, dass eine 360er!! in crysis DOPPELT so schnell sein wird wie eine 285er?
Der GT200 war in vielen Bereichen auch doppelt so schnell wie der G80.
Nicht zu vergessen, im Raytracing ist der GF100 sogar 3x so schnell wie der GT200 :P
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.