Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 4 (leider nicht der letzte?)
Lawmachine79
2007-02-13, 12:41:00
"Kampfwurst
22. November 2006, 13:04
vermutungen sagen mit vista release. sprich 27.1 - 30.1.2007"
Vielleicht erinnerst Du Dich ja an diesen Post...also, nicht vergessen, Deine Trefferquote liegt auch nicht gerade bei 100% ;) ...
@warmachine79
Die Retail-Karte wird ~24 cm lang sein, also kürzer als jede GTX.
Auch das PCB der OEM-Karte ist nur 24 cm lang, also bringen die DPMW schon etwas.
Was erwartest du denn, eine 10 cm Karte oder was? ;D
Irgendwo müssen die Speicherchips ja auch hin.
MfG :cool:
Auch wenn es "nur" 24cm sind. Die Frage bleibt die gleiche. Angenommen die ist nicht deutlich schneller als die GTX und man ist auf eine 2Chiplösung angewiesen würde man die nicht mehr auf ein erträglich langes PCB draufkriegen. Deshalb denke ich ja, daß man die 2Chiplösung mit einem kleineren Chip realisiert hat.
Ich "beschwere" mich doch nicht über die Größe. Ich sage nur, daß sie eine der Wurzeln für meine Vermutung ist, daß es eine 2 Chiplösung mit kleineren Chips geben wird.
Ailuros
2007-02-13, 12:51:51
8800GTX = 10.5"
X2800XTX = 9.4"
Lawmachine79
2007-02-13, 12:58:06
8800GTX = 10.5"
X2800XTX = 9.4"
Und wie groß WÄRE die X2800XTX wenn man zwei vollbestückte R600 draufpacken müsste? 14-15"?
Die gelbe Eule
2007-02-13, 13:09:52
Die würde kaum größer sein, weil man die Chips diagonal anordnet und somit nur etwas in die Höhe gehen müsste, was ja seit der Gemini kein Problem darstellt.
Ailuros
2007-02-13, 13:14:08
Und wie groß WÄRE die X2800XTX wenn man zwei vollbestückte R600 draufpacken müsste? 14-15"?
ATI haette eine komplette Macke wenn sie an so ein Monster vor dem 65nm shrink ueberhaupt denken wuerde.
http://www.theinquirer.net/default.aspx?article=37588
Na, ob man sich da mal nicht ein paar Impressionen bei der Konkurrenz geholt hat. ;)
deekey777
2007-02-13, 13:53:26
http://www.theinquirer.net/default.aspx?article=37588
Na, ob man sich da mal nicht ein paar Impressionen bei der Konkurrenz geholt hat. ;)
The card supports Vivo and comes with Dual DVI. It has a dual-slot heatsink and consumes 240W of power, some 30W less than the big mamma. It has two 2x3 standard PCIe connectors the same two you can see on the G80, Geforce 8800 GTX cards. It looks more like graphic cards we're used to seeing.
Und jetzt schauen wir alle auf die Zeichnung und staunen. :biggrin:
lol schon etwas peinlich für so ein blatt
deekey777
2007-02-13, 14:05:26
lol schon etwas epinlich für so ein blatt
Für das Blatt ist nichts peinlich bzw. nicht peinlich genug. :biggrin:
Die gelbe Eule
2007-02-13, 14:09:26
http://www.theinquirer.net/images/articles/R600XTX.jpg
Da sieht man 2x6 PIN, nicht mehr 1x8PIN und 1x6PIN, also nix mit PCI 2.0 konform.
deekey777
2007-02-13, 14:16:27
http://www.theinquirer.net/images/articles/R600XTX.jpg
Da sieht man 2x6 PIN, nicht mehr 1x8PIN und 1x6PIN, also nix mit PCI 2.0 konform.
Und was genau sieht man da? Welche Grafikkarte? Eine fertige OEM-R600? Einen Prototypen mit älterer Revision des R600?
http://img300.imageshack.us/img300/5167/pic4da4.jpg
Nichteinmal bei diesem Modell weiß man so genau, um welchen Status des R600 es sich handelt.
http://www.beyond3d.com/forum/showthread.php?p=926598#post926598
Moralelastix
2007-02-13, 14:36:18
Die runde Klappe ist also doch zum steuern der Luftzufuhr des Lüfters bei Crossfire....
..oder nur ne Vorserie...
Was ich auch net versteh:
Wieso verschenken sie soviel Platz fast 1/3 der Breite für Kühlfinnen unter der Plastikhaube an die Heatpiperöhrchen....suboptimal.
dreas
2007-02-13, 14:47:40
Was ich auch net versteh:
Wieso verschenken sie soviel Platz fast 1/3 für Kühlfinnen unter der Plastikhaube an die Heatpiperöhrchen....
Der Luftstrom ist eh nicht breiter und die Heatpiperöhrchen müssen auch noch hin passen.
Moralelastix
2007-02-13, 14:55:29
Ok, beim G80 hats nur eine Heatpipe aber dafür nutzen sie auch die ganze Breite der Grafikkarte für Kühlfinnen.
http://www.xbitlabs.com/images/video/gf8800/gf8800_cooler_front_nc_sm.jpg
Sie haben dort genau und extra für die Heatpipes die Finnen ausgeschnitten.....mhm!
dreas
2007-02-13, 14:57:41
Scheint aber kein Kupfer zu sein und die Kühlflache ist beim G80 kürzer.
mfg dreas
Moralelastix
2007-02-13, 15:03:06
Der R600 wird auch mehr Wärme abzuführen haben und die Retail Version hat G80 Dimensionen.
dreas
2007-02-13, 15:07:28
Die OEM-Version wird einfach günstiger sein (müssen)
Daher wird die Retailvariante sicherlich teurer in der Herstellung sein.
mfg dreas
Moralelastix
2007-02-13, 15:14:15
Gibts net schon ein Bild von der Retail Versio auf der die Heatpipes und Kühlfinnen ähnlich angeordnet sind. Find das Bild grad net......
Ahh hier: http://uk.theinquirer.net/?article=37588
Sieht nach 3 Pipes aus und das Gleiche wie bei der OEM Version 1/3 der Breite wird wieder nicht für die Finnen genutzt.....
K4mPFwUr$t
2007-02-13, 15:16:49
da müsste man den kühler nur halbieren, sprich statt 4 heatpipes nur 2.
wenn ich das auf der skizze richtig deute :|
Wechselbalg
2007-02-13, 15:23:06
Ich könnte mir auch vorstellen, dass der Retailkühler recht deutliche Anleihen bei der X1950XTX hat. Es würde mich zumindest wundern, wenn diese extra noch ein eigenes Kühlerdesign bekommt, das aber nicht mal in Ansätzen sonst weiterverwertet wird. Also eventuell ähnlich wie bei X850XT und X1800XT, wo man nur Heatpipes hinzufügte. Wobei die Basis hier natürlich weitaus besser wäre. ^^
Der R600 wird auch mehr Wärme abzuführen haben und die Retail Version hat G80 Dimensionen.
Ja, DPMW hat halt auch Nachteile. Zumindest dürfte das auch einer der Gründe für das monströse Kühlerdesign sein.
http://www.ocworkbench.com/2007/newsphotos/feb/R600%20info.jpg
Eine 2800XTX mit 2 Chips auf einem Board?
reunion
2007-02-13, 16:03:04
Zumindest dürfte das auch einer der Gründe für das monströse Kühlerdesign sein.
Was für ein monströses Kühldesign? Die Platine ist über ein Zoll kleiner als die eines G80 und der Kühler ist laut dem INQ-Bild nochmal deutlich kürzer als die Platine. Der Kühler wird insgesamt sicher kleiner als auf G80.
Lawmachine79
2007-02-13, 16:18:15
Was für ein monströses Kühldesign? Die Platine ist über ein Zoll kleiner als die eines G80 und der Kühler ist laut dem INQ-Bild nochmal deutlich kürzer als die Platine. Der Kühler wird insgesamt sicher kleiner als auf G80.
Der Gast war ich. Hmm, vielleicht habe ich Pupillencholera aber irgendwie sieht der Kühler der Karte riesig aus...in der Länge, das meine ich. Ich beziehe mich auch nicht auf das INQ-Bild sondern auf das andere, was hier aufgetaucht ist, wo die Stromstecker einmal mit 8-fach und einmal mit 6-fach drauf sind. Aber das ist dann bestimmt die für die OEMs gedachte Variante. Und ich meine in der Tat den Kühler, nicht die Platine.
http://www.ocworkbench.com/2007/newsphotos/feb/R600%20info.jpg
Eine 2800XTX mit 2 Chips auf einem Board?
Guten Morgen! Von dieser Tabelle rede ich die ganze Zeit schon. Kampfwurst hat das auch schon übersehen. Funzt der Link nicht, den ich gepostet habe?
reunion
2007-02-13, 16:20:30
@warmachine76
glaub ruhig weiter an deine dual chip R600 lösung :rolleyes:
zumal informiere dich erstmal über DPWM, was ich damit meinte.
der g80 hat kein DPWM, daher soviel platzhunger.
Der G80 hat vorallem aufgrund des NVIO "soviel" Platzhunger. Aber natürlich spielt auch die Stromversorgung eine große Rolle. Dies dürfte allerdings bei R600 ähnlich sein, denn der Core selbst sitzt sogar näher an den DVI-Port wie bei R580. ATi hat die Platine offensichtlich stark gequetscht, um mehr Platz für die Stromversorgung frei zu bekommen.
Der Gast war ich. Hmm, vielleicht habe ich Pupillencholera aber irgendwie sieht der Kühler der Karte riesig aus...in der Länge, das meine ich. Ich beziehe mich auch nicht auf das INQ-Bild sondern auf das andere, was hier aufgetaucht ist, wo die Stromstecker einmal mit 8-fach und einmal mit 6-fach drauf sind. Aber das ist dann bestimmt die für die OEMs gedachte Variante. Und ich meine in der Tat den Kühler, nicht die Platine.
Wen interresiert die OEM-Version?
Im Handel wirst du nur die Retailversion kaufen können.
paul.muad.dib
2007-02-13, 16:31:54
Wen interresiert die OEM-Version?
Im Handel wirst du nur die Retailversion kaufen können.
Auch die 7900 GX2 ist in den Handel gelangt.
reunion
2007-02-13, 16:33:47
BTW, so schlecht scheint ATIs Unified-Shader-Architekur nicht zu sein, speziell was Performance/Watt betrifft:
ST Licensed AMD Unified Shader Technology (http://www.vr-zone.com/index.php?i=4655)
“A thorough benchmarking study by ST confirmed that AMD has best-in-class hardware-accelerated technology, with game console quality and high-performance vector graphics capabilities for the user interface and other applications such as GPS,” said Jyrki Hannikainen, general manager of ST’s Application Processor Division.
Anarchy-HWLUXX
2007-02-13, 16:36:13
Was für ein monströses Kühldesign? Die Platine ist über ein Zoll kleiner als die eines G80 und der Kühler ist laut dem INQ-Bild nochmal deutlich kürzer als die Platine. Der Kühler wird insgesamt sicher kleiner als auf G80.
Also wenn die R600 ~30-40W mehr braucht als ne 8800GTX dafür aba nen Kühler mit GTS abmessungen hat wird das nix mit "leise" ...
Moralelastix
2007-02-13, 16:36:59
Ahh, jetz is mir ein Licht aufgegangen die runde Klappe is ........
..... zum Abnehmen und darauf kann man dann einen Aufsatz von Vorwerk stecken mit Schlauch drann und den PC aussaugen. :biggrin:
http://images.google.de/images?q=tbn:xgORayhHWEEkbM:http://www.afterbuy.de/images/42085/182.jpg
reunion
2007-02-13, 16:38:33
Auch die 7900 GX2 ist in den Handel gelangt.
Damals gab es auch keine Alternative, da die 7950GX2 erst wesentlich später kam. Was einige Hersteller natürlich gleich nützten, um eine vermeidliche Marktlücke zu schließen. Diesmal sehe ich keine Grund, warum ein Hersteller diesen lagen Kühler im Retailmarkt verbauen sollte. Es gab auch in der Vergangenheit "full-size"-OEM-Karte, die allerdings nie in den Handel kamen. Und selbst wenn ein paar Karten in den freien Handel kommen sollten, sehe ich keinen Grund, die zu kaufen.
robbitop
2007-02-13, 16:38:51
BTW, so schlecht scheint ATIs Unified-Shader-Architekur nicht zu sein:
ST Licensed AMD Unified Shader Technology (http://www.vr-zone.com/index.php?i=4655)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=349027
Sind nur die PDA Chips.
reunion
2007-02-13, 16:43:21
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=349027
Sind nur die PDA Chips.
Gerade da wäre die Performance/Watt wichtig.
paul.muad.dib
2007-02-13, 16:44:42
Damals gab es auch keine Alternative, da die 7950GX2 erst wesentlich später kam. Was einige Hersteller natürlich gleich nützten, um eine vermeidliche Marktlücke zu schließen. Diesmal sehe ich keine Grund, warum ein Hersteller diesen lagen Kühler im Retailmarkt verbauen sollte. Es gab auch in der Vergangenheit "full-size"-OEM-Karte, die allerdings nie in den Handel kamen. Und selbst wenn ein paar Karten in den freien Handel kommen sollten, sehe ich keinen Grund, die zu kaufen.
Die 7900 GX2 wurde aber noch lange weiterverkauft, als es die 7950 schon gab. Welche OEM KArten haben denn den Retail Markt nicht erreicht?
Für eine X2800 XTX OEM sehe ich schon Nachfrage, wenn sie leiser oder billiger ist. Wer ein großes Gehäuse oder einen ausbaubaren Festplattenkäfig hat, sollte die auch verwenden können.
reunion
2007-02-13, 16:52:22
Die 7900 GX2 wurde aber noch lange weiterverkauft, als es die 7950 schon gab.
Einmal ausgelieferte Karten kann man natürlich nicht wegschmeißen.
Welche OEM KArten haben denn den Retail Markt nicht erreicht?
Es gab zB NV40 und G70-Karte mit "full-size". Manche Hersteller wie Dell stehen darauf, die Karten am Henkel zu befestigen.
Anarchy-HWLUXX
2007-02-13, 17:06:30
Jau, Dell bastelt sich seine fullsize Karten selb000r :
http://www.starcomputers.co.uk/prodspics/dell-7800gtx.jpg
crux2005
2007-02-13, 17:08:35
GeForce 6800Ultra DLL ;)
http://www.macmadang.com/files/images/20040914133838.68.6.jpg :crazy:
Moralelastix
2007-02-13, 17:08:39
Wow, Hightech ganz besonders im letzten Drittel.
Hä, is das bei der 6800 ein Stromanschluss vor dem Interface?
(+44)
2007-02-13, 17:34:12
Sieht mir nach nem erweiterten AGP-PRO aus, evtl irgendwas Apple-Eigenes...
Dank AGP-PRO braucht sie jedenfalls keinen Zusätzlichen Stromstecker.
crux2005
2007-02-13, 17:58:19
ja, die wurde in den Apple Power Macs benutzt ...
Anarchy-HWLUXX
2007-02-13, 18:18:17
AMD bringt Extrerne GraKas mit 16* anbindung ... dagegen ist die Asus PCIe 1* lösung a bissi am abstinken ...
http://uk.theinquirer.net/?article=37607
R600 Crossfire am Laptop ? Und auf der externen Kiste kann man sich noch nen paar eier Braten :eek:
AMD bringt Extrerne GraKas mit 16* anbindung ... dagegen ist die Asus PCIe 1* lösung a bissi am abstinken ...
http://uk.theinquirer.net/?article=37607
R600 Crossfire am Laptop ? Und auf der externen Kiste kann man sich noch nen paar eier Braten :eek:
Warum nicht als kleines, externes MXM Modul? Wäre handlicher als ne Karte in voller Größe...
Anarchy-HWLUXX
2007-02-13, 18:46:29
Warum nicht als kleines, externes MXM Modul? Wäre handlicher als ne Karte in voller Größe...
MXM module wären aber teurer als großserien Karten und kein stück schneller als im Notebook selbst, weiterhin bekommt man se inetwa nirgendwo als enduser -> Unsinn².
Die ganzen vorteile für Mobilen gebrauch vonwegen Kühl, Klein, Stromsparend usw. sind belanglos wenn die Box gescheite Kühling und ein eigenes NT bietet ...
Das Teil soll ja nicht unterwegs benztzt werden - jedenfalls nicht im Akkubetrieb.
Die gelbe Eule
2007-02-13, 18:48:59
X2800XL, code number UFO, the operating frequency also must lower some compared to X2800XT, matches 512MB GDDR3 to reveal saves, the collection forms a pair DVI and TV-Out, does not support the video input (other 4 section all to support VIVO) the length 9 inches,the radiatoroccupies 2 slots, power loss 180W, individually the 6pinpower sourceconnection, in April goes on the market the sale.
Gelesen auf PCPOP.
MXM module wären aber teurer als großserien Karten und kein stück schneller als im Notebook selbst, weiterhin bekommt man se inetwa nirgendwo als enduser -> Unsinn².
Genau das sollte sich eben ändern. Breite Verfügbarkeit und bessere Preise. Aber langsamer? Wieso denn, wenn der
Chip und der Ram derselbe sind?
robbitop
2007-02-13, 20:07:18
Gerade da wäre die Performance/Watt wichtig.
Ja nur hat der Imagenon oder Bitboys Kram nichts mit USC zu tun. Würde mich wundern, wenn die überhaupt programmierbar sind. Gegenüber SGX/MBX sind die ATI Handhelds in Punkto Punch/Watt und Features eher ganz arme Würstchen.
Nakai
2007-02-13, 20:08:39
Immer die mit ihren Stromverbrauch. Mir reichts langsam. Der R600 wird höchstens 225 Watt verbraten. Um Raum nach oben zu lassen, wirds an die 180 Watt.
Und die XL wird soviel wie eine X1900XTX verbrauchen.
mfg Nakai
Die gelbe Eule
2007-02-13, 20:15:32
Beweise oder Spekulation?
K4mPFwUr$t
2007-02-13, 20:18:30
weder noch, einfach logisches denken.
ich sehe das genau so wie nakai, ein paar transistoren mehr zum G80 machen noch lange keine 100w aus. da würde ich eher einer sehr sehr sehr sehr frühen version / sampelns / revision des r600 die 200w+ zumuten, als die finale version. es kann aber damit gerechnet werden das bis zum r700, ati die tendenz weiterhin halten wird etwas mehr verbrauchen zu müssen als die konkurenz.
Nakai
2007-02-13, 20:20:03
Die X2800XL hat nur einen 6 Pin-Anschluss, das macht maximal 150 Watt. Natürlich muss man wieder Raum nach oben lassen, also an die 130 Watt.
Das gleiche bei der XTX und XT-Version.
Die Angaben von 240 Watt sind nur für die Retailer gedacht, die Komponenten auf diese Angaben aufbauen, wie Netzteile und Kühlungen.^^
mfg Nakai
boxleitnerb
2007-02-13, 20:46:49
Bei prognostizierten 20% Mehrleistung ggü. einer GTX (Wenn die 3DMurks Werte denn stimmen), wäre alles andere sehr ineffizient. Die Ingenieure bei AMD/ATI sind ja auch nicht doof.
Bei prognostizierten 20% Mehrleistung ggü. einer GTX (Wenn die 3DMurks Werte denn stimmen), wäre alles andere sehr ineffizient. Die Ingenieure bei AMD/ATI sind ja auch nicht doof.
Das gleiche dachte man sich auch über die Ingenieure von Nvidia, bevor der NV30 auf den Markt kam. ;)
weder noch, einfach logisches denken.
ich sehe das genau so wie nakai, ein paar transistoren mehr zum G80 machen noch lange keine 100w aus. da würde ich eher einer sehr sehr sehr sehr frühen version / sampelns / revision des r600 die 200w+ zumuten, als die finale version. es kann aber damit gerechnet werden das bis zum r700, ati die tendenz weiterhin halten wird etwas mehr verbrauchen zu müssen als die konkurenz.
allein von der anzahl der transiatoren kann man aber schwer auf die verlustleistung schließen, da spielen noch andere sachen rein, wie zB die spannung, takt und wo und als was die transistoren eingesetzt werden.
K4mPFwUr$t
2007-02-13, 21:15:08
trozdem macht das noch lange keine 100w mehr gegenüber dem G80 aus, wie manche hier denken.
Beweise oder Spekulation?
Er hat da so seine Quellen :D
Sind das nicht zu viele Karten auf einmal ?
http://www.ocworkbench.com/2007/newsphotos/feb/R600%20info.jpg
http://forums.ocworkbench.com/bbs/showthread.php?p=405788#post405788
LovesuckZ
2007-02-13, 22:21:39
alt und fake.
Hauwech
2007-02-13, 22:27:24
Diese Lücke zwischen 2800GTO und 2600XT, ist die für den Preisbereich nicht ein wenig gross? Oder kommt da eventuell noch eine 2600XTX?
Edit: Ok, vergesst was ich gefragt habe :)
deekey777
2007-02-13, 22:29:12
Diese Lücke zwischen 2800GTO und 2600XT, ist die für den Preisbereich nicht ein wenig gross? Oder kommt da eventuell noch eine 2600XTX?
alt und fake.
Dem gibt es nichts hinzuzufügen. Du brauchst nichts, deine kostbare Zeit mit diesem Fake zu verschwenden. :)
Das gleiche dachte man sich auch über die Ingenieure von Nvidia, bevor der NV30 auf den Markt kam. ;)
der NV30 wäre auch eine sehr gute karte geworden hätte es denn R300 nicht gegeben ;)
dargo
2007-02-13, 22:43:16
Dies dürfte allerdings bei R600 ähnlich sein, denn der Core selbst sitzt sogar näher an den DVI-Port wie bei R580.
Um welche Dimensionen gehts hier?
Je näher die Hitzequelle an den Ports umso besser, imho. Somit bräuchte man den Lüfter nicht so schnell drehen lassen. Oder sehe ich das falsch?
Sterem
2007-02-13, 22:59:08
Wann gibts endlich Benchamrks?:mad: Rückt mall paar werte raus ihr NDA stehenden 3d Fanatiker....
"". An der Spitze steht offenbar eine Karte, mit der niemand gerechnet hat. Hinter der Bezeichnung Radeon X2800 XTX2 steht eine Dual-Chip-Grafikkarte mit 2x 96 Shadereinheiten und 2x 512 MByte GDDR4-Speicher.""
ob akt. spiele davon was haben ?
also ohne die engine dafür programmiert wurde.
Sterem
2007-02-13, 23:03:41
"". An der Spitze steht offenbar eine Karte, mit der niemand gerechnet hat. Hinter der Bezeichnung Radeon X2800 XTX2 steht eine Dual-Chip-Grafikkarte mit 2x 96 Shadereinheiten und 2x 512 MByte GDDR4-Speicher.""
ob akt. spiele davon was haben ?
also ohne die engine dafür programmiert wurde.
Bei Ati braucht man keine profile wie bei Sli.Ja es wird alles gehen vorallem ne GX mit deiner Ati aufschrift.
Ailuros
2007-02-13, 23:06:10
"". An der Spitze steht offenbar eine Karte, mit der niemand gerechnet hat. Hinter der Bezeichnung Radeon X2800 XTX2 steht eine Dual-Chip-Grafikkarte mit 2x 96 Shadereinheiten und 2x 512 MByte GDDR4-Speicher.""
ob akt. spiele davon was haben ?
also ohne die engine dafür programmiert wurde.
Nur weil irgend ein Idiot die bloede Idee hatte so viel "Shadereinheiten" wie beim G80 hinzuschreiben, heisst es noch lange nicht das es stimmt.
128 SP @800MHz waeren im Vergleich zu G80 um mehr als 50% benachteiligt und dreimal darfst Du raten warum.
was denkt ihr, wird die dual-chip karte mit 256bit ,gegenüber einem chip mit 512bit an mehrleistung bringen ?
weder noch, einfach logisches denken.
ich sehe das genau so wie nakai, ein paar transistoren mehr zum G80 machen noch lange keine 100w aus. da würde ich eher einer sehr sehr sehr sehr frühen version / sampelns / revision des r600 die 200w+ zumuten, als die finale version. es kann aber damit gerechnet werden das bis zum r700, ati die tendenz weiterhin halten wird etwas mehr verbrauchen zu müssen als die konkurenz.
Einfaches logisches Denken hätte dich auch bei der X1900 XT ggü. der 7900 GT nicht zu einem Mehrverbrauch von beinahe 60 Watt geführt.
trozdem macht das noch lange keine 100w mehr gegenüber dem G80 aus, wie manche hier denken.
Klingt nicht gerade zwingend logisch. Hast du auch eine Begründung dafür oder irgendwas sonst in der Art?
Bei Ati braucht man keine profile wie bei Sli.Ja es wird alles gehen vorallem ne GX mit deiner Ati aufschrift.
Klingt wie die vollmundigen Ankündigungen Atis bei der ersten Crossfire-Vorstellung ein halbes Jahr vor dem Launch. Und dann funktionierte Crossfire mit vielen neuen Spielen doch erst, nachdem ein oder zwei offizielle Treiber ins Land gegangen waren. Keine Profile? Ich glaube nicht, Tim.
dargo
2007-02-13, 23:16:37
was denkt ihr, wird die dual-chip karte mit 256bit ,gegenüber einem chip mit 512bit an mehrleistung bringen ?
ES WIRD KEINE DUALCHIP GRAFIKKARTE MIT DEM R600 GEBEN!!!
Lawmachine79
2007-02-13, 23:41:45
ES WIRD KEINE DUALCHIP GRAFIKKARTE MIT DEM R600 GEBEN!!!
Ui, und in so fetter Schrift :)....das reibe ich Dir irgendwann unter die Nase, und wenn es noch 8 (acht!) Generationen GPUs dauert ;)
To Do Liste im Leben:
1 Punkt hinzugefügt:
Dargo Dargos fettes Posting unter die Nase reiben
Steht jetzt unter "Einen Baum pflanzen"
dann ist es aber kein r600 in 8 generationen....
LoL, aber da muß ich dargo recht geben. Ich glaub auch nicht dran :tongue:
Und ich sage glauben, weil ich es nicht weiß.
Lawmachine79
2007-02-13, 23:56:14
dann ist es aber kein r600 in 8 generationen....
Oh Shit...er hat explizit den R600 und nicht nur ATI erwähnt...naja...wenn ich im Lotto gewinne, werde ich ihm mal was nettes zusammenlöten :biggrin: ...er hat nicht gesagt, daß sie funktionieren muss und nie gebrannt haben darf.
Ailuros
2007-02-14, 00:02:50
Oh Shit...er hat explizit den R600 und nicht nur ATI erwähnt...naja...wenn ich im Lotto gewinne, werde ich ihm mal was nettes zusammenlöten :biggrin: ...er hat nicht gesagt, daß sie funktionieren muss und nie gebrannt haben darf.
Ganz einfache Frage: wieviel Strom schaetzt Du wuerde so ein Ding benoetigen (und natuerlich ist der Stromverbrauch nicht XT*2) und mit was fuer Anschluessen wuerde man es momentan rein hypothetisch ausstatten?
Lawmachine79
2007-02-14, 00:05:30
Ganz einfache Frage: wieviel Strom schaetzt Du wuerde so ein Ding benoetigen (und natuerlich ist der Stromverbrauch nicht XT*2) und mit was fuer Anschluessen wuerde man es momentan rein hypothetisch ausstatten?
Keine Ahnung. Das wären ja zweimal GTO/GT. Da nicht nur der Chip Saft braucht, kann man es natürlich nicht verdoppeln. Ich tippe mal c.a. 75% Mehrverbrauch gegenüber einem einzelnen Chip. Ich tippe mal so zwischen 250 und 300 Watt...und die Idee mit den externen Netzteilen hatte ja schon mal jemand.
Ailuros
2007-02-14, 00:14:53
Keine Ahnung. Das wären ja zweimal GTO/GT. Da nicht nur der Chip Saft braucht, kann man es natürlich nicht verdoppeln. Ich tippe mal c.a. 75% Mehrverbrauch gegenüber einem einzelnen Chip. Ich tippe mal so zwischen 250 und 300 Watt...und die Idee mit den externen Netzteilen hatte ja schon mal jemand.
Jegliche GTO/GT waeren am Anfang eine vollwertige R600 mit deaktivierten Einheiten und der Stromverbrauch-Unterschied auch nicht mehr so gross im Vergleich zur XTX.
Midrange GPUs waeren eine andere Geschichte aber dass waere dann schon RV6x0.
Lawmachine79
2007-02-14, 07:34:35
Jegliche GTO/GT waeren am Anfang eine vollwertige R600 mit deaktivierten Einheiten und der Stromverbrauch-Unterschied auch nicht mehr so gross im Vergleich zur XTX.
Midrange GPUs waeren eine andere Geschichte aber dass waere dann schon RV6x0.
Richtig. Und wenn deaktivierte Einheiten drauf sind, sinkt auch die Stromaufnahme und die Abwärme.
K4mPFwUr$t
2007-02-14, 08:17:35
Einfaches logisches Denken hätte dich auch bei der X1900 XT ggü. der 7900 GT nicht zu einem Mehrverbrauch von beinahe 60 Watt geführt.
es waren nie im leben 60w differenz von den beiden genannten grakas, oder zeige mir einen link der deine vermutung untermauert.
Richtig. Und wenn deaktivierte Einheiten drauf sind, sinkt auch die Stromaufnahme und die Abwärme.
fragt sich nur ob sie wieder aktivierbar sein, aber sei der x850 ist es ja per lasercut unbrauchbar gemacht wurden. vorteil wäre bei deaktivierten squads, das die mehr hitze über größere fläche abgegeben werden kann.
Anarchy-HWLUXX
2007-02-14, 08:40:38
Der Inq meint zu wissen dass ...
[ Geforce 8900 GTX has 25 per cent more shaders ]
http://uk.theinquirer.net/?article=37610
Ömmm - mal abwartön :| aba die menge an gerüchten ist scho lang zu unübersichtlich um irgendwas als mehr oder minder richtig zu erkennen ... meh ...
Die gelbe Eule
2007-02-14, 08:54:35
Tja 160 wären es dann. Sollte den R600 überflügeln mit seine "bekannten" Specs. Interessant wäre, alles noch 90nm und kein G81, hat der G80 also mehr Shader an Board als wir es zu wissen glauben?
Der Inq meint zu wissen dass ...
[ Geforce 8900 GTX has 25 per cent more shaders ]
http://uk.theinquirer.net/?article=37610
Ömmm - mal abwartön :| aba die menge an gerüchten ist scho lang zu unübersichtlich um irgendwas als mehr oder minder richtig zu erkennen ... meh ...
Was hat das im R600-thread zu suchen?
James Ryan
2007-02-14, 08:59:54
Das denke ich nicht.
Die Gf 8900 GTX wird ziemlich sicher in 80nm gefertigt und kommt wohl irgendwann im Sommer.
Zum R600 wird NVIDIA wohl eine hochgezüchtete Gf 8800 GTX Extreme bringen, eventuell sogar mit 1 GB Ram.
Die ganze Geschichte erinnert mich ziemlich stark an den R520 Launch, wobei die X1800 nichtmal eine schlechte Karte war.
MfG :cool:
Da wird wohl INQ nur das "missing MUL" etwas in den falschen Hals bekommen haben und daraus sich eine nette Geschichte phantasiert haben. ;)
seahawk
2007-02-14, 09:18:02
Sehe ich auch so. Und man muss aufpassen NV vergibt keine neuen G8X Nummern für reine Shrinks.
Undertaker
2007-02-14, 09:20:15
es waren nie im leben 60w differenz von den beiden genannten grakas, oder zeige mir einen link der deine vermutung untermauert.
ok, es sind etwa 80W:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/26/#abschnitt_stromverbrauch
habe die x1900xt 256mb als vergleich herangezogen, die wird ja nicht mehr verbrauchen als das 512mb modell ;)
robbitop
2007-02-14, 09:22:23
AiL hat es doch schon angedeutet. Die 8900 ist eine höher getaktete G80 (630 MHz core und 1500 MHz ALU) mit freigeschaltetem MUL und reduzierten Treiberblasen (wobei die Treiberdinge mit Sicherheit auch der 8800 zugute kommen).
Anscheinend wird erst der G90 der erste echte Refresh sein. (oder ich habe AiL falsch verstanden)
Die gelbe Eule
2007-02-14, 09:27:22
Also ist das MUL hardwareseitig bei allen jetzigen G80 abgeschaltet und läßt sich auch nicht korrigieren?
Wechselbalg
2007-02-14, 09:30:03
Ich denke wir weichen aber etwas vom Thema ab. Ailuros hatte ja bezüglich des Mul und des Shadertaktes schon ein paar Andeutungen gemacht und ich denke das würde recht gut zu dem passen, was Inquirer verlauten lässt.
Zum Stromverbrauch der X1900XT im Vergleich zur 7900GT sei bedacht, dass hier ~38% mehr Transistoren bei ~39% höherem Takt arbeiten. Es sind jetzt nicht alles Logiktransistoren, aber man könnte schon erahnen, dass hier fast doppelt so viele Transistoren in der gleichen Zeit schalten und da finde ich den Stromverbrauch nicht so auffällig.
Was mich aber mal interessieren würde, wären Bilder von der Stromversorgung der kleineren R600 Versionen. Dies ließe dann zumindest recht schnell den Schluß zu, wie stark phantasiert die Werte bisher waren. Mit 6+8 Pin beim Topmodell könnte man sich in der Tat ja fast alles denken. ^^
Also ist das MUL hardwareseitig bei allen jetzigen G80 abgeschaltet und läßt sich auch nicht korrigieren?
Nein, momentan wird es nur nicht vom Shadercompiler angesprochen.
Und freischalten sollte nV es auf jeden Fall noch, sonst könnte es Ärger geben da man die angegebenen 518/345GFLOPs nicht geliefert bekommen hat. ;)
K4mPFwUr$t
2007-02-14, 09:31:52
@Undertaker
wo bitte siehst du 80w dif?
x1900xtx: 166/281
7900GTX: 174/251
dif: 8/30
kauf dir mal lieber eine brille :rolleyes:
James Ryan
2007-02-14, 09:31:56
AiL hat es doch schon angedeutet. Die 8900 ist eine höher getaktete G80 (630 MHz core und 1500 MHz ALU) mit freigeschaltetem MUL und reduzierten Treiberblasen (wobei die Treiberdinge mit Sicherheit auch der 8800 zugute kommen).
Anscheinend wird erst der G90 der erste echte Refresh sein. (oder ich habe AiL falsch verstanden)
Komm die 8900er noch in 90nm?
MfG :cool:
Anarchy-HWLUXX
2007-02-14, 09:36:14
Was hat das im R600-thread zu suchen?
Shit ;D Kann mal wer den post verschieben ;)
Undertaker
2007-02-14, 09:42:50
@Undertaker
wo bitte siehst du 80w dif?
x1900xtx: 166/281
7900GTX: 174/251
dif: 8/30
kauf dir mal lieber eine brille :rolleyes:
Einfaches logisches Denken hätte dich auch bei der X1900 XT ggü. der 7900 GT nicht zu einem Mehrverbrauch von beinahe 60 Watt geführt.
bitte wiederhol das mit der brille nocheinmal, aber diesmal auf die richtige person bezogen ;D
PCGH_Carsten
2007-02-14, 09:42:54
es waren nie im leben 60w differenz von den beiden genannten grakas, oder zeige mir einen link der deine vermutung untermauert.
Wenn ich darf:
http://www.xbitlabs.com/images/video/geforce7950gt/7950gt_power.gif
Sogar ziemlich genau 60 Watt - und xbitlabs messen ziemlich gut. :)
robbitop
2007-02-14, 09:46:07
Komm die 8900er noch in 90nm?
MfG :cool:
So wie es aussieht, ist es eine höhergetkatete 8800. Also ja der G80.
dargo
2007-02-14, 09:46:25
Wenn ich darf:
http://www.xbitlabs.com/images/video/geforce7950gt/7950gt_power.gif
Sogar ziemlich genau 60 Watt - und xbitlabs messen ziemlich gut. :)
Danke Carsten, ich habe mich schon gefragt was dieser Quatsch mit dem Gesamtverbrauch soll. Einige wissen immer noch nicht, dass da die "Verlustleistung" des NTs inbegriffen ist.
Aber jetzt zurück zum Thema bitte.
Kann mir einer erklären was es mit den MUL's auf sich hat ?
Warum wurden die nicht beim G80 freigeschaltet wenn sie doch vorhanden sind ?
Kann dies mittels neuem treiber passieren ? Wenn ja wie fatal sind die Auswirkungen ?
Undertaker
2007-02-14, 09:52:52
Danke Carsten, ich habe mich schon gefragt was dieser Quatsch mit dem Gesamtverbrauch soll. Einige wissen immer noch nicht, dass da die "Verlustleistung" des NTs inbegriffen ist.
man sollte erwähnen, dass das was am ende aus der dose gezogen wird für den nutzer das einzig relevante ist... wenn man netzteilverluste herausnimmt, rechnet man sich die resultierende differenz eigentlich nur etwas schön...
edit: k sry, b2t
Lawmachine79
2007-02-14, 09:54:41
Kann mir einer erklären was es mit den MUL's auf sich hat ?
Warum wurden die nicht beim G80 freigeschaltet wenn sie doch vorhanden sind ?
Kann dies mittels neuem treiber passieren ? Wenn ja wie fatal sind die Auswirkungen ?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=348894
Dieser Link wird Deine Frage beantworten.
dargo
2007-02-14, 09:56:53
man sollte erwähnen, dass das was am ende aus der dose gezogen wird für den nutzer das einzig relevante ist... wenn man netzteilverluste herausnimmt, rechnet man sich die resultierende differenz eigentlich nur etwas schön...
Falsch. So könnte man rechnen wenn alle NTs die gleiche Effizienz hätten.
PS: wenn du das so siehst dann ist der 2D Stromvebrauch vom G80 umso schlimmer.
PCGH_Carsten
2007-02-14, 09:57:13
man sollte erwähnen, dass das was am ende aus der dose gezogen wird für den nutzer das einzig relevante ist... wenn man netzteilverluste herausnimmt, rechnet man sich die resultierende differenz eigentlich nur etwas schön...
edit: k sry, b2t
Was die Stromkosten angeht ja. Aber unterschiedliche Karten lasten das System auch unterschiedlich stark aus, daher sind solche Messungen wie die von xBit-Labs immer zu bevorzugen.
Undertaker
2007-02-14, 10:05:49
Falsch. So könnte man rechnen wenn alle NTs die gleiche Effizienz hätten.
PS: wenn du das so siehst dann ist der 2D Stromvebrauch vom G80 umso schlimmer.
mehr als 10% differenz (70-75% bei schlechten, 80-85% bei guten) im wirkungsgrad besitzen aktuelle netzteile nicht, dh aus einer realen 20W differenz zwischen 2 karten werden an netzteil 1 27W, an netzteil 2 24W - das ist eher unerheblich; das mit dem g80 stromverbrauch stimmt, ich betrachte eigentlich immer die messungen von cb
Was die Stromkosten angeht ja. Aber unterschiedliche Karten lasten das System auch unterschiedlich stark aus, daher sind solche Messungen wie die von xBit-Labs immer zu bevorzugen.
cb misst afaik mit dem 3dm06, hier sollte praktisch jede einzelkarte am gpu-limit arbeiten
dargo
2007-02-14, 10:19:13
mehr als 10% differenz (70-75% bei schlechten, 80-85% bei guten) im wirkungsgrad besitzen aktuelle netzteile nicht, dh aus einer realen 20W differenz zwischen 2 karten werden an netzteil 1 27W, an netzteil 2 24W - das ist eher unerheblich
Autsch. Diese Rechnung ist noch schlimmer. X-D
Vergleiche mal folgendes:
100W Netto - NT1 70%, NT2 80% Effizienz
250W Netto - NT1 75%, NT2 85% Effizienz
Jetzt rechne dir mal den Verbrauch an der Steckdose aus und du wirst feststellen, dass du mit deiner 10% Differenz nicht weit kommst. Deswegen macht nur die Verlustleistung vor dem NT bei Vergleichen imho Sinn.
PCGH_Carsten
2007-02-14, 10:19:45
cb misst afaik mit dem 3dm06, hier sollte praktisch jede einzelkarte am gpu-limit arbeiten
Ja, aber wenn das GPU-Limit bei bsw. 5 Fps liegt, ergibt das eine ganz andere Systemlast, als wenn das GPU-Limit bei 50 Fps liegt. Das ist das Problem, auf welches ich hinauswollte.
Lawmachine79
2007-02-14, 10:28:29
Ja, aber wenn das GPU-Limit bei bsw. 5 Fps liegt, ergibt das eine ganz andere Systemlast, als wenn das GPU-Limit bei 50 Fps liegt. Das ist das Problem, auf welches ich hinauswollte.
Die Last sollte doch dann am höchsten sein, wenn das GPU-Limit so hoch ist, daß alle anderen Komponenten ausreichend damit beschäftigt, die GPU zu "bespaßen". Also im Idealfall, wenn man ein Szenario erzeugt, in dem weder GPU noch CPU limitiert, sondern das Limit bei beiden Komponenten zur gleichen Zeit eintritt. Es darf keine Flaschenhälse mehr geben.
SShock3
2007-02-14, 11:23:11
Also, eine Graka die mehr als 100 W verbrät, kommt mir nicht unter die Haube.
Da warte ich lieber auf einen Shrink des R600. Absolut unakzeptable so ein Teil.
PCGH_Carsten
2007-02-14, 11:27:43
Die Last sollte doch dann am höchsten sein, wenn das GPU-Limit so hoch ist, daß alle anderen Komponenten ausreichend damit beschäftigt, die GPU zu "bespaßen". Also im Idealfall, wenn man ein Szenario erzeugt, in dem weder GPU noch CPU limitiert, sondern das Limit bei beiden Komponenten zur gleichen Zeit eintritt. Es darf keine Flaschenhälse mehr geben.
Ja, aber ich will ja in so einem Fall eine Einzelkomponente isolieren und das ist per Gesamtverbrauchsmessung ziemlich schwierig - besonders der Vergleich zwischen unterschiedlichen Modellen der entsprechenden Einzelkomponente.
dreas
2007-02-14, 11:34:18
Computerbase bringt auch gerade diese Tabelle und spricht von einer 2Chip-Karte
http://www.directupload.net/images/070214/temp/xxEJ3k37.jpg (http://www.directupload.net/file/d/973/xxEJ3k37_jpg.htm)
mfg dreas
Black-Scorpion
2007-02-14, 11:38:10
Wie oft kommt das noch?
Das wurde schon ein paar mal gepostet und dadurch wird es auch nicht richtiger.
Wieviele Seiten haben den Schrott noch abgeschrieben?
Die gelbe Eule
2007-02-14, 11:57:01
Im VR Forum gibt es das gleiche Teil nur mit G8X ^^
Leonidas
2007-02-14, 12:13:58
Zum Thema Specs seitens der Overclockers Workbench eine Vorschau auf das, was morgen in den News steht:
Seitens der Overclockers Workbench werden derzeit recht komplett aussehende Spezifikations-Listen zum kommenden ATI- und nVidia-Portfolio an Direct3D10-Grafikkarten für alle Marktsegmente - HighEnd, Mainstream und LowCost - verbreitet, nachfolgend einsehbar: angebliches ATI-Portfolio und angebliches nVidia-Portfolio. Dabei enthalten beide Aufstellungen bereits bekannte (GeForce 8800 GTS/GTX) oder aber recht sicher angenommene (Radeon X2800 XL/XT/XTX) Daten, gleichfalls entsprechen die aus den Aufstellungen ersichtlichen Rahmenbedingungen (je drei Direct3D10-Grafikchips pro Grafikchip-Entwickler) dem bisher schon gerüchteweise bekanntem ...
... Während diese Punkte also zu passen scheinen, erscheinen uns diese Aufstellungen an anderer Stelle wieder etwas zu glatt: Daß es für jedes Teil-Marktsegment gleich von Anfang an eine Lösung geben soll und daß sich die Portfolios von ATI und nVidia fast vollkommen gleichen, ist ein eigentlich nie erreichter Zustand. Meist gehen beide Grafikchip-Entwickler mit etwas unterschiedlichen Philosophien an den Start, außerdem entstehen viele Zwischenvarianten erst im Laufe der Zeit und werden nicht gleich von Anfang an geplant. Deutlich unglaubwürdig sind zudem die von den Aufstellungen prognostizierten DualChip-Grafikkarten auf G80- bzw. R600-Basis. Selbst wenn man hierfür abgespeckte Chipvarianten benutzt, dürfte dies verlustleistungsmäßig mit der aktuellen Fertigungstechnologie kaum zu bewältigen sein - einmal abgesehen davon, daß derzeit kaum die Notwendigkeit solcher Experimente zu sehen ist ...
... Da wir uns also bezüglich dieser Aufstellungen höchst unsicher ob der ingesamten Glaubwürdigkeit waren, haben wir schlicht bei einer informierten Stelle (inoffiziell) nachgefragt und können somit kundtun, daß jene seitens der Overclockers Workbench verbreiteten Aufstellungen nicht korrekt sind. Einige Punkte dürften wohl aus Zufall richtig sein (wenn man viel rät, erwischt man eben auch einmal die Wahrheit), aber es existiert keine echte Basis für diese Aufstellungen bzw. die derzeit schon festgelegten Planungen der Grafikchip-Entwickler sehen in der Summe anders aus. Insofern kann wohl gelten, daß sich diese Aufstellungen schlicht jemand aus den Fingern gesaugt hat und sie demzufolge nicht ernst zu nehmen sind.
Im VR Forum gibt es das gleiche Teil nur mit G8X ^^
Und auch das ist schon uralt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5175372&postcount=389
Ich frage mich warum plötzlich alle Seiten diesen alten Mist wieder aufgreifen...
dargo
2007-02-14, 12:14:37
Die Last sollte doch dann am höchsten sein, wenn das GPU-Limit so hoch ist, daß alle anderen Komponenten ausreichend damit beschäftigt, die GPU zu "bespaßen". Also im Idealfall, wenn man ein Szenario erzeugt, in dem weder GPU noch CPU limitiert, sondern das Limit bei beiden Komponenten zur gleichen Zeit eintritt. Es darf keine Flaschenhälse mehr geben.
Eben nicht, wenn ich die max. Verlustleistung der Grafikkarte herausfinden will muss ich eine Szene messen die zu 100% graka-limitiert ist. Und dann eben direkt an der Graka und PCIe Slot messen.
Edit:
Und das ist das (denke ich) was Carsten meinte. Wenn CB eine Szene mit der gleichen CPU aber unterschiedlichen Grafikkarten misst kommt nicht die ganze "Wahrheit" dabei heraus. Je nach Graka verlagert sich die CPU-/Graka-Last.
deekey777
2007-02-14, 12:22:52
Zum Thema Specs seitens der Overclockers Workbench eine Vorschau auf das, was morgen in den News steht:
[...]
... Da wir uns also bezüglich dieser Aufstellungen höchst unsicher ob der ingesamten Glaubwürdigkeit waren, haben wir schlicht bei einer informierten Stelle nachgefragt und können somit kundtun, daß jene seitens der Overclockers Workbench verbreiteten Aufstellungen nicht korrekt sind. Einige Punkte dürften wohl aus Zufall richtig sein (wenn man viel rät, erwischt man eben auch einmal die Wahrheit), aber es existiert keine echte Basis für diese Aufstellungen bzw. die derzeit schon festgelegten Planungen der Grafikchip-Entwickler sehen in der Summe anders aus. Insofern kann wohl gelten, daß sich diese Aufstellungen schlicht jemand aus den Fingern gesaugt hat und sie demzufolge derzeit nicht ernst zu nehmen sind.
Auch eine stehende Uhr zeigt zweimal am Tag die richtige Zeit. :)
Anarchy-HWLUXX
2007-02-14, 12:28:31
http://uk.theinquirer.net/?article=37614
... mmmmmhhhh, so viel unfug - seit wann hat die 8800 GTS zwei 6pin anschlüsse ;) (ende des artikels)
Die gelbe Eule
2007-02-14, 12:28:47
Und auch das ist schon uralt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5175372&postcount=389
Ich frage mich warum plötzlich alle Seiten diesen alten Mist wieder aufgreifen...
Gestreute Fehlinformation. Vorher gab es die Bashbilderserie, nun haut man fiktive Karten heraus, um den anderen zu verwirren. Das blöde bei ATi ist nur, daß auch jetzt keine Karte im Handel zu kaufen ist. Während NV mit dem 320er wohl genau die Karte bebracht hat, welche zu psychologisch guten Kursen kaufbar ist, muss ATi halt abwarten und kann nur tatenlos zusehen. Wir haben wieder die R520 Situation und nach den letzten Infos bezüglich der Quartalssituation bei NV (jetzt und zukünftig), sieht es dort bombig aus.
http://uk.theinquirer.net/?article=37614
... mmmmmhhhh, so viel unfug - seit wann hat die 8800 GTS zwei 6pin anschlüsse ;) (ende des artikels)
Kein Unfug, weil:
in which case you'll lose the Overdrive feature and stay inside a 225W power envelope, just like Nvidia Geforce 8800GTS
Damit mein man nur, das man hier im Bereich unter 225W bleibt. Ist natürlich dort unglücklich ausgedrückt.
Lawmachine79
2007-02-14, 12:33:19
Eben nicht, wenn ich die max. Verlustleistung der Grafikkarte herausfinden will muss ich eine Szene messen die zu 100% graka-limitiert ist. Und dann eben direkt an der Graka und PCIe Slot messen.
Ok, da hast Du natürlich Recht. Mir ging es darum, was man tun muss, um die Maximallast des Rechners rauszufinden. Dafür müssen am Besten alle Komponenten zu 100% ausgelastet sein.
dargo
2007-02-14, 12:35:05
Ok, da hast Du natürlich Recht. Mir ging es darum, was man tun muss, um die Maximallast des Rechners rauszufinden. Dafür müssen am Besten alle Komponenten zu 100% ausgelastet sein.
Eben, und das ist in der Praxis nicht möglich.
Anarchy-HWLUXX
2007-02-14, 12:39:47
Kein Unfug, weil:
Damit mein man nur, das man hier im Bereich unter 225W bleibt. Ist natürlich dort unglücklich ausgedrückt.
Nur hat die GTS ne 150W evenlope ... geschlagene 75W weniger - deswegen : Kompletter Unfug. Unglücklich gibt es nicht, entweder ist der schrieber unfähig oder es war absicht ...
Und für OC braucht man dann 6+8 pin ? Öm - hört sich net wirklich doll an ;D
Die gelbe Eule
2007-02-14, 12:43:11
Nur hat die GTS ne 150W evenlope ... geschlagene 75W weniger - deswegen : Kompletter Unfug. Unglücklich gibt es nicht, entweder ist der schrieber unfähig oder es war absicht ...
Und für OC braucht man dann 6+8 pin ? Öm - hört sich net wirklich doll an ;D
Nicht für OC, aber AMD braucht es um den PCI-E 2.0 irgendwie zu vermarkten. Wenn man nun doch so wenig Verlustleistung hat, warum die Specs hochdrehen? Ich denke man muss sich auf mehr einstellen.
frage ist jetzt die xtx 24 oder 32 cm lang ? oder die xt 24 ?
Nicht für OC, aber AMD braucht es um den PCI 2.0 irgendwie zu vermarkten. Wenn man nun doch so wenig Verlustleistung hat, warum die Specs hochdrehen? Ich denke man muss sich auf mehr einstellen.
Warum überhaupt PCIe und nicht AGP bei X1300-/7300-Karten? Wenn man so wenig Verlustleistung hat, warum die Specs hochdrehen?
Anarchy-HWLUXX
2007-02-14, 12:55:44
frage ist jetzt die xtx 24 oder 32 cm lang ? oder die xt 24 ?
Die lange ist NICHT für endkunden gedacht - ist das so unverständlich, steht auf jeder zweiten seite ?
Warum überhaupt PCIe und nicht AGP bei X1300-/7300-Karten? Wenn man so wenig Verlustleistung hat, warum die Specs hochdrehen?
Weil AGP tot ist ?
Die gelbe Eule
2007-02-14, 12:57:23
Die Verlustleistung wird in absehbarer Zeit eher steigen. Heute las ich das 2007 nichts wird mit 65nm, da der Yield bei 50% liegt. Die G80 läuft ja schon am Limit was die Taktfrequenzen angeht, also kann man nur noch an der VGPU Schraube drehen, mehr Shader einbauen was mehr Transistoren kostet (wenn sie nicht schon längst alle da sind) und genau hier hat der R600 dann auch zu kämpfen. Sowas kostet halt mehr Verlustleistung und irgendwie muss man die Abwärme auch noch im Rahmen abführen können.
Weil AGP tot ist ?
Warum damals AGP8x und nicht AGP4x?
Es ist doch immer das gleiche. Die Schnittstellen werden weiterentwickelt, und die Spezifikationen ändern sich. PCIe 2.0 sieht neben der doppelten Bandbreite eben auch einen neuen 8-Pin-Anschluss vor, der die Garfikkarte mit mehr Strom versorgen kann (nicht muss). Dass manche daraus natürlich gleich wieder ein Drama machen müssen, ist wiedermal typisch.
Lawmachine79
2007-02-14, 13:07:45
Shader einbauen was mehr Transistoren kostet (wenn sie nicht schon längst alle da sind)
Wenn die schon da wären, müßte man das nicht irgendwie erkennen? Ist ja im Prinzip nichts anderes als bei 68 Vanilla der gesperrte Quad. Müssten die nicht irgendwo im Rivatuner als "Hardware masked Units" auftauchen? Klar werden die jetzt effizienter (Lasercut?) gesperrt sein als zu NV40 Zeiten, aber mit irgendeinem Diagnosetool müsste man doch Rückschlüsse ziehen können...
Die gelbe Eule
2007-02-14, 13:09:08
PCI-E 2.0 sieht nur vor, das man mehr Verlustleistung fahren kann, egal wieviele PINs der Stecker haben könnte. 150W (PCI-E + Rail) reichten einfach nicht mehr für zukünftige Produkte. Ob die Bandbreite wirklich dann nutzbar größer ausfällt, daß kann nur die Glaskugel sagen, weil x16 limitiert irgendwie gar nichts.
Wenn die schon da wären, müßte man das nicht irgendwie erkennen? Ist ja im Prinzip nichts anderes als bei 68 Vanilla der gesperrte Quad. Müssten die nicht irgendwo im Rivatuner als "Hardware masked Units" auftauchen? Klar werden die jetzt effizienter (Lasercut?) gesperrt sein als zu NV40 Zeiten, aber mit irgendeinem Diagnosetool müsste man doch Rückschlüsse ziehen können...
Wäre das so einfach oder machbar, hätte man es bestimmt schon ausgelesen. Doch US scheinen komplexer aufgebaut zu sein, als das sie einfach durch nen Lasercut abschaltbar wären ;)
Anarchy-HWLUXX
2007-02-14, 13:12:07
Wenn die schon da wären, müßte man das nicht irgendwie erkennen? Ist ja im Prinzip nichts anderes als bei 68 Vanilla der gesperrte Quad. Müssten die nicht irgendwo im Rivatuner als "Hardware masked Units" auftauchen? Klar werden die jetzt effizienter (Lasercut?) gesperrt sein als zu NV40 Zeiten, aber mit irgendeinem Diagnosetool müsste man doch Rückschlüsse ziehen können...
Na ja, wenn nV wirklich verbergen will das da mehr Shader drauf sind damit die konkurrenz es nicht mitbekommt wird sich im BIOS sicher nix finden - jedenfalls nicht im klartext ;) Intel sperrt die Multiplikatoren seiner CPUs schon ewig wie sie es gerade wollen ohne das man irgendwelche mechanischen eingriffe sieht.
LovesuckZ
2007-02-14, 13:13:57
Wäre das so einfach oder machbar, hätte man es bestimmt schon ausgelesen. Doch US scheinen komplexer aufgebaut zu sein, als das sie einfach durch nen Lasercut abschaltbar wären ;)
Grafikkarten sind seit langen in Gruppen eingeteilt. Beim G70 waren es Quad (da immer zu viert), jetzt sind es Cluster. Man deaktiviert keine einzelnen Shader sondern ganze Gruppen.
Die gelbe Eule
2007-02-14, 13:17:58
Ok, wenn man nun einen Cluster deaktivieren würde, dann müsste man doch einfach darauf schließen können, wieviel ein Cluster an Transistoren verbrät.
Sollte der R600 128 US haben, bei gleichem Transistorcount wie der G80, so kann man davon ausgehen, das hier noch was nachkommt und das in 90nm.
LovesuckZ
2007-02-14, 13:23:57
Ok, wenn man nun einen Cluster deaktivieren würde, dann müsste man doch einfach darauf schließen können, wieviel ein Cluster an Transistoren verbrät.
Sollte der R600 128 US haben, bei gleichem Transistorcount wie der G80, so kann man davon ausgehen, das hier noch was nachkommt und das in 90nm.
Ein G80 Cluster besteht nicht nur aus Skalare - Einheiten.
seahawk
2007-02-14, 13:26:35
Heute las ich das 2007 nichts wird mit 65nm, da der Yield bei 50% liegt. .
Quelle ?
maddawn
2007-02-14, 13:27:19
ich spekuliere mal was die neuen Grafikkarten im Vergleich zur jetzigen Grafikkartengeneration leisten werden:
7600gs = x1650pro = 8300gs = x2300pro
7600gt = x1650xt = 8300gt = x2300xt
7900gs = x1950pro = 8600gs = x2600pro
7950gt = x1950xt = 8600gt = x2600xt
alles ab 8900gs = x2800gt ist gleichschnell oder schneller als aktuelle Topgrafikkarten (Singlechip) die besten Grafikkarten sind locker doppelt so schnell
eigentlich hat sich bei jeder Sparte Lowcost, Mainstream, Highend die Leistung verdoppelt... nicht schlecht für einen Generationssprung
Quelle ?
INQ. :D
http://www.theinq.com/default.aspx?article=37604
Die gelbe Eule
2007-02-14, 13:36:54
Nehmen wir lieber http://www.fabtech.org/content/view/2462/ wo sie es geklaut haben ^^
r3ptil3
2007-02-14, 13:42:30
7900gs = x1950pro = 8600gs = x2600pro
7950gt = x1950xt = 8600gt = x2600xt
Nein also echt, das glaubst du doch selber nicht?
Lawmachine79
2007-02-14, 13:45:37
Nein also echt, das glaubst du doch selber nicht?
Von der reinen Leistung her ist das doch möglich. Nur die Positionierung am Markt verschiebt sich bei gleicher Leistung halt nach unten. Eine 8600GT hat vielleicht die Leistung einer 79X0GT aber wird am Markt eher irgendwo bei der 76GT (eine Nuance höher vielleicht) sein.
PCGH_Carsten
2007-02-14, 13:49:06
Ok, wenn man nun einen Cluster deaktivieren würde, dann müsste man doch einfach darauf schließen können, wieviel ein Cluster an Transistoren verbrät.
Sollte der R600 128 US haben, bei gleichem Transistorcount wie der G80, so kann man davon ausgehen, das hier noch was nachkommt und das in 90nm.
Nein, so einfach ist das nicht. Der R580 hatte nur vier Cluster/Quads, aber ggü. dem G71 mehr als 100M zusätzliche Transistoren. Dank Dedreidezehn dürften beide Firmen zwar dichter zusammenliegen, was den Transistorcount für die Basis-Funktionsgruppe angeht, aber vom einen auf den anderen würde ich nicht schließen wollen.
r3ptil3
2007-02-14, 13:50:43
@warmachine79
In Spielen bin ich mir fast sicher, dass eine X1950 Pro teilweise noch schneller als eine X2600 XT ist.
Aber ich gehe auch nicht von 1024er Auflösungen aus. Eher 1280 und weiter Aufwärts.
seahawk
2007-02-14, 13:54:51
Nehmen wir lieber http://www.fabtech.org/content/view/2462/ wo sie es geklaut haben ^^
Danke, sehr bemerkenswert.
Typisch Gerüchteküche, mit vielen Fehlinformationen...
Wenn die Karte so aussehen sollte:
http://pics.computerbase.de/1/7/1/4/2/2.jpg
... dann wären >200 W utopisch. Dieser kleine aktive Lüfter wäre grenzenlos überfordert.
Ein Haarföhn hat auch keinen grösseren Lüfter, transporiert aber >1000W Wärme ab.
Viel Spass beim Geräusch !
Lawmachine79
2007-02-14, 14:01:26
@warmachine79
In Spielen bin ich mir fast sicher, dass eine X1950 Pro teilweise noch schneller als eine X2600 XT ist.
Aber ich gehe auch nicht von 1024er Auflösungen aus. Eher 1280 und weiter Aufwärts.
Meine Vermutung hat keinen Anspruch auf Richtigkeit :). Wollte nur klarmachen daß der eine von tatsächlicher, reiner Leistungsfähigkeit sprach während der andere eigentlich von der Marktpositionierung sprach.
Henroldus
2007-02-14, 14:14:44
Quelle ?
wohl hier:
http://uk.theinquirer.net/?article=37604 :biggrin:
deekey777
2007-02-14, 14:20:25
Nein, so einfach ist das nicht. Der R580 hatte nur vier Cluster/Quads, aber ggü. dem G71 mehr als 100M zusätzliche Transistoren. Dank Dedreidezehn dürften beide Firmen zwar dichter zusammenliegen, was den Transistorcount für die Basis-Funktionsgruppe angeht, aber vom einen auf den anderen würde ich nicht schließen wollen.
Selbst der R520 hatte mehr Transistoren.
Das ganze Threading-Zeug kostet Transistoren.
robbitop
2007-02-14, 14:22:49
TheInq erzählt wie so oft BS. Im G80 ist kein Cluster deaktiviert. Die konnten anscheinend nur mal wieder Informationen nicht richtig interpretieren.
50% Yield bei 65nm? Bei welchem ASIC?
Die gelbe Eule
2007-02-14, 14:23:32
Nein, so einfach ist das nicht. Der R580 hatte nur vier Cluster/Quads, aber ggü. dem G71 mehr als 100M zusätzliche Transistoren. Dank Dedreidezehn dürften beide Firmen zwar dichter zusammenliegen, was den Transistorcount für die Basis-Funktionsgruppe angeht, aber vom einen auf den anderen würde ich nicht schließen wollen.
Ich dachte eher daran, das mit der US Architektur gewissen Ähnlichkeiten vorhanden sind, weil das Rad kann man hier ja nicht neu erfinden. Wenn der NVIO Chip schon extra ausgelagert worden ist, wäre ja der restliche Platz im Transistorcount noch für einen (mehrere) extra Cluster vorhanden. Leider gibt es ja keine detailierten Infos, wie es wirklich im Chip aussieht.
AMD's R600 mysteries revealed
"According to TheINQ "At present, there is actually only one design for both OEM/SI and retail/AIBs, and that one is 8-pin/6-pin. You can use 6+6-pin configuration, but if you do not plug 8-pin/6-pin, the ATI Catalyst driver suite will forbid you to enter the "Overdrive Zone"."
Also mehr Saft für OC, so läuft der Hase ^^
deekey777
2007-02-14, 14:39:39
Ich dachte eher daran, das mit der US Architektur gewissen Ähnlichkeiten vorhanden sind, weil das Rad kann man hier ja nicht neu erfinden. Wenn der NVIO Chip schon extra ausgelagert worden ist, wäre ja der restliche Platz im Transistorcount noch für einen (mehrere) extra Cluster vorhanden. Leider gibt es ja keine detailierten Infos, wie es wirklich im Chip aussieht.
Wie es im G80 in etwa aussieht, sieht man hier: http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=05
Rein theoretisch entsprechen die einzelnen Quad-Pipes des R580 (Dispatcher 4 TMUs und 4x3 Vec4-ALUs) den Clustern des G80. Was der R580 nicht hat, ist ein globaler Dispatcher (samt 1, 2, 3). Das kostet auch eine Menge Transistoren. Und ich glaube kaum, dass nVidia oder ATi für jede Klasse einen weiteren globalen Dispatcher entwickelt.
Die gelbe Eule
2007-02-14, 14:50:10
Also muss man hier wohl einen neuen Core sehen, mit mehr Transisitoren, sollte man die ROP Partionen erhöhen wollen. Somit kann man sich auf 90nm wohl gesichert verabschieden, was den G80 betrifft.
Danke für den Link ;)
maddawn
2007-02-14, 14:55:52
Nein also echt, das glaubst du doch selber nicht?
das spekuliere ich ja nur :D , leider verdoppelt sich bei ATI auch der Leistungsbedarf trotz kleinerer Strukturbreite also bleibt die Performance/Watt fast unverändert
Welchen Mehrwert im gedenkt ATI eigentlich seinen Kunden zu bieten außer mehr Abwärme? :confused: Ich meine preislich liegen ja die jeweiligen Konkurrenzkarten exakt gleichauf, was also spricht für ATI?
Die gelbe Eule
2007-02-14, 14:58:12
Die Glaubensfrage nur noch. Man hat bisher noch keine Bilder sehen können, ob das AF nun gleichwertig zum G80 werden wird. Weil sollte sie nur mehr Leistung bringen, hätte sie halt dieses Manko.
PCGH_Carsten
2007-02-14, 15:12:18
Selbst der R520 hatte mehr Transistoren.
Das ganze Threading-Zeug kostet Transistoren.
Ja, deshalb sagte ich ja, dass mit Dedreidezehn die beiden wieder dichter zusammen liegen könnten - und dass eben die einzelnen Funktionsgruppen nicht vergleichbar sind.
Was soll das " Dedreidezehn" ?
Gruß
reunion
2007-02-14, 16:47:51
Welchen Mehrwert im gedenkt ATI eigentlich seinen Kunden zu bieten außer mehr Abwärme? :confused: Ich meine preislich liegen ja die jeweiligen Konkurrenzkarten exakt gleichauf, was also spricht für ATI?
Ist mehr Leistung kein Mehrwert?
Die Glaubensfrage nur noch. Man hat bisher noch keine Bilder sehen können, ob das AF nun gleichwertig zum G80 werden wird. Weil sollte sie nur mehr Leistung bringen, hätte sie halt dieses Manko.
Als ob man das in der Praxis sehen würde.
Was soll das " Dedreidezehn" ?
Gruß
D3D10.
Lorien
2007-02-14, 16:51:01
Bin ja mal gespannt was die ersten richtigen Tests der Karte bringen.
Ein Lüfter der 2A bei 12V braucht bringt sicher auch entsprechende Geräuschkulisse mit. Da kommt die benötigte Leistung von 270W gut hin bei dem Gebläse was da verbaut ist.
Sonst würde man ja nicht so ein Monster verbauen.
K4mPFwUr$t
2007-02-14, 16:52:41
es werden keine 270w peak real verbrauch werden.
wie oft muss man es denn noch sagen.
schluckt nicht jede news bzw. speku als wäre sie das gelbe vom ei :rolleyes:
da kann ich auch an die börse gehen und sagen, benzin wird morgen 5USD pro barel kosten ...
Anarchy-HWLUXX
2007-02-14, 17:15:44
es werden keine 270w peak real verbrauch werden.
wie oft muss man es denn noch sagen.
Die 8800GTX hat ja ne TDP von 180W und real ca.145W , bei einer TDP von 240/270 wären es vorsichtig und wohlwollend geschätzt 180/210W ->:ucrazy3:
PS : Ich hatte auch recht mit meiner schätzung zur G80 lang vor den Berichten : 140-150W :D
Die Glaubensfrage nur noch. Man hat bisher noch keine Bilder sehen können, ob das AF nun gleichwertig zum G80 werden wird. Weil sollte sie nur mehr Leistung bringen, hätte sie halt dieses Manko.
funktionierende Vista Treiber?
Anarchy-HWLUXX
2007-02-14, 17:22:38
funktionierende Vista Treiber?
... interessieren keinen :D
Wer nicht bis zum SP1 wartet muss eben leiden ...
Cubitus
2007-02-14, 17:36:45
eine komische Spekulation.
eine X2800 XTX mit 1024 MB kostet voraussichtlich 599
eine XTX mit 512 MB würde 549 kosten:|
maddawn
2007-02-14, 18:41:44
[QUOTE=reunion;5252534]Ist mehr Leistung kein Mehrwert?
da beide Konkurrenten etwa gleichschnelle Karten für ähnliches Geld verkaufen musst du die elektrische Leistung meinen
Wenn du so fragst, die Strompreise steigen ja auch kontinuierlich daher ist elektrische Leistung immer mehr Wert aber ob das jetzt ein positiver Aspekt ist... :D
wobei mir persönlich nur wichtig ist das eine Grafikkarte unter Vista Aero, 2d etc. sehr wenig Leistung verbraucht, mal schaun ob ATI da im positiven Sinne weniger Leistung zu bieten hat als die bisher erschienenen NVidia Geforce 8
Lawmachine79
2007-02-14, 18:49:46
eine komische Spekulation.
eine X2800 XTX mit 1024 MB kostet voraussichtlich 599
eine XTX mit 512 MB würde 549 kosten:|
Und was ist daran ungewöhnlich? Selbst wenn die Tabelle NICHT stimmt ist es doch logisch daß die Karte mit mehr RAM teurer ist.
Cubitus
2007-02-14, 18:57:03
ja sicher, aber sind das bei 512 MB mehr Ram wirklich nur 50 Euro Aufschlag:confused: Ist GDDR4 so billig?
deekey777
2007-02-14, 19:05:23
ATI R600 coming in March or April (http://www.digitimes.com/NewsShow/NewsSearch.asp?DocID=PD000000000000000000000000000807&query=R600)
ATI is preparing for the release of its high-end graphic chip, the R600, with the chip expected to hit the market between the end of March and beginning of April, according to Taiwan-based graphic card makers.
The R600, which will compete head to head against Nvidia's G80, is manufactured on 80nm node, supports DirectX10 and features DDR4, the Taiwan makers added.
The R600 will come in four models targeting different market segments. The high-end part will have power consumption of 270 Watts and target OEM partners, such as Dell, sources said. ...
The other models (including XTX, XT, XL) will target channel markets and will have a power consumption lower than 240 Watts, added the sources.
Nvidia, on the other hand, may launch its G84 and G86 at the upcoming CeBIT show, ...
Hä?
horn 12
2007-02-14, 19:07:30
Nun geht es Schag auf Schlag, Womöglich ein Release Ende Februar/Anfang März sogar schon?
Seht:
http://uk.theinquirer.net/?article=37631
http://uk.theinquirer.net/?article=37638
reunion
2007-02-14, 19:11:43
ATI R600 coming in March or April (http://www.digitimes.com/NewsShow/NewsSearch.asp?DocID=PD000000000000000000000000000807&query=R600)
Hä?
DigiTimes macht hier offensichtlich den Fehler von der Leistungsaufnahme auf die Leistung zu schließen. Tatsächlich hat die Desktopvariante einfach nur eine neuere Revision des R600. Es wäre ja auch Irrsinn, ausgerechnet das Topmodell denn Retailkunden vorzuenthalten.
Nun geht es Schag auf Schlag, Womöglich ein Release Ende Februar/Anfang März sogar schon?
Seht:
http://uk.theinquirer.net/?article=37631
http://uk.theinquirer.net/?article=37638
Auch alles nur abgeschrieben von dieser tollen Tabelle.
puntarenas
2007-02-14, 19:12:12
May the sources be with you!
Langsam wird es wirklich albern. Einer schreibt beim anderen ab und beispielsweise der Artikel auf computerbase.de liest sich bereits, als seien es offizielle Verlautbarungen.
Trotzdem bin auch ich nicht gänzlich unbeeindruckt und hoffe, dass es tatsächlich eine 2800XL geben wird, dieses Modell habe ich bei der x1900er-Reihe schmerzlich vermisst :D
deekey777
2007-02-14, 19:17:44
DigiTimes macht hier offensichtlich den Fehler von der Leistungsaufnahme auf die Leistung zu schließen. Tatsächlich hat die Desktopvariante einfach nur eine neuere Revision des R600. Es wäre ja auch Irrsinn, ausgerechnet das Topmodell denn Retailkunden vorzuenthalten.
Ist wohl ein Versehen.
puntarenas, welche Quelle ist seriöser: Digitimes oder TheInq? ;)
Auch wenn DT in den letzten Monaten nachgelassen haben soll, so sind deren News viel aussagekräftiger.
horn12: Nein, das wird nichts mit Februar.:)
puntarenas
2007-02-14, 19:25:38
puntarenas, welche Quelle ist seriöser: Digitimes oder TheInq? ;)
Auf jeden Fall hat ComputerBase die Taiwantabelle am schönsten aufbereitet :)
Hier geht es ja auch erst mal nur darum, ob diese Gerüchte einen wahren Kern haben oder nicht. Das der Verbrauch leider nicht niedrig sein wird, ist offensichtlich, allerdings dürfte die Platine auf dem Inquirerbild eben maximal 225 Watt saugen können und da wird man vermutlich noch ein bisschen Sicherheitsabstand halten.
Wer sagt dir, dass der 8 polige PCI Express Stecker auch nur mit 75 Watt belastet werden darf? Aktuell scheint der maximale Strom für die 12-Volt-Leitungen des 6 polige PCIe-Stecker (2x12Volt - 4xMasse) bei 3,125A pro Leitung liegen zu dürfen (75 Watt / 2 / 12 Volt = 3,125A). Ergäbe bei drei 12Volt-Leitungen beim 8-poligen Stecker immerhin 112,5 (3*3,125A*12V) Watt bzw. 150 Watt (4*3,125A*12V) und somit einen maximale mögliche Gesamtleistung von 75 + 75 + 112,5 = 262,5 Watt bzw. 75 + 75 + 150 = 300 Watt.
StefanV
2007-02-14, 21:06:32
@Gast
Du hast dich verschätzt, beim 6 Pol Stecker hast eben NICHT 2x12V sondern 3x 12V und 3x Masse.
Entsprechend darf ein Pin nur mit ~2A belastet werden.
Die 2x 4 Pin Stecker würden also 100W liefern...
The_Invisible
2007-02-14, 22:35:33
lol, "end of march" oder "beginning of april"?
wenn das stimmt können sie sich gleich überlegen ob sie das ding nicht canceln wollen
mfg
dargo
2007-02-14, 22:48:03
lol, "end of march" oder "beginning of april"?
wenn das stimmt können sie sich gleich überlegen ob sie das ding nicht canceln wollen
mfg
Warum? Nur weil es dir zu spät ist? :|
Entsprechend darf ein Pin nur mit ~2A belastet werden.
Die 2x 4 Pin Stecker würden also 100W liefern...
Hast du dafür eine Quelle? :)
Die Rechnung kann irgendwie nicht stimmen. Eine einzelne 12V Ader konnte bei AGP Grakas mehr als 3A vertragen.
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-powercons/t1.gif&1=1
Der Querschnitt ist afaik bei PCIe Grakas gleich geblieben. Trotzdem sieht die ATX 2.0 Norm max. 75W am exteren Stromanschluss vor. Finde ich irgendwie seltsam.
Zocker_28
2007-02-14, 23:39:22
och nö nicht noch später:(
r3ptil3
2007-02-14, 23:44:01
Es sollten mal "richtige" Fakten die Weiten des Internets erblicken.
Warum? Nur weil es dir zu spät ist? :|
Hast du dafür eine Quelle? :)
Die Rechnung kann irgendwie nicht stimmen. Eine einzelne 12V Ader konnte bei AGP Grakas mehr als 3A vertragen.
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-powercons/t1.gif&1=1
Der Querschnitt ist afaik bei PCIe Grakas gleich geblieben. Trotzdem sieht die ATX 2.0 Norm max. 75W am exteren Stromanschluss vor. Finde ich irgendwie seltsam.
Mehr macht eigentlich keinen Sinn. 2 von den 8er Stecker à 100W und vielleicht noch 100W durch PCIE 2.0 --> 300W Gesamtl., wenn das für die Zukunft nicht reichen sollte, werde ich mich vom Gaming wohl oder übel verabschieden müssen.
Fetza
2007-02-15, 00:20:46
Warum? Nur weil es dir zu spät ist? :|
je länger der launch termin jetzt nach hinten verlegt wird, desto leistungsfähiger muss der r600 werden um nicht zu entäuschen. Und ich glaube die meisten leute erwarten jetzt schon einiges davon. Also für ati wirds jetzt zeit, sonst konntert nv vielleicht wirklich noch mit dem refresh^^
Ausserdem wollte ich stalker bereits zum release auf dem r600 zoggen:D
greetz
Fetza
paul.muad.dib
2007-02-15, 00:21:49
lol, "end of march" oder "beginning of april"?
wenn das stimmt können sie sich gleich überlegen ob sie das ding nicht canceln wollen
April wäre in der Tat schon ziemlich spät, wäre ja dann ein halbes Jahr nach G80 Launch. Dann muss die KArte entweder sehr schnell sein oder sie wird nur eine kurze Lebensdauer haben.
Die gelbe Eule
2007-02-15, 00:37:54
Was dann aber bestimmt kostet. Ist ja wie der R5XX ;(
The Jackal
2007-02-15, 00:39:24
Irgendwie hab ich das Gefühl, die Diskusion über den Stromverbrauch neuer GraKa's wir immer lauter.
War auch änlich mit dem Intel P4 und darafhin hat Intel ja die Core Architektur ernwickelt.
Momentan nehmen sich beide nichts, weder NVidia noch ATi, in sachen Stromverbrauch.
Ich glaube, sobald einer von dennen eine sparsame GraKa rausbringt, die sagen wir auch ruhig 15% langsamer ist als der Konkurent, machen er das Geschäft ihres lebens.
Wir haben jetzt auf dem Markt 1000W Netzteile. Meine Glasskugel sagt mir es wird keine leistungsstärkere Netzteile mehr geben. Wir werden uns im Konsumermarkt wieder bei 350 Watt einpendeln und das werden Passive Netzteile sein mit effizienz von x>90%.
(+44)
2007-02-15, 01:16:09
15% Unterschied gibt und gab es jetzt schon - das is völlig egal.
Wenn jetzt allerdings eine Karte mit der Leistung einer 8800GTX, aber einem Stromverbrauch unter 50W käme hätten sie einen nicht zu verachtenden Bonus.
tombman
2007-02-15, 01:26:25
Wir haben jetzt auf dem Markt 1000W Netzteile. Meine Glasskugel sagt mir es wird keine leistungsstärkere Netzteile mehr geben. .
Putz mal deine Glaskugel, es gibt bereits 2000 Watt Netzteile- wenn auch noch nicht auf dem Markt. Werden aber 100% kommen...
StefanV
2007-02-15, 02:10:30
Putz mal deine Glaskugel, es gibt bereits 2000 Watt Netzteile- wenn auch noch nicht auf dem Markt. Werden aber 100% kommen...
Seine Glaskugel ist in Ordnung, 1000W ist das höchste der Gefühle!
Denk mal dran, das es in anderen Ländern keine 230V Netze gibt, die Sicherung aber genauso stark ist.
z.B. Nord Amerika, wo 15A@110V Standard ist, guggsu hier (http://www.electrical-online.com/cableandwire.htm).
Und selbst mit 20A reichts NICHT für ein 2kW Netzteil....
Von daher.
Die gelbe Eule
2007-02-15, 02:19:58
Tagan Turbojet 1.1 KW http://www.tagan.de/pages/products/turboS/tg1100_u95.html
Koolance 1.2 KW http://www.koolance.com/shop/product_info.php?products_id=387
Ultra Products X3 2KW http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/januar/ces_vorstellung_2000-watt-netzteils/
Da kommt noch einiges ^^
Ich hoffe, dass all diese Netzteile an defekten Bauteilen sterben, und Leute, die sowas kaufen, wegen zu hohen Stromrechnungen insolvent gehen. Sowas kann nur aus USA/China/Asien kommen - den momentan der Stromverbrauch absolut egal ist. Ich hoffe nur, dass bald mal Besinnung einkehrt und die Entwicklung in Richtung Energie sparen geht - damit könnten die außerdem noch mehr Kohle verdienen. Mein Kommentar jetzt mal dazu; muss ja nicht Jedem gefallen.
tombman
2007-02-15, 03:33:40
Seine Glaskugel ist in Ordnung, 1000W ist das höchste der Gefühle!
.
Du kannst ihm gleich putzen helfen ;)
Check this out:
http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/januar/ces_vorstellung_2000-watt-netzteils/
Die gelbe Eule
2007-02-15, 03:35:55
Muss der Radiallüfter nicht unheimlich schnell drehen, damit er die Luft durch diesen langen Tunnel überhaupt pressen kann? So ein Monsterkühler mit den Finnen hat ja auch einen Luftwiderstand, den man erstmal überwinden muss, damit die warme Luft schnell abgeführt wird. Das könnte natürlich auch auf die Lautstärke gehen ...
tombman
2007-02-15, 03:38:22
Ich hoffe, dass all diese Netzteile an defekten Bauteilen sterben, und Leute, die sowas kaufen, wegen zu hohen Stromrechnungen insolvent gehen.
Ich bin sicher, diese Leute wünschen dir noch viel "netteres" ;)
Außerdem sind 1KW oder 2KW im Haushalt eh lächerlich...
Slipknot79
2007-02-15, 04:58:33
Ich bin sicher, diese Leute wünschen dir noch viel "netteres" ;)
Außerdem sind 1KW oder 2KW im Haushalt eh lächerlich...
1kW oder 2kW werden so und so nur extrem selten auftreten, höchstens beim Kochen oder Fönen oder bei der Klima.
Ailuros
2007-02-15, 05:55:56
Ausser es hat sich was geaendert soll der Launch immer noch Anfang Maerz stattfinden und die Verfuegbarkeit war/ist fuer Ende Maerz geplant. Durch das chinesische Neue Jahr liegt die Produktion ueber ganze 2 Wochen flach (wurde ja oefters schon erwaehnt).
seahawk
2007-02-15, 07:13:46
April wäre in der Tat schon ziemlich spät, wäre ja dann ein halbes Jahr nach G80 Launch. Dann muss die KArte entweder sehr schnell sein oder sie wird nur eine kurze Lebensdauer haben.
Theoretisch müßte die Lebensdauer auch kurz sein, dies wird allerdings von der Reife vom 65nm Prozess abhängen. Läuft er gut, dann wird es recht schnell einen Nachfolger geben, läuft er sehr schlecht, kann die R600 die einzige High-End-Karte ATIs im ganzen Jahr sein.
Die gelbe Eule
2007-02-15, 07:37:55
65nm kann ATi aber das Genick brechen, sprich wieder lange Wartezeit. Von 90nm auf 80nm wechseln geht gerade so noch, aber der Sprung auf 65nm ist dann schwerer.
hallo
ich verstehe das nicht. ist die oem über 30 cm für dell und co ? und die 24 cm variante für heimwerker ? ?
retail kann jeder als teil für sich kaufen (PC selber zusammenbauen)
OEM ist für Fertigpc Hersteller wie Dell
oder habe ich das falsch verstanden?
etwa so ?
Bitte um aufklärung, habe angst das sie ned in mein gehäuse passt
Lawmachine79
2007-02-15, 08:31:59
hallo
ich verstehe das nicht. ist die oem über 30 cm für dell und co ? und die 24 cm variante für heimwerker ? ?
retail kann jeder als teil für sich kaufen (PC selber zusammenbauen)
OEM ist für Fertigpc Hersteller wie Dell
oder habe ich das falsch verstanden?
etwa so ?
Bitte um aufklärung, habe angst das sie ned in mein gehäuse passt
Ja, Du hast es richtig erkannt. Wenn Du keinen Stangen-PC für DAUs kaufst sondern Dir Dein Zeug bestellst und den PC aus Feuer und Stahl noch wie ein Mann selbst zusammenschmiedest (mit dem magischen Hammer!) wirst Du eine 24cm Variante haben.
It's Official. R600 is Radeon X2900 Series
http://www.vr-zone.com/index.php?i=4672
Interessant, dass man nichts zum Interface vom RV630 sagt...
Ailuros
2007-02-15, 09:55:27
65nm kann ATi aber das Genick brechen, sprich wieder lange Wartezeit. Von 90nm auf 80nm wechseln geht gerade so noch, aber der Sprung auf 65nm ist dann schwerer.
Falls der Herstellungsprozess bei TSMC Probleme haben sollte, haben dann beide IHVs ein Problem und nicht nur einer.
robbitop
2007-02-15, 09:56:40
Oh jetzt haben sie die schon der 28 auf die 29 umbenannt. Entweder wegen der 8900GTX oder wir bekommen einen R6xx Refresh serviert. (ich glaube ersteres)
Ich hoffe, dass ATI schnell aus ihren Fehlern lernen. Dieser Run auf Takt und den neusten Fertigungsprozess bringt am Ende immer nur Verschiebungen und grottige Margen zustande. Wenn sie nicht aufpassen, macht AMD die HighEnd GPU Sparte mittelfristig dicht und dann haben wir ein Monopol. :(
robbitop
2007-02-15, 09:58:31
Falls der Herstellungsprozess bei TSMC Probleme haben sollte, haben dann beide IHVs ein Problem und nicht nur einer.
Erstmal hätte ATI das Problem. Ein neuer Fertigungsprozess in der Reifephase bringt meist noch nicht die erwünschten Yields bei angestrebten Taktraten. Darunter leidet der Profit enorm.
NVIDIA scheint in den letzten Jahren auf Nummer sicher gegangen zu sein und wählte den neusten Fertigungsprozess immer erst, wenn er reif genug war.
ATI brachte es nichts als Verschiebungen ein. Das ist nicht gut.
dargo
2007-02-15, 09:58:38
je länger der launch termin jetzt nach hinten verlegt wird, desto leistungsfähiger muss der r600 werden um nicht zu entäuschen.
Nicht unbedingt. Man kann viel über den Preis richten.
Außerdem sind 1KW oder 2KW im Haushalt eh lächerlich...
Nicht wenn sie 24/7 laufen. ;)
Die gelbe Eule
2007-02-15, 10:02:00
Falls der Herstellungsprozess bei TSMC Probleme haben sollte, haben dann beide IHVs ein Problem und nicht nur einer.
Nicht ganz. NV hängt noch auf 90nm und geht erst auf 80nm, profitiert also wieder vom ausgereifterem Prozess, wo ATi direkt einsteigt. Theoretisch sind mit besserer Güte auch 600MHz/1.2(4)00MHz 1GB Versionen möglich bei 90nm, was eine vernüftige Mehrleistung darstellen würde.
Among other things we can confirm right now; R600 is 80nm, contains 700M transistors and has 512-bit memory interface
Reichen 700M für 128 Shaderunits? Finde das etwas knapp bemessen, wenn man bedenkt das der NVIO beim G80 nicht im Transistorcount drin hängt.
The targeted driver release version for X2900 series is Catalyst 8.35.1.
Das hört sich nach Ende März/Anfang April an, wenn man die Versionsnummer zeitlich deuten möchte.
robbitop
2007-02-15, 10:07:01
Nicht wenn sie 24/7 laufen. ;)
Wer lässt schon eine 1kW Kiste 24/7 laufen? Für sowas baut man sich nen günstigen (L33ch) PC (mir würde kein anderer Grund für 24/7 einfallen).
dargo
2007-02-15, 10:07:01
NV hängt noch auf 90nm und geht erst auf 80nm, profitiert also wieder vom ausgereifterem Prozess, wo ATi direkt einsteigt.
Quelle?
robbitop
2007-02-15, 10:09:37
Reichen 700M für 128 Shaderunits? Finde das etwas knapp bemessen, wenn man bedenkt das der NVIO beim G80 nicht im Transistorcount drin hängt.
Du kannst beide Architekturen vermutlich nicht einfach vergleichen.
Vor allem: was ist eine Shaderunit? Das definieren NV und ATI vermutlich komplett anders. Und beim einen sind sie pro Unit viel billiger, während die andere pro ALU schneller ist. Solche Zahlenvergleiche sind sinnfrei.
Die gelbe Eule
2007-02-15, 10:10:28
Schau Dir die letzten Jahre an, wir sind beim G80 auf 90nm, bisher gibt es noch keinen Grund auf 80nm umzusteigen, weil wie gesagt Potential nach oben wäre noch da, 680MHz mit etwas mehr VGPU hat man schon bestätigen können. Quellen im Spekuforum? ;)
robbitop
2007-02-15, 10:11:45
Quelle?
G84/86 sind laut den Meldungen der letzten Wochen doch 80 nm. (IMO ökonomisch sehr vernünftige Entscheidung)
Falls du High End meinst, gab es AFAIK nichtmal ein Tapeout in letzter Zeit für einen richtigen G80 Refresh oder so.
Der 65nm G80 Refresh (G90??) ist ja noch viele Monde hin. Bis dahin wird 65 nm deutlich ausgereifter sein.
dargo
2007-02-15, 10:16:13
Schau Dir die letzten Jahre an, wir sind beim G80 auf 90nm, bisher gibt es noch keinen Grund auf 80nm umzusteigen, weil wie gesagt Potential nach oben wäre noch da, 680MHz mit etwas mehr VGPU hat man schon bestätigen können. Quellen im Spekuforum? ;)
Bei dir liest es sich immer so als wäre es eine zugesicherte Information. Deswegen meine Frage nach der Quelle. ;)
Falls du High End meinst, gab es AFAIK nichtmal ein Tapeout in letzter Zeit für einen richtigen G80 Refresh oder so.
Der 65nm G80 Refresh (G90??) ist ja noch viele Monde hin. Bis dahin wird 65 nm deutlich ausgereifter sein.
Ich meine natürlich High-End. Und nach letztem Stand soll es afaik keinen 80nm G80 geben.
Die gelbe Eule
2007-02-15, 10:18:00
Ich versuche realistisch zu spekulieren und das wertefrei, ich bin weder rot noch grün, sondern gelb <--- siehe Avatar ;)
dargo
2007-02-15, 10:20:32
Ich versuche realistisch zu spekulieren und das wertefrei, ich bin weder rot noch grün, sondern gelb <--- siehe Avatar ;)
Dann wäre es vielleicht angebrachter wenn du in Zukunft deine Sätze ohne Quellen "vorsichtiger" formulierst. :)
robbitop
2007-02-15, 10:21:25
Ich meine natürlich High-End. Und nach letztem Stand soll es afaik keinen 80nm G80 geben.
Ja nach irgendwelchen Leuten in irgendwelchen Foren, die sich das so wünschen. Aber weder handfeste Gerüchte, noch Berichte über ein TapeOut eines solchen Chips gab es bisher. Und wie lange es von einem TapeOut bis zum Verkauf dauert, weißt du ja. ;)
seahawk
2007-02-15, 10:32:46
Ja nach irgendwelchen Leuten in irgendwelchen Foren, die sich das so wünschen. Aber handfeste Gerüchte, weder ein TapeOut eines solchen Chips gab es bisher anscheinend nicht. Und wie lange es von einem TapeOut bis zum Verkauf dauert, weißt du ja. ;)
Ich bin da vorsichtig. Es gab ja mal die Medlung, dass NV bei TSMC massiv 80nm Chips geordnet hat und da wurde unter anderem auch der G80 genannt. Allerdings habe ich auch keine Bestätigung dafür, dass NV einem 80nm G80 fertig hat.
robbitop
2007-02-15, 10:41:20
Die Meldung kenne ich. Da wurde AFAIR G80 nicht erwähnt. Hast du mal einen Link?
Ich gehe davon aus, dass G84/86 gemeint sind.
Die Meldung kenne ich. Da wurde AFAIR G80 nicht erwähnt. Hast du mal einen Link?
Ich gehe davon aus, dass G84/86 gemeint sind.
Interestingly, the report suggests that those shipments will contain die-shrunk 80nm G80 chips—not the 90nm ones that have been out in the market since November.
http://techreport.com/onearticle.x/11643
Reichen 700M für 128 Shaderunits? Finde das etwas knapp bemessen, wenn man bedenkt das der NVIO beim G80 nicht im Transistorcount drin hängt.
Im NVIO ist nur der 2D-Kern drin, das sind <5mio Transistoren.
reunion
K4mPFwUr$t
2007-02-15, 10:49:52
Im NVIO ist nur der 2D-Kern drin, das sind <5mio Transistoren.
war nicht in dem kleinen externen chip der HDCP decoder untergebracht?
der 2D kern wäre mir neu beim G80, besonders wenn man sich mal die idle verbrauchswerte vors gesicht hällt
robbitop
2007-02-15, 10:52:04
Interestingly, the report suggests that those shipments will contain die-shrunk 80nm G80 chips—not the 90nm ones that have been out in the market since November.
http://techreport.com/onearticle.x/11643
Tja dann wundert mich, warum man noch nicht mehr darüber gehört hat. Ist die Frage ob dieser einzige Bericht darüber richtig liegt, oder ob jemand FU(a)D verbreitet.
Das hört sich nach Ende März/Anfang April an, wenn man die Versionsnummer zeitlich deuten möchte.
Wenn man die WHQL-Prüfung "herausrechnet", die beim Launchtreiber, den die Tester bekommen sicherlich noch nicht enthalten sein wird, dann sieht es nach Anfang März aus. Wobei man das so kaum beurteilen kann, da es immer mal wieder zu größeren Versionssprüngen kommt.
reunion
seahawk
2007-02-15, 10:53:30
Danke Gast.
@ robbitop
Ich habe es bisher auch so gesehen wie Du, aber ich bin mir nicht mehr so sicher. Die Portierung der Architektur auf 80nm mußte NV im Prinzip für die Nainstreamreihe sowieso machen. Und die typische Gerückteküche jagt ja eher einen G81, als einen G80 Shrink.
war nicht in dem kleinen externen chip der HDCP decoder untergebracht?
der 2D kern wäre mir neu beim G80, besonders wenn man sich mal die idle verbrauchswerte vors gesicht hällt
Das Problem bei G80, warum es den NVIO gibt, ist AFAIK, dass durch die clockdomains der ALUs der RAMDAC mit seinen 400Mhz gestört werden würde, woduch man diesen nach außen verlagern musste. Aber dazu weiß AiL wesentlich mehr.
robbitop
2007-02-15, 10:59:16
Wenn man die WHQL-Prüfung "herausrechnet", die beim Launchtreiber, den die Tester bekommen sicherlich noch nicht enthalten sein wird, dann sieht es nach Anfang März aus. Wobei man das so kaum beurteilen kann, da es immer mal wieder zu größeren Versionssprüngen kommt.
reunion
Anfang März wird es IMO nicht. Bisher haben keine mir bekannten Redaktionen ein Sample oder irgendwelche Informationen bekommen.
Wenigstens Pressebriefings gibt es schon Wochen vor dem Launch. Angeblich sollen lauffähige Samples bei der CeBIT hinter verschlossenen Türen gezeigt werden. Das klingt noch nicht nach einem zeitnahen Hardlaunch.
Die Portierung der Architektur auf 80nm mußte NV im Prinzip für die Nainstreamreihe sowieso machen.
Da sollte es ja eigentlich keine Probleme geben auch die Fertigung für den G80 umzustellen, immerhin hat Nvidia den 80nm Prozess schon fast ein 1/2 Jahr in der Mache.
Vielleicht ist das missing MUL im originalen G80 gar doch defekt, wie der Videoprozessor damals beim NV40, und wird dies halt mit G80-B... gefixt, der dann als 8900GTX antritt und im H2 kommt dann GeForce9 in 65nm, wie AiL schon andeutete.
robbitop
2007-02-15, 11:00:40
Danke Gast.
@ robbitop
Ich habe es bisher auch so gesehen wie Du, aber ich bin mir nicht mehr so sicher. Die Portierung der Architektur auf 80nm mußte NV im Prinzip für die Nainstreamreihe sowieso machen. Und die typische Gerückteküche jagt ja eher einen G81, als einen G80 Shrink.
Auch von einem G81 habe ich lange nichts mehr gelesen.
Ich sage ja nicht, dass ein Shrink sooo problematisch ist. Ich sage nur, dass ich bisher noch von keinem TapeOut gehört habe. Und das kommt ja idR Monate vor dem Verkauf.
Da sollte es ja eigentlich keine Probleme geben auch die Fertigung für den G80 umzustellen, immerhin hat Nvidia den 80nm Prozess schon fast ein 1/2 Jahr in der Mache.
Vielleicht ist das missing MUL im originalen G80 gar doch defekt, wie der Videoprozessor damals beim NV40, und wird dies halt mit G80-B... gefixt, der dann als 8900GTX antritt und im H2 kommt dann GeForce9 in 65nm, wie AiL schon andeutete.
Daran glaube ich, ehrlich gesagt, nicht.
Die ShaderALUs sind mit custom design transistors gefertigt. Das ist ein irrer Aufwand da irgendwas dran zu ändern. Außerdem gab es Hinweise seitens NV, dass das MUL bald per Treiber funktionieren soll.
=Floi=
2007-02-15, 11:02:52
aber wenn nv in den mid range markt gehen will brauchen sie 65nm um da kostengünstig die chips zu fertigen für ~200-300€ karten
ich halte den G80 selektiert bis 700mhz brauchbar
am 580er sah man ja auch was bei ati möglich ist
daher traue ich auch ati die 700mhz in 80nm zu
StefanV
2007-02-15, 11:02:52
Außerdem sind 1KW oder 2KW im Haushalt eh lächerlich...
Nicht jeder lebt in Deutschland, in Amiland, mit ihren 110V Netz, scheint die Regel 15A zu sein, mit Glück gar 20A...
You can do the maths :rolleyes:
PS: Sowas ist kein Klacks!!
Wenn man bedenkt, das nichtmal 'nen Herd soviel verbrät (liegt bei 900-1150W), eine Herdplatte auch eher nicht (nur die ganz großen doppelten verbrauchen eventuell 2kW, aber auch eher 1,5kW)...
Waschmischine scheidet aus, die braucht die Leistung nur kurzzeitig, ums Wasser zu erhitzen...
=Floi=
2007-02-15, 11:08:24
http://www.discount24.de/angebote/electrolux_elektroherd_ekc-42.html
ein herd wird immer an drehstrom angeschlossen!
http://www.yatego.com/superhaar/p,457f5874d9479,425150be20a7d4_3,babyliss-pro-i-storm-ionic-haartrockner-2000-watt
die 1kw teile sind ja schon für halbe server und ein normaler computer ist ja auch mit 500watt heutzutage gut ausgerüstet und die netzteile sollten ja meistens länger im einsatz sein...
deshalb schiele ich auch schon auf den 750watt bereich damit ich dann mit dem teil gute 4+ jahre auskommen kann
robbitop
2007-02-15, 11:08:33
aber wenn nv in den mid range markt gehen will brauchen sie 65nm um da kostengünstig die chips zu fertigen für ~200-300€ karten
Wieso brauchen sie 65nm? Vermutlich sind die Yields dieses noch jungen HighPerformance Prozesses noch nicht so optimiert, wie man es gern hätte. mit einem 80nm Midranger schafft man eine kurze Time-to-Market und dank guten Yields auch ausreichende Margen.
Die Size des G86 dürfte im Bereich eines RV570 liegen (NV packt die Transistoren etw besser) und der wird momentan mit 256 bit DDR und 512MiB VRAM für ab 121 EUR verkauft. Das sollte für G86 genügen.
Nicht nur die DIE Size ist wichtig. Sie ist nur ein Faktor. Wichtig ist, wieviele Chips pro Wafer man bekommt und wieviele Chips man verkaufen kann.
Wenn die Yields die Stückzahl pro Wafer drücken und man später auf den Markt kommt (und so weniger Verkaufszahlen über die Zeit hat bzw seine Margen drücken muss durch den Wertverfall), nützt einem ein neuer Fertigungsprozess nichts. Ein Fertigungsprozess muss vor allem erstmal reif sein.
seahawk
2007-02-15, 11:12:35
Auch von einem G81 habe ich lange nichts mehr gelesen.
Ich sage ja nicht, dass ein Shrink sooo problematisch ist. Ich sage nur, dass ich bisher noch von keinem TapeOut gehört habe. Und das kommt ja idR Monate vor dem Verkauf..
Ich erinner mich halt an den Shrink für die 7600 (G73 ?) der kam auch recht überraschend.
Ich erinner mich halt an den Shrink für die 7600 (G73 ?) der kam auch recht überraschend.
Nope, über diesen wurde auch schon Monate vorher berichtet, AFAIK schon im Sommer 06.
=Floi=
2007-02-15, 11:16:26
sorry ich meinte den G80 in 65nm weil jetzt auf einem (300mm) waver zu wenig chips rausgehen...
den rest kann man ruhig in 80nm machen
und intel hat den prozess ja auch im griff
dagegen steht hald dann die doppelte menge an chips und
wenn weniger fläche in anspruch genommen wird ist die fehler warscheinlichkeit in einem wichtigen bereich auch geringer!
sorry ich meinte den G80 in 65nm weil jetzt auf einem (300mm) waver zu wenig chips rausgehen...
den rest kann man ruhig in 80nm machen
Nvidia wird sicherlich keinen jungen, unausgereiften Prozesse mehr für Highend-GPUs anwenden, nach einer gewissen Erfahrung in der Vergangenheit. ;)
und intel hat den prozess ja auch im griff
CPU-Fertigung != GPU-Fertigung
robbitop
2007-02-15, 11:19:31
Intel =! TSMC
CPUs =! GPUs
Diese Vergleiche sind sinnfrei. Die Nodes und die Anforderungsprofile sind ganz andere. Nur weil da eine Zahl (xyz nm) gleich ist, bleibt es dennoch kein valider Vergleich.
Ein G80 in 80nm würde IMO schon Sinn machen, sofern der Prozess einen so großen Chip schon zuverlässig trägt (R600 scheint ja einige Probleme zu haben).
paul.muad.dib
2007-02-15, 11:22:30
Erstmal hätte ATI das Problem. Ein neuer Fertigungsprozess in der Reifephase bringt meist noch nicht die erwünschten Yields bei angestrebten Taktraten. Darunter leidet der Profit enorm.
NVIDIA scheint in den letzten Jahren auf Nummer sicher gegangen zu sein und wählte den neusten Fertigungsprozess immer erst, wenn er reif genug war.
ATI brachte es nichts als Verschiebungen ein. Das ist nicht gut.
Stell dir mal den r520 in 110 oder gar 130 nm vor. Grusel.
Ati brauchte für seine Designs den kleineren Prozess.
Ein G80 in 80nm würde IMO schon Sinn machen, sofern der Prozess einen so großen Chip schon zuverlässig trägt (R600 scheint ja einige Probleme zu haben).
Wobei das wohl eher am Design des R600 auf hohe Taktraten in der gesamten GPU liegt, ATi fährt den Prozess wohl schon ziemlich an seinen Grenzen, was bei einem G80 wohl eher nicht der Fall wäre, da dieser ja selbst in 90nm keine wirklichen Probleme macht.
Henroldus
2007-02-15, 11:24:55
Denk mal dran, das es in anderen Ländern keine 230V Netze gibt, die Sicherung aber genauso stark ist.
z.B. Nord Amerika, wo 15A@110V Standard ist, guggsu hier (http://www.electrical-online.com/cableandwire.htm).
Und selbst mit 20A reichts NICHT für ein 2kW Netzteil....
und wie betreibt dann ein Ami seinen Staubsauger und Elektroherd?
blödsinn nen PC wird keine Sicherung fliegen lassen.
der vorschlag weiter oben(350W passiv) könnte auch mir gefallen.
in meinen Rechner kommt die ATI Karte, für die das 400W NT reicht(X2800XL?)
robbitop
2007-02-15, 11:29:20
Stell dir mal den r520 in 110 oder gar 130 nm vor. Grusel.
Ati brauchte für seine Designs den kleineren Prozess.
Dann sollte man zusätzlich noch an der Design Philosophie arbeiten.
Skalierbarkeit und Time-to-Market sind in diesem harten Markt für die finanzielle Gesundheit eines Unternehmens besser als ein Tim Taylor der nach mehr Power schreit X-D (kleiner Spaß)
dargo
2007-02-15, 11:32:40
in meinen Rechner kommt die ATI Karte, für die das 400W NT reicht(X2800XL?)
Falls die X2900XL(?) einen GPU-Takt um die 650Mhz haben sollte und die XTX 800Mhz würde ich von ausgehen, dass die XL auf dem Niveau von einer X1950XTX (vielleicht auch etwas weniger) vom Stromverbrauch her liegt.
Die gelbe Eule
2007-02-15, 11:35:35
Wenn sie aber 2x6(8)PIN haben wird, eher nicht. Bisher sollen nur Taktraten und Ramgrößer verschieden sein, wäre auch sonst ein zu großer Sprung für XTX vs. XT Spielchen. Da der 8PIN bei der XTX schon für Overdrive genutzt wird, könnte man sich den Rest denken.
Ailuros
2007-02-15, 11:35:44
Da sollte es ja eigentlich keine Probleme geben auch die Fertigung für den G80 umzustellen, immerhin hat Nvidia den 80nm Prozess schon fast ein 1/2 Jahr in der Mache.
Vielleicht ist das missing MUL im originalen G80 gar doch defekt, wie der Videoprozessor damals beim NV40, und wird dies halt mit G80-B... gefixt, der dann als 8900GTX antritt und im H2 kommt dann GeForce9 in 65nm, wie AiL schon andeutete.
MUL kommt durch Treiber.
Falls die X2900XL(?) einen GPU-Takt um die 650Mhz haben sollte und die XTX 800Mhz würde ich von ausgehen, dass die XL auf dem Niveau von einer X1950XTX (vielleicht auch etwas weniger) vom Stromverbrauch her liegt.
Ausser man verbaut auf der XL GPUs die den hohen Takt von XT(X) nicht geschafft haben, die dann vielleicht auch entsprechende Voltage brauchen, da könnte man doch etwas über der X1950XTX liegen. ;)
dargo
2007-02-15, 11:40:19
Wenn sie aber 2x6(8)PIN haben wird, eher nicht. Bisher sollen nur Taktraten und Ramgrößer verschieden sein, wäre auch sonst ein zu großer Sprung für XTX vs. XT Spielchen. Da der 8PIN bei der XTX schon für Overdrive genutzt wird, könnte man sich den Rest denken.
Ich rede von der XL und nicht von der XT.
Ausser man verbaut auf der XL GPUs die den hohen Takt von XT(X) nicht geschafft haben, die dann vielleicht auch entsprechende Voltage brauchen, da könnte man doch etwas über der X1950XTX liegen. ;)
Wenn ich zurück an die X1800XL denke bin ich da eher optimistisch. Diese hatte afaik 0,2V weniger an der GPU bei 125Mhz weniger GPU-Takt anliegen als die X1800XT. Bei der Verlustleistung hat sich das deutlich positiv ausgewirkt.
StefanV
2007-02-15, 11:44:10
und intel hat den prozess ja auch im griff
CPUs sind ja auch SRAM mit Logik, keine reinen Logiktransis wie es GPUs sind.
Daneben haben die aktuellen CPUs auch weit mehr L2 Cache als drauf steht, da sind nicht nur 4MiB L2 Cache drin, beim Conroe, da sind eher 4,1MiB drin, 4MiB zur Verwendung, 100k als Reserve...
und wie betreibt dann ein Ami seinen Staubsauger und Elektroherd?
Frag doch mal 'nen Ami, was für Staubsauger sie haben ;)
Außerdem hat 'nen Staubsauger auch nicht soo viel Leistung, ~1,5kW haben die meistens.
Und 'nen E-Herd schließt man eh direkt an (ganz ab davon ist Gas für Herd in US verbreiteter, was auch Sinn macht, mit Strom was warm machen halte ich für ziemlich bescheuert)
blödsinn nen PC wird keine Sicherung fliegen lassen.
Ein normaler nicht, aber einer mit 2kW NT und 2kW Belastung schon ;)
Zumal man mit ~80% Effizienz bei 2kW ungefähr 2,4kW rein braucht...
PS: meine Celsius 670 hat bei meiner Oma tatsächlich die Sicherung rausgehauen, wenn ich sie mit dem Stromnetz verbunden hab und sie es vorher nich war...
James Ryan
2007-02-15, 11:45:22
MUL kommt durch Treiber.
Wie sicher ist es, dass NVIDIA das MUL-Problem mit einem neuen Treiber fixen wird?
Ich erinnere mich an eine ähnliche NVIDIA-Aussage im Herbst 2004 über den Videoprozessor im NV40.
MfG :cool:
Die gelbe Eule
2007-02-15, 11:47:52
Vielleicht ist es gar kein Problem, sondern nur ein Backup für Leistung die man noch freigeben könnte.
robbitop
2007-02-15, 11:48:24
Das sind zwei völlig verschiedene Dinge.
Mal eben in den Shaderprozessoren so ein Problem zu fixen, ist wegen der custom transistors ziemlich aufwändig. Da man die Dinger noch bis zum G9x nutzen will, sollten die schon funktionieren. Ansonsten käme das MULl erst im G9x wieder, wenn es in HW defekt wäre.
Hauwech
2007-02-15, 11:49:59
sorry ich meinte den G80 in 65nm weil jetzt auf einem (300mm) waver zu wenig chips rausgehen...
den rest kann man ruhig in 80nm machen
und intel hat den prozess ja auch im griff
dagegen steht hald dann die doppelte menge an chips und
wenn weniger fläche in anspruch genommen wird ist die fehler warscheinlichkeit in einem wichtigen bereich auch geringer!
Hä? Das große Geld wird mit kleine(re)n Karten gemacht.
Was hat Intel mit TSMC zu tun? Nebenbei ist ein Grafikchip komplett anders als eine CPU, von daher nicht vergleichbar.
Nakai
2007-02-15, 12:13:43
MUL kommt durch Treiber.
Und was wird es bringen?
mfg Nakai
puntarenas
2007-02-15, 12:15:21
in meinen Rechner kommt die ATI Karte, für die das 400W NT reicht(X2800XL?)
Meine Rede, dieselbe Hoffnung habe ich auch. Würde mich auch nicht wundern, wenn das kursierende Bild von einem frühen Engineering Sample des X2800XTX stammt und der 2x 6-Pol-Stecker (6+8) nur noch auf der X2900XTX verblieben ist. Vielleicht hat AMD ja einfach die Notbremse gezogen und erste Sparansätze sind im "Refresh" bereits eingeflossen, während man uns das extrem stromfressende Originaldesign gleich ganz vorenthalten hat, wäre ein vernünftiger Schritt.
Ansonsten heißt es für mich, noch eine Weile länger darben bis entweder Nvidias Refresh oder der R700 als erstes Produkt mit reichlich AMD-Know-How eine rundum überzeugende Vorstellung bietet.
Trotzdem, aus dem späten Launch auf ein vermurkstes Produkt zu schließen ist reichlich früh und ich glaube noch immer an das Gute in Kannada. Amen!
Die gelbe Eule
2007-02-15, 12:15:54
@Nakai: Eine mögliche Performancesteigerung bei arithmetischen Berechnungen.
seahawk
2007-02-15, 12:16:47
Wie sicher ist es, dass NVIDIA das MUL-Problem mit einem neuen Treiber fixen wird?
Ich erinnere mich an eine ähnliche NVIDIA-Aussage im Herbst 2004 über den Videoprozessor im NV40.
MfG :cool:
Das man sie nicht nutzt bedeutet nicht zwangsweise, dass sie nicht funktionieren.
micki
2007-02-15, 12:18:52
Das sind zwei völlig verschiedene Dinge.
Mal eben in den Shaderprozessoren so ein Problem zu fixen, ist wegen der custom transistors ziemlich aufwändig. Da man die Dinger noch bis zum G9x nutzen will, sollten die schon funktionieren. Ansonsten käme das MULl erst im G9x wieder, wenn es in HW defekt wäre.
wie aufwendig es ist das zu fixen haeng davon ab, was fuer eine art von fehler das ist. Es koennte ebenfalls sein, dass das garkein fehler ist, sondern noch leistungsreserven die man sich fuer die zukunft reserviert.
man kann
- diese beim G9x freigeben um leicht zu zeigen dass er staerker ist als G8x ohne viel aufwand zu treiben
- als reaktion auf konkurenz schon beim g80 freigeben
- alternativ kann man sich die transistoren beim g90 eventuell sparen ohne angst zu haben dass der g80 den g90 ownt.
Nakai
2007-02-15, 12:26:42
@Nakai: Eine mögliche Performancesteigerung bei arithmetischen Berechnungen.
Das ist mir schon klar. Theoretisch müsste es eine Steigeurng von 50% sein, aber auch nur wenn es zu MULs kommt.
Eigentlich wollt ich wissen in welchem Bereich die Steigeurng zu erwarten ist.
mfg Nakai
Die gelbe Eule
2007-02-15, 12:33:02
Kannst Dir selbst beantworten, wenn weißt was in der ALU sitzt ;)
Siehe auch: http://www.3dcenter.org/artikel/2006/12-28_a.php
Die neuen Pipelines
Der G80 bietet im Vollausbau (GeForce 8800 GTX) acht aktive Vec16-ALUs, wobei eine ALU pro Takt MUL, ADD, und noch mal MUL ausführen kann (sprich pro skalarem Kanal drei Floating-Point-Operations, 3 Flops). MUL steht für Multiplikation, ADD für Addition. Der Großteil jeglichen Shadercodes wird nach wie vor mit MUL und ADD berechnet. Die ALUs takten mit 1350 MHz, das ergibt bei 8 × 16 × 3 Flops × 1350 MHz eine theoretische Leistung von bis zu 518 Gigaflop/s. Allerdings steht Nvidia noch einige Arbeit am Scheduler bevor: Die zweite MUL-Unit liegt derzeit brach – jedenfalls sieht es so aus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.