PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : it´s coming...


Seiten : [1] 2

nagus
2002-07-02, 18:17:44
http://www.ati.com/


;D ;D ;D

Salvee
2002-07-02, 18:20:45
ohne Worte *freu* :jump1:

Modulor
2002-07-02, 18:22:13
Hoffentlich ist sie nicht so langsam wie der Ladevorgang des Plugins...:D

Unreal Soldier
2002-07-02, 18:25:40
Coole Animation.
dann mal abwarten bis 10.August


MFG
Unreal Soldier :D

Silent Hunter
2002-07-02, 18:28:10
was soll auf der homepagee sein? ???

thop
2002-07-02, 18:58:07
idee scheint mir von matrox geklaut. oder gabs solche ankündigungen schon vorher, bloss sind mir nie aufgefallen?

wie dem auch sei: hoffentlich nich mehr lang :)

Unregistered
2002-07-02, 20:03:55
Die ATI-Seiten sind für Opera-User echt toll :(

/flameon
scheinbar sitzen da nicht nur in der Treiberentwicklung Praktikanten...
/flameoff

Ansonsten bleibt zu hoffen, dass ATI nicht den gleichen Fehler macht wie R8500 oder Paella

Exxtreme
2002-07-02, 20:19:15
Passt auf, gleich kommt nocturne und wird euch was vom Hypen von Vaporware[TM] erzählen.
;D ;)

Gruß
Alex

Tarkin
2002-07-02, 20:20:47
Originally posted by Unregistered
Die ATI-Seiten sind für Opera-User echt toll :(

/flameon
scheinbar sitzen da nicht nur in der Treiberentwicklung Praktikanten...
/flameoff

Ansonsten bleibt zu hoffen, dass ATI nicht den gleichen Fehler macht wie R8500 oder Paella

wer surft schon mit Opera ? ... 1-3%. Aber egal.

btw. IMO sehen wir VOR dem 10.08. was Sache ist.

zeckensack
2002-07-02, 20:27:35
Für Opera-User:
http://www.ati.com/images/teaser.swf

aths
2002-07-02, 20:31:15
Die Seite funzt bei mir mit Opera ohne Probleme.

nggalai
2002-07-02, 20:34:05
*freu*

ta,
.rb

zeckensack
2002-07-02, 20:49:27
Originally posted by aths
Die Seite funzt bei mir mit Opera ohne Probleme. Whoops, bei mir auch. Ging nur nicht wegen deaktiviertem JavaScript.

Aber generell ist die ATi-Seite eines der scheußlichsten Negativbeispiele für Webdesign (vom Code-Standpunkt aus, optisch ist's ja ganz nett).

Unregistered
2002-07-02, 21:13:56
Originally posted by thop
idee scheint mir von matrox geklaut. oder gabs solche ankündigungen schon vorher, bloss sind mir nie aufgefallen?

wie dem auch sei: hoffentlich nich mehr lang :) Solche Teaser gabs schon vor Matrox. Jüngeres Beispiel: Kurz vor der Vorstellung der GF4 wurde bereits der Wolfman in einem Teaser gezeigt.
Parhelia war dank Auseinanderklaffen von Super-Hype und Real-Performance bislang DER Bauchplatscher der Graka-Industrie. Vielleicht möchte ATi diesen Fehlstart mit seiner 0.15-Fertigung noch überbieten.
Experience the world without limits - in 0.15 Mikron, mit Taktraten von 220/200.

Exxtreme
2002-07-02, 21:16:53
Originally posted by Unregistered
Experience the world without limits - in 0.15 Mikron, mit Taktraten von 220/200.
Err, in der Präsentation konnt ich nichts von 220/200 MHz entdecken und ATi schweigt sich in dieser Hinsicht auch aus. Vielleicht nennst du uns eine Quelle für diese Angaben.

Gruß
Alex

GUNDAM
2002-07-02, 21:19:47
Ich kann nur eins dazu sagen.:O

Salvee
2002-07-02, 21:34:30
Originally posted by Unregistered
Vielleicht möchte ATi diesen Fehlstart mit seiner 0.15-Fertigung noch überbieten.
Experience the world without limits - in 0.15 Mikron, mit Taktraten von 220/200.

Wer keinen Bock hat zu warten :D :

-Anno 2002->R300->0,15
-Anno 2003->R300->0,13

Schnitzl
2002-07-02, 22:02:47
Originally posted by aths
Die Seite funzt bei mir mit Opera ohne Probleme.
Klar, die Startseite schon!
Aber dann klick mal irgendwo hin *grrr*

Ist ja nicht so schlimm, nehm ich eben Mozilla, aber peinlich find ichs schon.

@ Tarkin: wer heisst schon Tarkin ? :bäh: ;)

P.S.: ich jedenfalls wünsche ATI mehr "Glück" als Matrox

nocturne
2002-07-02, 22:29:16
Originally posted by Exxtreme

Err, in der Präsentation konnt ich nichts von 220/200 MHz entdecken und ATi schweigt sich in dieser Hinsicht auch aus.

Klar schweigen sie dazu. Wenn sie die 0.15µm jetzt schon zugeben müssten, würde das ja den ganzen Vorschuss-PR-Hype kaputt machen. *eg*

zeckensack
2002-07-02, 22:30:46
Originally posted by Unregistered
Experience the world without limits - in 0.15 Mikron, mit Taktraten von 220/200. Das ist bei Vaporware mit 8 Pixelpipes weit weniger schlimm als beim Parhelia mit 4.

Unregistered
2002-07-02, 23:03:58
nocture, wenn du doch nur einmal dein dummes Schandmaul stillhalten könntest...

AlfredENeumann
2002-07-02, 23:26:25
Originally posted by nocturne


Klar schweigen sie dazu. Wenn sie die 0.15µm jetzt schon zugeben müssten, würde das ja den ganzen Vorschuss-PR-Hype kaputt machen. *eg*


Was soll den an 0.15µ deiner meinung so schlimm sein ?

nocturne
2002-07-02, 23:49:18
Originally posted by AlfredENeumann

Was soll den an 0.15µ deiner meinung so schlimm sein ?

Das hat so mancher vor der enttäuschenden Parhelia-Enthüllung auch gefragt. ;)

Viele Antworten auf Deine Frage findest du z.B. in diesem Thread:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=22693

raibera
2002-07-03, 07:54:49
Originally posted by Unregistered
nocture, wenn du doch nur einmal dein dummes Schandmaul stillhalten könntest...

nicht aufregen. nocturne´s gelaber ist doch bloß vaporware[tm]

StefanV
2002-07-03, 08:18:47
Nocturne, gerüchten Zufolge soll der R300 8 Pipes haben, nicht 4 wie beim Parhelia...

nagus
2002-07-03, 08:53:09
Originally posted by nocturne


Das hat so mancher vor der enttäuschenden Parhelia-Enthüllung auch gefragt. ;)

Viele Antworten auf Deine Frage findest du z.B. in diesem Thread:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=22693


ähh.... was bitteschön hat die fertigungstechnik mit der geschwindigkeit der GPU zu tun???


nur weil matrox mit der parhelia "in die scheisse" gegriffen hat, heist das noch lange nicht, dass es ATI auch so ergehen wird.

nggalai
2002-07-03, 08:59:19
Originally posted by nagus
ähh.... was bitteschön hat die fertigungstechnik mit der geschwindigkeit der GPU zu tun???


nur weil matrox mit der parhelia "in die scheisse" gegriffen hat, heist das noch lange nicht, dass es ATI auch so ergehen wird. Genau. Man kann Hersteller und Fabrikation nicht einfach 1:1 vergleichen, dazu unterscheiden sich die Architekturen der verschiedenen Chips zu stark. Nur weil ein Hersteller bei einem Fabrikationsprozess suboptimale Ergebnisse lieferte, muss das noch lange nicht für andere Hersteller gelten.

Oder würde hier jemand sagen, dass der AthlonXP im Vergleich zum P4 Scheisse sein MUSS, nur weil er nicht in .13um gefertigt wird? Nach nocturnes Logik wäre dies der Fall . . .

ta,
-Sascha.rb

P.S. ich wäre aber dennoch erstaunt, wenn der .15um R300 gleich ab Start perfekt performen würde. Ich erwarte eigentlich diesselbe Situation wie beim R200-Launch.rb

Com1
2002-07-03, 09:00:02
Lasst Nocturne & Co doch labern... diesmal haben schon mehrere Quellen die R300 Performance bestätigt (Doom 3 E3 Präsentation, Anandtech) und zwar beide mit der Aussage, der R300 liegt auf jeden Fall vor der GF4 4600.

Tarkin
2002-07-03, 09:09:33
Originally posted by Schnitzl

@ Tarkin: wer heisst schon Tarkin ? :bäh: ;)



einer der größten Männer des Imperiums :P

TBird
2002-07-03, 10:00:02
Originally posted by Tarkin


einer der größten Männer des Imperiums :P

ist im vierten Teil gestorben...

Richthofen
2002-07-03, 11:09:40
"
der R300 liegt auf jeden Fall vor der GF4 4600.
"

Naja das wäre ja nun auch mehr als peinlich wenn das nicht der Fall wäre.
Davon gehen wir doch mal aus.

Com1
2002-07-03, 12:02:48
Deshalb sind vergleiche mit Matrox Parhelia auch völlig fehl am Platz.

Radeonator
2002-07-03, 12:25:14
Ich kann nur sagen:Abwarten und Teetrinken und es wird nix so heiss gegessen wie es gekocht wird ;)

Warum über etwas noch nicht zu testendes streiten???Unsere ewigen pessimisten brauchen halt ihre Schwarz seherei, um sich wenigstens einmal am Tag wichtig fühlen zu können und andere malen alles gerne Bunt an. Ich hingegen versuch solange farblos zu bleiben bis etwas "handfestes" zum Testen da ist :)

Durch reine theorie ist noch nie Performance testbar gewesen...:P

zeckensack
2002-07-03, 12:45:08
Originally posted by Radeonator
Ich kann nur sagen:Abwarten und Teetrinken und es wird nix so heiss gegessen wie es gekocht wird ;)Genau!Warum über etwas noch nicht zu testendes streiten???Unsere ewigen pessimisten brauchen halt ihre Schwarz seherei, um sich wenigstens einmal am Tag wichtig fühlen zu können und andere malen alles gerne Bunt an.Wenn es bei 'einmal am Tag' bliebe, hätte ich auch wesentlicher weniger spontane Ohnmachtsanfälle beim Forumlesen ;)Ich hingegen versuch solange farblos zu bleiben bis etwas "handfestes" zum Testen da ist :)

Durch reine theorie ist noch nie Performance testbar gewesen...:P *lob*
*zustimm*

Fragman
2002-07-03, 12:56:11
kann nicht verstehen wie man behaupten kann, der r300 wird ein flop wie der parhelia. schon der r200 war top, nur die treiber haben geschwaechelt, trotzdem wars ne 1a konkurenz fuer den g3! dieses prob duerfte nicht mehr exestieren, carmack hat sich positiv dahingehend geaeussert. und dieses dumme "...nur 0.15 fertigung, also langsam..." ist doch schwachsinn. wie hier machne argumentieren, ohne worte...

AlfredENeumann
2002-07-03, 13:02:38
Originally posted by nocturne


Das hat so mancher vor der enttäuschenden Parhelia-Enthüllung auch gefragt. ;)

Viele Antworten auf Deine Frage findest du z.B. in diesem Thread:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=22693


Ich sehe da immer noch kein einziges vernünftiges Argument warum ein 0.15er Fertigungsprozess schlimm ist.

AlfredENeumann
2002-07-03, 13:04:27
Originally posted by Richthofen
"
der R300 liegt auf jeden Fall vor der GF4 4600.
"

Naja das wäre ja nun auch mehr als peinlich wenn das nicht der Fall wäre.
Davon gehen wir doch mal aus.


Hat JC ja sozusagen schon bestätigt, das die (alpha)Karte mit (alpha)Treiber schneller war als eine "very High Speed GF4".

jedi
2002-07-03, 13:08:43
Wie Richthofen schon sagte: es wäre ja auch peinlich für ATI, wenn das nicht so wäre. Aber erwarte keine Wunder. Das Ding muss einfach ein paar Prozent schneller werden, sonst könnte ATI das Ding auch gleich einstampfen. Aber sehr viel mehr Spielraum ist bei 0.15µm eben nicht mehr drin, siehe Matrox.

nggalai
2002-07-03, 13:10:36
Originally posted by AlfredENeumann



Hat JC ja sozusagen schon bestätigt, das die (alpha)Karte mit (alpha)Treiber schneller war als eine "very High Speed GF4". . . . in der E3-Demo zu DooM3. Das muss gar nichts heissen. ;)

Radeonator hat vollkommen recht: es ist sinnlos, sich wegen sowas schon Argumente um die Ohren schlagen zu wollen. Bringt nix, lieber noch ein wenig warten. Die werden den Flash-Banner ja kaum 2 Monate auf der Webseite lassen. ;)

ta,
-Sascha.rb

ow
2002-07-03, 13:10:58
Originally posted by AlfredENeumann



Ich sehe da immer noch kein einziges vernünftiges Argument warum ein 0.15er Fertigungsprozess schlimm ist.


Schlimm ist das nicht, es reduziert nur die erreichbaren Taktraten und somit die Leistung.

ow
2002-07-03, 13:13:58
Originally posted by AlfredENeumann



Hat JC ja sozusagen schon bestätigt, das die (alpha)Karte mit (alpha)Treiber schneller war als eine "very High Speed GF4".


Nein, das hat JC nicht gesagt.

JC sagte sinngemaess, dass die next/gen ATi unter dem momentanen Stand der Entwicklung bei D3 schneller als eine schnelle GF4 ist.


Er sagte nichts von alpha Karte/alpha Treibern und er sagte auch nichts dazu wie die Karte ausserhalb D3 performt.

jedi
2002-07-03, 13:13:59
Originally posted by Radeonator
Ich kann nur sagen:Abwarten und Teetrinken und es wird nix so heiss gegessen wie es gekocht wird ;)

Warum über etwas noch nicht zu testendes streiten???Unsere ewigen pessimisten brauchen halt ihre Schwarz seherei, um sich wenigstens einmal am Tag wichtig fühlen zu können und andere malen alles gerne Bunt an. Ich hingegen versuch solange farblos zu bleiben bis etwas "handfestes" zum Testen da ist :)

Durch reine theorie ist noch nie Performance testbar gewesen...:P

Dem kann man nur zustimmen. Aber ohne den lächerlichen verfrühten Parhelia-Hype hätte es sicher auch weniger Schwarzseherei gegeben. Zuerst kam ja das lächerliche "Matrox on the top again" in machen Signaturen, und erst anschliessend kamen die Zweifler.

Überzogener Vaporware-Hype erzeugt eben automatisch Gegenreaktionen. Und wie sich herausstellte, hatten die Hyper Unrecht und die Zweifler Recht.

Kellwolf
2002-07-03, 13:17:52
Hm, was ich an der ganzen Sache nicht so recht verstehen kann ist
die Tatasache das Matrox für ihren zwar hoch entwickelten Chip so
eine menge kohle will, ok der Chip kann zwar einiges aber er ist trotz
all seinen Features grottenlangsam. Auch glaube ich nicht das Matrox
mit neuen Treibern viel mehr Leistung herauskitzelt, da wird Creativ
mit ihrem P10 warscheinlich bessere DX9 u. OGL 2.0 Treiber zur verfügung stellen (obwohl erst mal abwarten wie die Treiber werden). Also erst mal entspannen und Ati und Nvidia´s Kampfkarte abwarten, denke aber das der weg den Creativ Labs mit dem P10 der richtige weg in die Zukunft ist, mir ist eine Grafikcpu die programmierbar (fast) wie eine Cpu ist lieber, als ein paar funktionen hier ein paar andere da....
Mit der programmierbaren Grafikcpu währen die Treiberprogrammierer gefragt die entsprechenden DX features zur verfügung zu stellen und man koennte vielleicht dann sehen wer die besseren Treiber schreibt ( ok, wie schnell der Grafikchip diese effekte dann umsetzt wird wohl dann wieder von MHz zahl und speicheranbindung liegen), diese sache ist glaube ich aber besser als mit jeder DX version wieder die gerade 3 monate - 1 jahr alte Graka wegzuschebbeln oder mit viel verlust (je nach dem wie schnell man sich die neuste Generation kauft)
zu verkaufen.Selbst ein neuwagen hat nicht so viel verlust im ersten Jahr wie Hardware.
Auch denke ich das die Spieleprogrammierer die Programmfunktionen der jeweiligen DX version nutzen koennen, da ja nur der Treiber der Graka dann für den effekt zuständig ist und nicht die festverdrahtete oder fehlende Option in der hardware der Karte.
MFG
Kellwolf

Rechtschreibfehler gehören zur belustigung der Masse........

nagus
2002-07-03, 13:26:39
Originally posted by jedi
Wie Richthofen schon sagte: es wäre ja auch peinlich für ATI, wenn das nicht so wäre. Aber erwarte keine Wunder. Das Ding muss einfach ein paar Prozent schneller werden, sonst könnte ATI das Ding auch gleich einstampfen. Aber sehr viel mehr Spielraum ist bei 0.15µm eben nicht mehr drin, siehe Matrox.


sehe ich genau umgekehrt.


man stelle sich mal vor, welches "monster" von grafikkarte die GF4 4600 geworden wäre, wenn Nvidia ein 256bit speicherinterface und 4x4 piplines verbaut hätte! das teil wäre garantiert doppelt so schnell wie die Parhelia....

jedi
2002-07-03, 13:30:03
Originally posted by nagus

man stelle sich mal vor, welches "monster" von grafikkarte die GF4 4600 geworden wäre, wenn Nvidia ein 256bit speicherinterface und 4x4 piplines verbaut hätte! das teil wäre garantiert doppelt so schnell wie die Parhelia....

Sie wäre teurer geworden und hätte sich durch die höhere Transistorzahl sicher auch nicht so hoch takten lassen. ;)

nagus
2002-07-03, 13:40:55
Originally posted by jedi


Sie wäre teurer geworden und hätte sich durch die höhere Transistorzahl sicher auch nicht so hoch takten lassen. ;)


.... ich meine jetzt hauptsächlich das 256bit speicherinterface. ( rein hypothetisch, theoretisch... ;)


in welchen dimensionen würde sich der performancegewinn bewegen? 50% schneller? 75% schneller ... ?


mit sicherheit wird die karte dadurch nicht langsamer.

von der anderen seite gesehen.... wie "langsam" wäre eine parhelia OHNE 256bit interface?

Doomtrain
2002-07-03, 13:50:51
Originally posted by nagus



in welchen dimensionen würde sich der performancegewinn bewegen? 50% schneller? 75% schneller ... ?


mit sicherheit wird die karte dadurch nicht langsamer.

von der anderen seite gesehen.... wie "langsam" wäre eine parhelia OHNE 256bit interface?

Der Performancegewinn wäre schon sehr groß mit einem 256bit Interface. DerParhelia hat ein sehr ineffizientes Bussystem ohne LMAII (GeForce4) oder HyperZIII (R300).

Ohne sein 256bittiges Interface wäre der Parhelia vielleicht gerade auf GeForce2 Ultra Niveau.

egdusp
2002-07-03, 14:14:22
Der GF4 hat trotz höherer Transistorzahl und gleichem (bzw. gleich großem, natürlich werden die Herstellungstechniken immer weiterentwickelt) Herstellungsprozeß (.13) höhere Taktraten erreicht. Im Vergleich zum ersten Modell (Geforce3 Anfang 2001) sogar über 50% mehr (200 zu 330).
Man sollte also den Herstellungsprozeß nicht überbewerten. Siehe auch AMD: Wechsel zu .13 von .18 und kaum Geschwindigkeitsgewinne.

Schlupp
2002-07-03, 14:51:43
Gut das grad AMD fällt, hat schonmal jemand dran gedacht das es ja nicht unbedingt ein reiner 0.15µm Prozess sein muss?

Tarkin
2002-07-03, 16:08:16
Originally posted by ow



Schlimm ist das nicht, es reduziert nur die erreichbaren Taktraten und somit die Leistung.

wer sagt denn, dass die Fertigung in 0.13µ = höhere Taktrate ergibt ... bestes Beispiel: AMD. IMO haben war der Wechsel zu 0.13µ ein Schuß in den Ofen.

Solange nicht alle Karten auf dem Tisch liegen ;) ... Ihr wisst schon.

Tarkin
2002-07-03, 16:09:17
Originally posted by ow



Schlimm ist das nicht, es reduziert nur die erreichbaren Taktraten und somit die Leistung.

wer sagt denn, dass die Fertigung in 0.13µ = höhere Taktrate ergibt ... bestes Beispiel: AMD. IMO war deren Wechsel zu 0.13µ ein Schuß in den Ofen.

Solange nicht alle Karten auf dem Tisch liegen ;) ... Ihr wisst schon.

Tarkin
2002-07-03, 16:10:46
uupsidasi! Doppelpost bitte löschen, danke!

... bitte gleich beide Posts löschen ... das Thema hat egdusp bereits aufgegriffen.

ow
2002-07-03, 16:39:24
Originally posted by Tarkin


wer sagt denn, dass die Fertigung in 0.13µ = höhere Taktrate ergibt ... bestes Beispiel: AMD. IMO haben war der Wechsel zu 0.13µ ein Schuß in den Ofen.

Solange nicht alle Karten auf dem Tisch liegen ;) ... Ihr wisst schon.


So wie es derzeit ausschaut, sind auch saemtliche XPs schon mit 0.13 Transistoren gefertigt und nur die Leiterbahnen in 0.18.

Dann bringt eine Umstellung auf 0.13 'komplett' fast nichts mehr.

Radeonator
2002-07-03, 16:57:42
Da fallen mir zwei Fragen ein:
Warum ist die 256Bit Anbindung bei der Matrox so schlecht gelungen?
Warum soll (angeblich also in Theorie) auf die Anbindung bei der P10 schlechter als bei ATI/Nvidia sowie der Vertex Shader weniger performant/effizient sein?

Eigentlich sind dinge wie TBR/LMA/HZ ja eher dafür gedacht Engpässe bei der 128bitigen Bandbreite zu verhindern.Theoretisch habe ich aber durch doppelte Bus Breite ein solches Problem doch eher weniger(?).

p.s.:Versucht das bitte mal für Laien(ich bin Netzwerk Admin, kein Graka Designer bzw. Programmierer ;) ) verständlich zu erklären.

jedi
2002-07-03, 17:07:51
Originally posted by Radeonator

Warum ist die 256Bit Anbindung bei der Matrox so schlecht gelungen?

Das Thema gibt's ja schon in anderen Threads (z.B. hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21614) oder hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24938)). Da brauchen wir hier nicht auch noch eine neue offtopic-Diskussion darüber aufmachen. ;)

Unregistered
2002-07-03, 17:09:29
HARHAR!

Na hat heut schon mal jemand auf nvidia.com geschaut?? oder nvidia.de oder nvidia.fr ... wie? Neine??? haettet ihr tuhen sollen, die sind naemlich schon den ganzen tag offline und das laesst natuerlich nur 2 Schluesse uebrig:
1) Nvidia hat sich ein Referenzboard des R300 gemopst musste feststellen das sie geschlafen haben und niiiieeee mehr die Performancekrone erreichen koennen, daher den Insolvenz+kuendige-sofort-alle-Domains-Button gedrueckt und wech sind sie;
2) Die Webseiten werden umgestellt da Nv hemlich still und leise DEN Hammerchip fertiggestellt und der wird dann ab heute 24:00Uhr auf den webseite praesentiert

...und sagt jetz blos nich irgendwas von pah... alles Spekulation

...oder doch Möglichkeit 3: "WO SIND DIE ADMINS FUER DIE WEBSERVER??!!" Antwort:"Snowboarden?"

... aber ich bitte euch wer geht im Juli snowboarden???

MFG

PeTa;)

nggalai
2002-07-03, 17:16:28
Hi PeTa,

also, bei mir tut's. ;)

ta,
.rb

Unregistered
2002-07-03, 17:22:12
@nggalai: UND wat sagen die zu Ihrem neuen chip??? ;)))

*wunderwunder* Bei mir weder mit IE noch NC aufrufbar... ach halt nvidia.ru geht ;))

PeTa
... Oh meno, meine Todsicheren Theorien ueber den haufen;)... aber was meinste wie denen Ihre hitrate die letzten 15 min gestiegen iss;))

Unregistered
2002-07-03, 17:50:14
Ab morgen gibt es America's Army (www.americasarmy.com), das erste Spiel mit der neuen Unreal2-Engine, zum kostenlosen Download auf der Homepage von www.nvidia.com :

http://biz.yahoo.com/prnews/020702/sftu026_1.html

Ob das was damit zu tun hat? ;)

AlfredENeumann
2002-07-03, 19:26:17
Originally posted by ow



Nein, das hat JC nicht gesagt.

JC sagte sinngemaess, dass die next/gen ATi unter dem momentanen Stand der Entwicklung bei D3 schneller als eine schnelle GF4 ist.


Er sagte nichts von alpha Karte/alpha Treibern und er sagte auch nichts dazu wie die Karte ausserhalb D3 performt.

zu1) DOOM 3 hatte ich vergessen zu erwähnen.
zu2) Es war mit Sicherheit kein Board was dem Verkaufsboard entspricht und der Treiber war mit sicherheit auch kein Final, daher habe ich (Alpha) (man beachte die klammern) gewählt.

ow
2002-07-03, 19:48:46
Originally posted by AlfredENeumann

zu2) Es war mit Sicherheit kein Board was dem Verkaufsboard entspricht und der Treiber war mit sicherheit auch kein Final, daher habe ich (Alpha) (man beachte die klammern) gewählt.


Einem Verkaufsboard nicht, aber aus dem alpha Stadium ist der R300 längst raus. Sonst würde ATi wohl kaum schon dafür trommeln. (mittelspäte) Beta würde ich tippen.

Unregistered
2002-07-04, 11:24:07
Originally posted by nggalai
Genau. Man kann Hersteller und Fabrikation nicht einfach 1:1 vergleichen, dazu unterscheiden sich die Architekturen der verschiedenen Chips zu stark. Nur weil ein Hersteller bei einem Fabrikationsprozess suboptimale Ergebnisse lieferte, muss das noch lange nicht für andere Hersteller gelten.

Oder würde hier jemand sagen, dass der AthlonXP im Vergleich zum P4 Scheisse sein MUSS, nur weil er nicht in .13um gefertigt wird? Nach nocturnes Logik wäre dies der Fall . . .

ta,
-Sascha.rb

P.S. ich wäre aber dennoch erstaunt, wenn der .15um R300 gleich ab Start perfekt performen würde. Ich erwarte eigentlich diesselbe Situation wie beim R200-Launch.rb Sicher, weil die Performance der Parhelia lausig war, muss das nicht auch bedeuten, dass die Performance des R300 lausig sein wird. Er wird sicherlich im Durchschnitt mit einer GF4 mithalten können.
Aber die Problematik des Fertigungsprozess ist bei Grakas vielleicht noch etwas deutlicher als bei Prozis.

1. (Zur Geschwindigkeit) Auf Prozis kann ein sehr großer Lüfter angebracht werden; auf meinem TB 1300 steht ein Mordsklotz - und das bei einem normalen Komplettsystem, kein OC-Modell. Grakas müssen einen so kleinen Lüfter haben, dass der nebenstehende PCI-Slot noch bestückt werden kann. Matrox hat dieses Problem des kleinen Lüfters auch mal irgendwo angesprochen. Die Parhelia hat 80 Millionen Transistoren, für die R300 werden über 100 erwartet, das wird erst recht heiß werden.

2. (Zur Kompatibilität) Die Stromversorgung der CPU ist normalerweise ziemlich sicher: Wenn ein Mobo z.B. für Athlons bis 1,4 GHz spezifiziert ist, dann wird ein Athlon 1,4 GHz mit ziemlicher Sicherheit auch problemlos funktionieren. Stromfresser-Grakas können nicht nur nach einem neuen Netzteil verlangen, sondern auch nach einem neuen Mobo. Ich vermute, dass die Radeon auf alten Mobos (noch mit SDR-RAM) nur selten funktionieren wird. Ich hatte mal das Problem mit einer GF, da musste auch ein neues Mobo her.

Piffan
2002-07-04, 11:58:34
Originally posted by nagus



.... ich meine jetzt hauptsächlich das 256bit speicherinterface. ( rein hypothetisch, theoretisch... ;)


in welchen dimensionen würde sich der performancegewinn bewegen? 50% schneller? 75% schneller ... ?


mit sicherheit wird die karte dadurch nicht langsamer.

von der anderen seite gesehen.... wie "langsam" wäre eine parhelia OHNE 256bit interface?

Diese Spekulationen sind Unsinn! Können nur von einem kommen, der nur Ati- Hardware hat :D (Du hast doch ne Ati oder?)

Die Besitzer einer Geforce 3 aufwärts wissen, dass die Bandbreitenlimitierung bei einer G3 nur einsetzt bei ganz krassen Qualitätseinstellungen (FSAA und AF). Wenn es nur um den Speed beim Egoshooter geht, da würde eine Ti 4600 keinen Deut schneller werden durch einen doppelt so breiten Speicherbus!

Bei der Diskussion über die Bandbreite sollte man auch mal beachten, wie ausgewogen die Leistung des Chips mit der Speicheranbindung harmoniert, und da stehen die neuen Geforces ausgezeichnet da :).. Bei G2 ist das noch ganz anders...

StefanV
2002-07-04, 12:16:51
Originally posted by Unregistered
Ich vermute, dass die Radeon auf alten Mobos (noch mit SDR-RAM) nur selten funktionieren wird. Ich hatte mal das Problem mit einer GF, da musste auch ein neues Mobo her.

Sorry, aber das denke ich eher weniger...

Denn erstens sind die Radeons nicht die stromfresser und zweitens nutzen sie hauptsächlich die 5V Leitung...

Naja, hab auch nicht gerade Lust meine 8500 im M6TLC zu testen...

[fu]121Ah
2002-07-04, 12:29:03
ow, muss dir widersprechen:

ein besserer fertigungsprozess selber heisst noch nix. erst wenn er auch umgesetzt wird und die ausfallrate klein ist wird er "besser" und preisgünstiger sein.

beispiel,

nv30, soll 0,13micron sein, tsmc hat seit anfangs jahr 0,13micron fertigungsstrassen. aber es heisst trotzdem dass der nv30 erst im dezember oder nächstes jahr kommt, wieso? genau, die ausfallrate ist zu gross, sprich, ein teil des wafers geht "kaputt", die preise steigen und sind so unökonomisch.

der parhelia ist sicher kein reinfall... wenn ich da sehe dass anscheinend gar keine zertifizierung für professional segmente vorhanden ist, dann denk ich die treiber sind arg "früh"...

Birdman
2002-07-04, 12:42:24
Originally posted by Stefan Payne
Sorry, aber das denke ich eher weniger...
Denn erstens sind die Radeons nicht die stromfresser und zweitens nutzen sie hauptsächlich die 5V Leitung...
Naja, hab auch nicht gerade Lust meine 8500 im M6TLC zu testen...
Um den Strom mache ich mir heutzutage weniger sorgen, denn wer ein HighEnd Geschoss dieser Klasse kauft, der will das nur in den allerseltensten Fällen auf ein prähistorischen Mobo peppen.
Mehr sorgen macht mir die Hitzeentwicklung und der Lüfter. bei 100Mio in 0.15 wird das ziemlich heftig, selbst bei niedrigen taktfrequenzen. So liegt die die parhelia hinter den GF4 karten an zweiter stelle wenn es darum geht, unter fullload möglichst viele Watt zu fressen....und das bei 220Mhz.
Und die Ati hat ja (definitiv) mehr transistoren und wird (mit grosser warscheinlichkeit) höher takten als 220Mhz....also mal kukken ob was sich da ergibt.

p.s. hab gehört dass Ati jede menge Kryotech aktien gekauft hat :D

[fu]121Ah
2002-07-04, 13:22:51
hercules hats vorgemacht, rückseite kühlen

Unregistered
2002-07-04, 13:37:42
Da hilft die ganze super Werbung nix auf der ATI hp

der N30 wird ca. fast 2 mal so schnell sein als der R300
und nVidia hat sich auch Punkto Bildqualität was einfallen lassen

ow
2002-07-04, 13:38:37
Rueckseite kuehlen bringt praktisch nichts.

Die Waerme muss auf kuerzestem Weg von DIE abgefuehrt werden.

Die Platinenrueckseite hat keinerlei Kontakt zum Chipgehaeuse.


Genausogut koenntest du auf die Rueckseite eines SoA noch einen Kuehler klemmen, bringt auch nix. Da ist mehr als 1cm Luft zur Unterseite des CPU-Gehaeuse. Vom DIE ganz zu schweigen.

ow
2002-07-04, 13:40:47
Originally posted by Unregistered
Da hilft die ganze super Werbung nix auf der ATI hp

der N30 wird ca. fast 2 mal so schnell sein als der R300
und nVidia hat sich auch Punkto Bildqualität was einfallen lassen


Abgesehen von diesem laecherlichen Flame-Versuch auch was sinnvolles zu sagen hast du nicht, oder?

StefanV
2002-07-04, 13:50:15
Originally posted by Unregistered
Da hilft die ganze super Werbung nix auf der ATI hp

der N30 wird ca. fast 2 mal so schnell sein als der R300
und nVidia hat sich auch Punkto Bildqualität was einfallen lassen

:rofl:

ERSTEINMAL muß NV den NV30 fertigen können, dann können sie ihn releasen, davor ist er nur ein Laborexperiment!!

Und selbst wenn er releast wurde heißt das noch garnix!!

NV kann diesesmal auch auf die Nase fallen, denn 0,13µ ist nicht wirklich weit!!

Unregistered
2002-07-04, 13:55:16
Originally posted by Unregistered
Da hilft die ganze super Werbung nix auf der ATI hp

der N30 wird ca. fast 2 mal so schnell sein als der R300
und nVidia hat sich auch Punkto Bildqualität was einfallen lassen 1. Dass die NV30 erheblich schneller sein wird als die R300, bezweifelt sicher niemand, denn die NV30 kommt ja erst ca. ein halbes Jahr nach der R300, hat mehr Transistoren und vor allem wegen geringerer Transistorgröße auch deutlich mehr Luft nach oben; vielleicht auch schon die neuen Speicherbausteine. Aber gleich doppelt so schnell? Mit welchen Einstellungen denn (AA, AF)? So ist das nur dummes Geflame, da hat ow recht!
2. Was hat sich Nvidida denn einfallen lassen? Doch nur eine Andeutung, dass es ein Zertifizierungsprogramm für den Filter geben sollte, aber ob das tatsächlich kommt und ob das überhaupt etwas bringt, ist noch sehr die Frage. Wahrscheinlich wird man auch mit der NV30 im Trüben fischen müssen.
Meine letzten Grafikkarten:
Riva 128, TNT, TNT2, GF, GF3.
Meine nächste Grafikkarte:
Wenn ATi gut genug ist, die R300.

Tigershark
2002-07-04, 14:45:18
Originally posted by Stefan Payne


:rofl:

ERSTEINMAL muß NV den NV30 fertigen können, dann können sie ihn releasen, davor ist er nur ein Laborexperiment!!

Und selbst wenn er releast wurde heißt das noch garnix!!

NV kann diesesmal auch auf die Nase fallen, denn 0,13µ ist nicht wirklich weit!!


Moment mal Stefan... wie heisst das dann noch gleich, wenn ich mal ein berüchtigtes Member hier zitiere... ?!?

VAPORWARE[TM] oder ?? ;D ;D ;D

jedi
2002-07-04, 14:57:52
Originally posted by Tigershark

VAPORWARE[TM] oder ?? ;D ;D ;D

Der R300? Ja. ;)

StefanV
2002-07-04, 15:21:30
Originally posted by jedi


Der R300? Ja. ;)

Nein, beide :P

nagus
2002-07-04, 15:32:45
Originally posted by Piffan


Diese Spekulationen sind Unsinn! Können nur von einem kommen, der nur Ati- Hardware hat :D (Du hast doch ne Ati oder?)

Die Besitzer einer Geforce 3 aufwärts wissen, dass die Bandbreitenlimitierung bei einer G3 nur einsetzt bei ganz krassen Qualitätseinstellungen (FSAA und AF). Wenn es nur um den Speed beim Egoshooter geht, da würde eine Ti 4600 keinen Deut schneller werden durch einen doppelt so breiten Speicherbus!

Bei der Diskussion über die Bandbreite sollte man auch mal beachten, wie ausgewogen die Leistung des Chips mit der Speicheranbindung harmoniert, und da stehen die neuen Geforces ausgezeichnet da :).. Bei G2 ist das noch ganz anders...

AH, Herr Experte, wie?

das glaubs du wohl selber nicht, oder?

btw, ich hatte mal ne Geforce 3 (MSI)

Unregistered
2002-07-04, 15:51:35
Es verdichten sich ja langsam die Hinweise, dass der R300 wieder so eine beschissene Darstellungsqualität hat wie der Radeon 8500, weil er ebenfalls kein trilineares AF kann (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=25120) :

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=25120

Wenn das stimmt, dann wird ATI viele Käufer verlieren.

:(

Exxtreme
2002-07-04, 15:55:58
Originally posted by Unregistered
Es verdichten sich ja langsam die Hinweise, dass der R300 wieder so eine beschissene Darstellungsqualität hat wie der Radeon 8500, weil er ebenfalls kein trilineares AF kann (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=25120) :

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=25120

Wenn das stimmt, dann wird ATI viele Käufer verlieren.
:(
Abwarten und Tee trinken sage ich da nur. Und überhaupt würde ich auf irgendein Marketing-Geblubber überhaupt nicht hören - egal von welcher Firma. Die R300 dürfte nämlich genug Power haben um Trilinear-AF ohne Probs zu packen.

Gruß
Alex

jedi
2002-07-04, 15:59:03
Originally posted by Exxtreme

Die R300 dürfte nämlich genug Power haben um Trilinear-AF ohne Probs zu packen.


Ach so, der Radeon 8500 kann also Deiner Meinung nach kein trilineares AF, weil er nicht genug Power dafür hat? ;)

Exxtreme
2002-07-04, 16:02:29
Originally posted by jedi


Ach so, der Radeon 8500 kann also Deiner Meinung nach kein trilineares AF, weil er nicht genug Power dafür hat? ;)
Muss ich darauf antworten?
;)

Gruß
Alex

jedi
2002-07-04, 16:07:20
Originally posted by Exxtreme

Muss ich darauf antworten?
;)


Hast Du gerade. ;)

nagus
2002-07-05, 07:53:30
http://www.pcpop.com.cn/view.asp?type=news&id=7391


GEIL!;D ;D ;D

Demirug
2002-07-05, 08:37:04
Heizwerk: 25W reichen woll nicht so ganz für das Teil.

nggalai
2002-07-05, 08:51:34
Originally posted by Demirug
Heizwerk: 25W reichen woll nicht so ganz für das Teil. *zustimm*

und die 2. Karte? RV250?

Hmm. Wenn die Screenshots der Control-Panel keine Fakes sind und tatsächlich von der R300 stammen (und nicht von der RV250), dann scheint sich in Sachen FSAA und AF nicht allzuviel getan zu haben . . . ;)

ta,
-Sascha.rb

Tarkin
2002-07-05, 08:56:30
Originally posted by nggalai
*zustimm*

und die 2. Karte? RV250?

Hmm. Wenn die Screenshots der Control-Panel keine Fakes sind und tatsächlich von der R300 stammen (und nicht von der RV250), dann scheint sich in Sachen FSAA und AF nicht allzuviel getan zu haben . . . ;)

ta,
-Sascha.rb

vielleicht hast du die "II" vor "Smoothvision" nicht gesehen?

... FSAA Unterschiede zwischen GF3 und GF4? (mal abgesehen von der GEschwindigkeit?)

also bitte keine voreiligen Schlüsse vonwegen FSAA! (immerhin können die Radeons 6xFSAA! ... und die R300 sicher in einer beeindruckenden Geschwindigkeit - vermute ich)

mfg

nggalai
2002-07-05, 09:03:14
Originally posted by Tarkin


vielleicht hast du die "II" vor "Smoothvision" nicht gesehen?

Vielleicht hast Du das ;) nicht gesehen?

Das war als Seitenhieb an die Unregs in diesem und anderen Threads gedacht, die von R200 direkt auf R300 schliessen, nachm Motto "blablabla, AF sucks auf der R300 genau wie bei R200 blablablu."

Vielleicht sollte ich mich am frühen Morgen mit Sarkasmus zurückhalten . . .

ta,
-Sascha.rb

Richthofen
2002-07-05, 09:03:49
könnten die GeForce Teile auch wenn Nvidia das im Treiber einbauen würde.
Wenns aber so derb ruckelt dann kann man es auch rauslassen.
Das AA beim R200 war jedenfalls weitestgehend unbrauchbar.

nagus
2002-07-05, 09:14:14
jedenfalls kanns jetzt nicht mehr sehr lange dauern, bis die neuen karten offiziell vorgestellt werden




;D ;D ;D

Tarkin
2002-07-05, 09:15:31
Originally posted by nggalai
Vielleicht hast Du das ;) nicht gesehen?

Das war als Seitenhieb an die Unregs in diesem und anderen Threads gedacht, die von R200 direkt auf R300 schliessen, nachm Motto "blablabla, AF sucks auf der R300 genau wie bei R200 blablablu."

Vielleicht sollte ich mich am frühen Morgen mit Sarkasmus zurückhalten . . .

ta,
-Sascha.rb

Sarkasmus am Morgen, vertreibt Kummer und Sorgen :D

Exxtreme
2002-07-05, 09:33:48
Originally posted by Tarkin
... FSAA Unterschiede zwischen GF3 und GF4? (mal abgesehen von der GEschwindigkeit?)

Im 2x-Modus dürfte die GF4Ti eine leicht bessere Kantenglättungsqualität bringen da die Subpixelanordnung geschickter ist als bei der GF3. Aber auf die R300 bin ich echt gepannt. Hoffentlich bringen die wieder SSAA - am besten noch als rotated grid. :naughty:

Gruß
Alex

[fu]121Ah
2002-07-05, 10:09:05
Originally posted by ow
Rueckseite kuehlen bringt praktisch nichts.

Die Waerme muss auf kuerzestem Weg von DIE abgefuehrt werden.

Die Platinenrueckseite hat keinerlei Kontakt zum Chipgehaeuse.


Genausogut koenntest du auf die Rueckseite eines SoA noch einen Kuehler klemmen, bringt auch nix. Da ist mehr als 1cm Luft zur Unterseite des CPU-Gehaeuse. Vom DIE ganz zu schweigen.

ist nicht dasselbe... bei einem bga gehäuse wird die platine enorm warm, der wärmeübergang ist nämlich über die lasergelöteten punkte mit denen die bga chips auf dem pcb befestigt werden viel besser als über einen plastiksockel.

[fu]121Ah
2002-07-05, 10:10:13
Originally posted by Exxtreme

Im 2x-Modus dürfte die GF4Ti eine leicht bessere Kantenglättungsqualität bringen da die Subpixelanordnung geschickter ist als bei der GF3. Aber auf die R300 bin ich echt gepannt. Hoffentlich bringen die wieder SSAA - am besten noch als rotated grid. :naughty:

Gruß
Alex

so wie das panel aussieht ists nur 6x fsaa wie bis jetzt... 16x af auch :)

askibo
2002-07-05, 10:12:01
Originally posted by Demirug
Heizwerk: 25W reichen woll nicht so ganz für das Teil.

Könnte der 4-pin Stecker oben rechts an der Karte die Stromversorgung sein? :|
Falls die Karte mehr als 25 Watt ziehen sollte (und danach siehts stark aus) wäre das wohl die einzige Möglichkeit um die Agp-Specs einzuhalten, oder?

Demirug
2002-07-05, 10:15:32
Originally posted by askibo


Könnte der 4-pin Stecker oben rechts an der Karte die Stromversorgung sein? :|
Falls die Karte mehr als 25 Watt ziehen sollte (und danach siehts stark aus) wäre das wohl die einzige Möglichkeit um die Agp-Specs einzuhalten, oder?

Das nehme ich stark an.

ow
2002-07-05, 11:15:17
Originally posted by [fu]121Ah


ist nicht dasselbe... bei einem bga gehäuse wird die platine enorm warm, der wärmeübergang ist nämlich über die lasergelöteten punkte mit denen die bga chips auf dem pcb befestigt werden viel besser als über einen plastiksockel.


Es ist zwar nicht dasselbe wie bei einem Plastiksockel, aber dennoch existiert kein direkter Kontakt des BGA Gehaeuse mit der Platine.

Und enorm warm wird daher keine Platine. Warm ist sie dann, wenn man sich die Finger dran verbrennt.

Exxtreme
2002-07-05, 11:23:56
Originally posted by askibo
Könnte der 4-pin Stecker oben rechts an der Karte die Stromversorgung sein? :|
Falls die Karte mehr als 25 Watt ziehen sollte (und danach siehts stark aus) wäre das wohl die einzige Möglichkeit um die Agp-Specs einzuhalten, oder?
3dfx hat es mit der Voodoo5 genauso gemacht. Solange es tadellos funktioniert und keine Specs verletzt, juckt mich so ein Extra-Stromstecker wenig. Hmm, nur sollte ich aber dann auch nach einem stärkeren NT Ausschau halten.

Gruß
Alex

[fu]121Ah
2002-07-05, 11:28:21
Originally posted by ow



Es ist zwar nicht dasselbe wie bei einem Plastiksockel, aber dennoch existiert kein direkter Kontakt des BGA Gehaeuse mit der Platine.

Und enorm warm wird daher keine Platine. Warm ist sie dann, wenn man sich die Finger dran verbrennt.

mit verlaub, schon eine geforce 2 wurde HEISS hinter dem chip... ich konnte da auf jeden fall nicht mehr anfassen nach 1 stunde quake...

und heikel bin ich nicht. du wirst mit einer rückseitigen kühlung sicher nichts tun um das hitzeproblem ganz zu dämmen, aber es wird sicher helfen...

HOT
2002-07-05, 11:29:09
Hey, der Chip hat über 100Mio transistoren :D Der darf mehr fressen als der AGP hergibt :D

aths
2002-07-05, 11:56:53
Originally posted by nggalai
Vielleicht sollte ich mich am frühen Morgen mit Sarkasmus zurückhalten . . .Im Augenblicke möcht ich sagen Verweile doch, du bist so schön :)

nocturne
2002-07-05, 12:05:41
Originally posted by askibo

Könnte der 4-pin Stecker oben rechts an der Karte die Stromversorgung sein? :|
Falls die Karte mehr als 25 Watt ziehen sollte (und danach siehts stark aus) wäre das wohl die einzige Möglichkeit um die Agp-Specs einzuhalten, oder?

Nach dem Energieerhaltungssatz muss die zusätzliche Energie trotzdem in Form von viel Hitze wieder abgegeben werden.

Wenn die AGP-Stromversorgung dafür nicht mehr ausreicht, könnte man ja ein externes Trafonetzteil dazu liefern. Man könnte es ja "AtiVolt" nennen. ;)

Und dazu den Werbespruch:

"So powerful with 0.15 µm, its kind of ridiculous"

*eg*

StefanV
2002-07-05, 12:14:58
Originally posted by askibo

Könnte der 4-pin Stecker oben rechts an der Karte die Stromversorgung sein? :|
Falls die Karte mehr als 25 Watt ziehen sollte (und danach siehts stark aus) wäre das wohl die einzige Möglichkeit um die Agp-Specs einzuhalten, oder?

Ist ein Floppy Spannungsstecker...


BTW: wozu soll der untere Regler beim AF??
Warum ist der Quality/Performance Regler beim AA nicht mehr da??

StefanV
2002-07-05, 12:17:20
Originally posted by nocturne


Nach dem Energieerhaltungssatz muss die zusätzliche Energie trotzdem in Form von viel Hitze wieder abgegeben werden.

Wenn die AGP-Stromversorgung dafür nicht mehr ausreicht, könnte man ja ein externes Trafonetzteil dazu liefern. Man könnte es ja "AtiVolt" nennen. ;)

Und dazu den Werbespruch:

"So powerful with 0.15 µm, its kind of ridiculous"

*eg*

Nur geht ATI mit dem Floppy Spannungs Anschluß auf Nummer sicher *eg*

Ist also unwahrscheinlich, daß eine R300 ein Board killt, im Gegensatz zu einer TI4600 *eg*

Quasar
2002-07-05, 12:21:32
Strom direkt vom Netzteil zu beziehen halte ich für eine prinzipiell gute Idee, nur hoffe ich, daß ATi, wenn das Foto authentisch ist, sich doch noch zu einem der großen 4poligen Stecker durchringen kann. Ich hab jedenfalls oft das Problem, daß diese Floppy-Stecker nur sehr (!) schwer wieder abgehen.

Man will doch nicht seine neue 100MT-Karte ruinieren.

Exxtreme
2002-07-05, 12:44:48
Originally posted by nocturne
Man könnte es ja "AtiVolt" nennen. ;)

Beeeep, falsch. "RadeonVolts" wenn schon denn schon. 3dfx hat das NT für die V5-6000 auch nicht "3dfxVolt" genannt sondern "VoodooVolts". *eg* ;)

*SCNR*

Gruß
Alex

nagus
2002-07-05, 12:47:19
was mich brennend interessiert: kann mit so einem monster-kühler und externer spannungsversorgung ein core-takt von 350Mhz erreicht werden? ( laut inoffiziellen meldungen und der geleakten powerpoint-präsentation ...)

zumindest läuft die karte mit sicherheit mit höherer taktfrequenz als die parhelia... ATI hat uns schon einmal mit 275/275 Mhz überrascht... warum nicht diesmal mit 350/700?

StefanV
2002-07-05, 12:57:23
naja, 350 MHz vielleicht nicht, aber 250-275MHz sollten schon drin sein...

Exxtreme
2002-07-05, 13:22:51
Originally posted by Stefan Payne
naja, 350 MHz vielleicht nicht, aber 250-275MHz sollten schon drin sein...
Also in der Roadmap stehen tatsächlich 350 MHz drin. Gut, vom Fertigungsprozess auf die max. erreichbare Taktfrequenz zu schliessen ist auch wieder so eine Sache. Ich glaube schon, daß ATi die 350 MHz hinbekommt.

Gruß
Alex

Legolas
2002-07-05, 13:27:29
Originally posted by Exxtreme

Also in der Roadmap stehen tatsächlich 350 MHz drin. Gut, vom Fertigungsprozess auf die max. erreichbare Taktfrequenz zu schliessen ist auch wieder so eine Sache. Ich glaube schon, daß ATi die 350 MHz hinbekommt.

Gruß
Alex

350Mhz bei 0,15 µm und 100 Mio Transistoren??? Naja, damit hätte man dann wohl in etwa die Abwärme einer V5 6k auf einem Chip *eg* ;)

ow
2002-07-05, 13:31:51
Vielleicht bezieht sich 350MHz auf den externen Takt, der dann chipintern erstmal halbiert wird.:D

Legolas
2002-07-05, 13:35:43
Dat is ne Theorie ow :D *applaus*

nocturne
2002-07-05, 14:20:37
Originally posted by Legolas

350Mhz bei 0,15 µm und 100 Mio Transistoren??? Naja, damit hätte man dann wohl in etwa die Abwärme einer V5 6k auf einem Chip *eg* ;)

Im Sommer schmilzt dann zwar der Rechner, aber das Teil kommt ja sowieso nicht mehr im Sommer. Aber im Winter hätte das was gutes: man hätte immer eine Heizung unterm Schreibtisch und nie kalte Füße. *eg*

Legolas
2002-07-05, 14:27:31
Aus was besteht denn dein Rechner nocturne??? Schokolade??? Ich glaub kaum, daß ein handelsüblicher PC bei 50-60°C anfängt sich in den flüssigen Aggregatzustand zu begeben...

thop
2002-07-05, 15:22:08
der extra stecker gefällt mir überhaupt nicht. versaut mir meine ganze ordnung im rechner.

und was die leistung/Mhz etc. betrifft bin ich seit parhelia sehr skeptisch geworden. vielleicht steuern wir langsam auf ein (fertigungsprozess bedingtes?) kleines plateau zu.

nagus
2002-07-05, 15:38:41
Originally posted by nocturne


Im Sommer schmilzt dann zwar der Rechner, aber das Teil kommt ja sowieso nicht mehr im Sommer. Aber im Winter hätte das was gutes: man hätte immer eine Heizung unterm Schreibtisch und nie kalte Füße. *eg*


august ist eigentlich schon noch "sommer", nach meiner zeitrechnung zumindest....


und ob das teil schmilzt oder nicht... mir egal! hauptsache die R300 stampft jede Nvidia Graka in grund und boden

:bäh:

Quasar
2002-07-05, 15:46:24
August ist Sommer, klaro. Und wenn die R300 nicht jede zu dem Zeitpunkt erhältliche nV-Karte in den Boden stampft, sollte ATi sich ernsthaft Gedanken machen, ob man im Performance-Segment des Marktes richtig aufgehoben ist.

Also, wenn R300 im August (oder so...) rauskommt, wird er sicher alles "plattmachen", was es zumindest heute gibt.

Salvee
2002-07-05, 15:52:26
Dass bei ATi fähige Ingenieure und Techniker ihren Job machen, sieht man imo an 2 Details:

- die Platine ist eine ganze Ecke kleiner als die GF4-Surfbretter
- laut einer Babelfish-Übersetzung der chinesischen Weisheiten kommt dieses Board mit nur 6 Layern aus

jedi
2002-07-05, 17:04:46
Originally posted by nagus

august ist eigentlich schon noch "sommer", nach meiner zeitrechnung zumindest....


Vorstellungstermin ist nicht Auslieferungstermin, schon gar nicht bei ATI.

ow
2002-07-05, 17:51:59
Originally posted by Salvee
Dass bei ATi fähige Ingenieure und Techniker ihren Job machen, sieht man imo an 2 Details:

- die Platine ist eine ganze Ecke kleiner als die GF4-Surfbretter
- laut einer Babelfish-Übersetzung der chinesischen Weisheiten kommt dieses Board mit nur 6 Layern aus


Konntest du das Board denn schon testen, um eine Aussage ueber dessen Qualität zu machen?

skampi
2002-07-05, 17:59:59
Originally posted by nocturne


Nach dem Energieerhaltungssatz muss die zusätzliche Energie trotzdem in Form von viel Hitze wieder abgegeben werden.


Nach dem Energieerhaltungssatz hat das Wort "viel" überhaupt nichts in Deinem Satz verloren...

jedi
2002-07-05, 18:16:50
Energieerhaltungssatz: Je mehr Strom eine Karte frisst, desto mehr Energie wird in Form von Wärme wieder abgegeben.

Wenn also ein 0.15-µm-R300 mehr Strom braucht als der AGP-Port liefern kann, und noch eine externe Energiequelle hinzunimmt, dann erzeugt er auch mehr Hitze als eine normale AGP-Karte.

:jump4: :jump3: :jump4:

skampi
2002-07-05, 18:30:48
Originally posted by jedi
Energieerhaltungssatz: Je mehr Strom eine Karte frisst, desto mehr Energie wird in Form von Wärme wieder abgegeben.

Wenn also ein 0.15-µm-R300 mehr Strom braucht als der AGP-Port liefern kann, und noch eine externe Energiequelle hinzunimmt, dann erzeugt er auch mehr Hitze als eine normale AGP-Karte.



Bitte hör auf, ich ertrag's nicht mehr...

nagus
2002-07-05, 19:49:18
Originally posted by jedi


Vorstellungstermin ist nicht Auslieferungstermin, schon gar nicht bei ATI.

wo bitte steht geschrieben, dass die R300 im August angekündigt wird? sind doch alles nur spekulationen und mutmaßungen!

Iceman346
2002-07-05, 20:29:50
Originally posted by nagus


wo bitte steht geschrieben, dass die R300 im August angekündigt wird? sind doch alles nur spekulationen und mutmaßungen!

Quasi Vaporware [TM] ;)

StefanV
2002-07-05, 20:39:38
Originally posted by jedi

Vorstellungstermin ist nicht Auslieferungstermin, schon gar nicht bei ATI.

Und wenn ATI diese Vorgehensweise geändert hat??

Was wäre, wenn ATI ein Produkt erst dann ankündigt, wenn sie 'grünes Licht' von ihren Partnern haben??

Unregistered
2002-07-05, 21:15:11
Originally posted by Quasar
August ist Sommer, klaro. Und wenn die R300 nicht jede zu dem Zeitpunkt erhältliche nV-Karte in den Boden stampft, sollte ATi sich ernsthaft Gedanken machen, ob man im Performance-Segment des Marktes richtig aufgehoben ist.

Also, wenn R300 im August (oder so...) rauskommt, wird er sicher alles "plattmachen", was es zumindest heute gibt. "Plattmachen", ja, die R300 wird von FanATIkern schon als der "NV30-Crusher" gehandelt.
Nach der aktuellen Gerüchteküche mache ich mich schon darauf gefasst, dass R300 in etwa auf GF4-Niveau liegen wird. Vielleicht gibbet ein paar 3DM2K1-Gummipunkte mehr, aber sonst ein plus-minus-Verhältnis, nix mit "in den Boden stampfen".
So schlimm wäre das ja auch nicht, R300 wird vermutlich schon im Herbst 2002 ausgeliefert, NV30 aber erst im Frühjahr 2003. Und wenn ATi für ähnliche Leistung ähnliche Preise verlangt, ist das in Ordnung. Und schließlich entscheiden mehr Aspekte beim Kauf als nur die fps bei Q3A (SQ/BQ, 2D-Speed, AA/AF etc.). So wird auch Matrox einige Käufer finden (mich aber nicht).

Birdman
2002-07-05, 21:43:35
mich haben jedenfalls die menu-Screenshots auf pcpop zuversichtlich gestimmt, was AF anbelangt.
auch wenn ich mit diesen japanischen zeichen gar nix anfangen kann, habe ich den Eindruck dass sich dort ein Umschalter von Performance/Quality befindet.
....war nur blöde, wenn das Quality Setting der AF-methode der R200 entsprechen würde *eg*

Pirx
2002-07-05, 21:55:53
Originally posted by jedi
Energieerhaltungssatz: Je mehr Strom eine Karte frisst, desto mehr Energie wird in Form von Wärme wieder abgegeben.

Wenn also ein 0.15-µm-R300 mehr Strom braucht als der AGP-Port liefern kann, und noch eine externe Energiequelle hinzunimmt, dann erzeugt er auch mehr Hitze als eine normale AGP-Karte.

:jump4: :jump3: :jump4:

Nö muß nicht sein, Wärme ist ja nur das Abfallprodukt. Wenn sie jetzt sehr effizient wäre (ich unterstelle mal, daß Konkurenzprodukte nicht optimal in Bezug auf erreichte 3D-Leistung/Wärmeproduktion sind) muß Sie auch nicht heißer werden, als bereits erhältliche "Produkte" (siehe AthlonXP).

nocturne
2002-07-05, 23:16:08
Originally posted by Pirx

Nö muß nicht sein, Wärme ist ja nur das Abfallprodukt. Wenn sie jetzt sehr effizient wäre (ich unterstelle mal, daß Konkurenzprodukte nicht optimal in Bezug auf erreichte 3D-Leistung/Wärmeproduktion sind) muß Sie auch nicht heißer werden, als bereits erhältliche "Produkte" (siehe AthlonXP).
:lol:

Nein. Natürlich erzeugt eine Karte, die mehr Strom zieht, auch mehr Hitze. Eine Karte heizt praktisch so viel Watt wie sie zieht.

Oder wo soll die Energie denn Deiner Meinung nach sonst hingehen? Leuchten tut die Karte ja nicht. Es sein denn, die R300 wird mit 0.15 µm so heiß, dass sie anfängt zu glühen, dann könnte die Energie auch in Form von Photonen abgehen. ;D

skampi
2002-07-06, 01:08:18
Selbst dann wäre es irrelevant...

Pussycat
2002-07-06, 11:16:29
Originally posted by nocturne

Oder wo soll die Energie denn Deiner Meinung nach sonst hingehen? Leuchten tut die Karte ja nicht. Es sein denn, die R300 wird mit 0.15 µm so heiß, dass sie anfängt zu glühen, dann könnte die Energie auch in Form von Photonen abgehen. ;D


Hitze => IR-strahlung = niedrigfrequente Photonen. Leider sind diese nicht sichtbar.

GloomY
2002-07-06, 16:03:22
Originally posted by Pussycat

Hitze => IR-strahlung = niedrigfrequente Photonen. Leider sind diese nicht sichtbar.
? ???

Hitze ist doch nichts anderes als die Braunsche Molekularbewegung. D.h. die Bewegung der Atome an ihren Aufenthaltsorten.
In welcher Form diese (im eigentlichen Sinne dann kinetische) Energie abgegeben wird (Konvektion, Strahlung) spielt doch gar keine Rolle.

Aber Nocturne hat schon Recht (ausnahmsweise ;) ), wenn er sagt, dass eine Karte, die mehr Strom zieht, auch mehr Wärme produzieren muss, falls diese nicht in irgendeiner anderen Form angegeben wird.

Pussycat
2002-07-06, 16:13:24
stimmt, da die Hitze wieder in Licht umgewandeld wird. Kann auch direkt (LED), wird hier aber nicht gemacht (auch wenn der Chip so heiss werden würde.

nagus
2002-07-06, 16:28:59
Originally posted by Unregistered
"Plattmachen", ja, die R300 wird von FanATIkern schon als der "NV30-Crusher" gehandelt.
Nach der aktuellen Gerüchteküche mache ich mich schon darauf gefasst, dass R300 in etwa auf GF4-Niveau liegen wird. Vielleicht gibbet ein paar 3DM2K1-Gummipunkte mehr, aber sonst ein plus-minus-Verhältnis, nix mit "in den Boden stampfen".
So schlimm wäre das ja auch nicht, R300 wird vermutlich schon im Herbst 2002 ausgeliefert, NV30 aber erst im Frühjahr 2003. Und wenn ATi für ähnliche Leistung ähnliche Preise verlangt, ist das in Ordnung. Und schließlich entscheiden mehr Aspekte beim Kauf als nur die fps bei Q3A (SQ/BQ, 2D-Speed, AA/AF etc.). So wird auch Matrox einige Käufer finden (mich aber nicht).

wenn das so wäre wie du sagst ( leistung auf gf4 niveau..) dann hätte wohl kaum JC zur präsentation eine R300 verwendet.

skampi
2002-07-06, 16:40:02
Originally posted by GloomY
? ???

Aber Nocturne hat schon Recht (ausnahmsweise ;) ), wenn er sagt, dass eine Karte, die mehr Strom zieht, auch mehr Wärme produzieren muss, falls diese nicht in irgendeiner anderen Form angegeben wird.

Das hat auch keiner bestritten.

Unregistered
2002-07-06, 16:40:08
Genau sie bringt ja 1 fps mehr ...

Demirug
2002-07-06, 16:46:33
Originally posted by Unregistered
Genau sie bringt ja 1 fps mehr ...

Bei DOOM III wäre 1 fps ja schon eine ganze Menge. *scnr*

Pirx
2002-07-06, 16:57:30
Originally posted by GloomY
? ???
Aber Nocturne hat schon Recht (ausnahmsweise ;) ), wenn er sagt, dass eine Karte, die mehr Strom zieht, auch mehr Wärme produzieren muss, falls diese nicht in irgendeiner anderen Form angegeben wird.

Mehr Wärme viell. schon, aber mehr Hitze?:(
Die Chipfläche vergrößert sich ja auch->besserer Wärmeübergang zum größeren? Kühlkörper möglich->Kein Problem für Leute mit geschlossenen Gehäusen, die es ja auch noch geben soll:)

Wie sind eigentlich so die Temperaturen im Vergleich RadeonXXX<->GFXXX?

jedi
2002-07-06, 18:02:10
Die Temperatur ist ja nicht das einzige Problem, sondern die gesamte Wärmemenge (in Watt), die die Karte abgibt. Je mehr Watt die Karte zieht, desto stärker heizt sie eben das Gehäuseinnere auf. Ob diese Wärmemenge (Energie) über eine grosse oder kleine Fläche abgegeben wird, ist dafür nur zweitrangig.

:jump3:

Exxtreme
2002-07-06, 18:14:45
Ist schon klar @ jedi.
Nur heutzutage sind die Lüfter der PCs sowieso genügend dimensioniert um auch die Hitze einer stromfressenden GraKa wegzutransportieren. Das ist in den ATX-Specs halt drin. Und ausserdem hatten auch AFAIK die wenigsten Leute Hitzeprobleme mit der Voodoo5 obwohl diese zwingend einen extra Stromstecker benötigte. Und bei der jetzigen R300 ist es noch nicht klar ob diese den Floppy-Stromanschluss tatsächlich für den Betrieb benötigt oder er nur eine Option ist für schwächer ausgelegte Boards.

Gruß
Alex

StefanV
2002-07-06, 19:19:25
Originally posted by Pirx
Wie sind eigentlich so die Temperaturen im Vergleich RadeonXXX<->GFXXX?

Radeon 8500 verbrät deutlich weniger als GF3.

Bei gleichem Takt sowieso, aber eine 250er LE ist kühler als eine TI200

ow
2002-07-06, 19:37:08
Achso, deshalb gibt es passiv gekühlte ti200 aber keine Radeon LE, richtig?

Wie kommst du eigentlich zu solchen Behauptungen? Irgendwelche Quellen?

StefanV
2002-07-06, 19:49:59
Originally posted by ow
Achso, deshalb gibt es passiv gekühlte ti200 aber keine Radeon LE, richtig?

Wie kommst du eigentlich zu solchen Behauptungen? Irgendwelche Quellen?

Hatte beide, kann es dadurch auch gut beurteilen.

Und deine passiv Gekühlte TI200 ist eine MSI TI200, die es nur als OEM Ausführung gibt.
Ach ja, schau mal in den c't Test von dem einen Vobis PC, da hatte dieses Kärtchen Thermische Probleme (abstürze und freezes) und wurde über 70°C warm...

BTW: im Freien Handel gibts NUR aktiv Gekühlte.
Lnd passiv Gekühlte LELEs...

ow
2002-07-06, 19:55:29
LELEs :lol:

Wo bleibt deine Bastelleidenschaft? Alle ti200 kann man auf passiv umbauen.

Und wie/wo hast du die Temperatur gemessen?

StefanV
2002-07-06, 20:07:54
Originally posted by ow
LELEs :lol:


Was ist daran so lustig??

Ersteinmal sind die immer noch höher Getatket als die GF3 TI200 und zum anderen Hat jemand, den ich kenne so ein Teil (Saphire, oder?)

Originally posted by ow

Wo bleibt deine Bastelleidenschaft? Alle ti200 kann man auf passiv umbauen.

Toll und was für einen Kühler müsste ich dafür nehmen??
80x10??

Originally posted by ow

Und wie/wo hast du die Temperatur gemessen?

bei der Radeon Temp Fühler an ASUS Board, bei der MSI GF3 Temp Fühler neben Chip.

Unregistered
2002-07-06, 21:03:58
Originally posted by nagus


wenn das so wäre wie du sagst ( leistung auf gf4 niveau..) dann hätte wohl kaum JC zur präsentation eine R300 verwendet.
Meine Meinung über die R300:
1. etwa auf GF4-Niveau
2. ein plus-minus-Verhältnis (im Vergleich mit GF4)
Bei bestimmten Anwendungen und / oder Einstellungen wird die R300 schneller sein.
Und bei Doom3 ist ein fps tatsächlich schon ziemlich viel.

Quasar
2002-07-06, 21:05:37
Originally posted by Stefan Payne
Ach ja, schau mal in den c't Test von dem einen Vobis PC, da hatte dieses Kärtchen Thermische Probleme (abstürze und freezes) und wurde über 70°C warm...

BTW: im Freien Handel gibts NUR aktiv Gekühlte.

Blabla, Herr Payne.

c't 07/2002, S.82 "Vobis HighPaq D XA Power 2000+": Den Test meintest du doch wohl, oder?

[...]am passiven Kühlkörper der Grafikkarte ermittelten wir unter Last Temperaturen von bis zu 70°C. Abstürze oder Pixelfehler konnten wir im Verlauf unserer Tests nicht erkennen,[...]

Und im freien Handel gab's sehr wohl auch passiv gekühlte Ti200, sind aber leider nicht besonders häufig gewesen (z.B. im Online-Shop von Medion).


Bevor du weiter solche Unwahrheiten verbreitest, solltest du vielleicht dein Erinnerungsvermögen ein wenig auf Trab bringen. Man kann zur Not auch in den Zeitungen nochmal nachlesen...

StefanV
2002-07-06, 21:08:29
Originally posted by Quasar


Blabla, Herr Payne.

c't 07/2002, S.82 "Vobis HighPaq D XA Power 2000+": Den Test meintest du doch wohl, oder?

Dann war das halt ein Userbericht in einem Forum...

Originally posted by Quasar
Und im freien Handel gab's sehr wohl auch passiv gekühlte Ti200, sind aber leider nicht besonders häufig gewesen (z.B. im Online-Shop von Medion).



Schön, ist exakt eine Karte in einem Shop...

Quasar
2002-07-06, 21:47:27
Originally posted by Stefan Payne
Dann war das halt ein Userbericht in einem Forum...
Schön, ist exakt eine Karte in einem Shop...

Schön, es gab auch diverse Userberichte, daß Radeons an Hitzeproblemen krankten....soviel zu DAU-Geschichten.

BTW, wo gibt's den passiv gekühlte LELE's hier zu kaufen?

StefanV
2002-07-06, 22:03:36
Originally posted by Quasar


Schön, es gab auch diverse Userberichte, daß Radeons an Hitzeproblemen krankten....soviel zu DAU-Geschichten.

BTW, wo gibt's den passiv gekühlte LELE's hier zu kaufen?

1. naja, möglich, war meist aber auch eine problematische Kombination.
Selbst wenn: Karte tauschen ;)
BTW: von DAU Problem hab ich nicht gesagt ;)
Nur, daß eine passiv Gekühlte GF3 TI200 problemtatisch ist und nicht immer funzt.

Was ich rausgefunden hab:
Es kommt auch auf dem Kühler an, den man verwendet!!!!

2. schick mal 'ne PM an mibi, der hat eine.

Quasar
2002-07-06, 22:07:34
Originally posted by Stefan Payne
Lnd passiv Gekühlte LELEs...

Wo denn?

StefanV
2002-07-06, 22:21:14
Originally posted by Quasar

Wo denn?

Ich frag ihn mal, wenn er mir unter kommt ;)

Ich würde es mal im Flachhandel versuchen ;)

Thowe
2002-07-06, 22:24:21
Oh ha, Stefan, langsam übertriffst du dich selbst.

Wenn du vor dem posten bitte dich informieren würdest was du in den Raum stellst, könnte echt helfen den qualitativen Inhalt zu erhöhen. Aber so erscheint mir der subjektive Mist mit falsch zitierten Inhalt von Quellen langsam als reines Spamming, letztendlich schadet das nur deine Glaubwürdigkeit und somit Ansehen. Denk mal bitte darüber nach.

Quasar
2002-07-06, 23:05:15
Jo kloar Stefan....aber sich vorher über "eine Karte in einem Shop" lustig machen.

Du bist mir der richtige....

Alles weitere hat Thowe gesagt, langsam wird's echt lächerlich, vielleicht solltest du dir mal 'ne Online-Pause gönnen.

Richthofen
2002-07-06, 23:55:33
zuviel geraucht halt :)

Oli_Immerschoen
2002-07-07, 00:36:20
Originally posted by Richthofen
zuviel geraucht halt :)

Wer, Du?? Klar, das mußte doch nicht extra erwähnen, das weiß doch hier jeder...*tätschel*=)

nagus
2002-07-07, 12:18:17
Originally posted by Stefan Payne


Und wenn ATI diese Vorgehensweise geändert hat??

Was wäre, wenn ATI ein Produkt erst dann ankündigt, wenn sie 'grünes Licht' von ihren Partnern haben??

But K.Y. said that in the future ATI will "have products ready for retail" at the time they announce a chip. (http://www.theinquirer.net/?article=2958)


... wenn das stimmt >> ;D ;D ;D

StefanV
2002-07-07, 12:58:58
Originally posted by nagus


But K.Y. said that in the future ATI will "have products ready for retail" at the time they announce a chip. (http://www.theinquirer.net/?article=2958)

... wenn das stimmt >> ;D ;D ;D

Jo, das hab ich auch gehört...

Oder anders:

ATI Kündigt ein Produkt erst dann an, wenn sie es liefern können, sozusagen, wenn ihre Partner 'Grünes Licht' geben...

Finde ich eigentlich sehr gut!!

BTW: ist bei Matrox ja auch nicht anders, wenn sie die Karte ankündigen...

Thowe
2002-07-07, 13:50:41
blah blah vor allem der Passus mit "grünes Licht geben"

ow
2002-07-07, 14:05:47
Ja, mittlerweile sind wir solchen Unsinn von SP ja gewohnt.

Als ob ATi den Produktlaunch von den Partnern abhängig machen würde..:lol:

"Powercolor an ATi: wir sind mit den Board noch nicht fertig, ihr dürft nicht launchen..." :rofl:

StefanV
2002-07-07, 14:10:07
kannst du aufhören hier zu spammen, ow?? ;D

Thowe
2002-07-07, 14:15:33
Originally posted by Stefan Payne
kannst du aufhören hier zu spammen, ow?? ;D

Da ich ein sehr hohes Maß an Geduld habe, undrücke ich es, das ich schreiben möchte, "Und das vom Oberspammer". So lass ich es eben sein. Also werde ich mal den Nährwert der letzten paar tausend Postings zusammenfassen:

nagus
2002-07-07, 14:56:40
Originally posted by ow
Ja, mittlerweile sind wir solchen Unsinn von SP ja gewohnt.

Als ob ATi den Produktlaunch von den Partnern abhängig machen würde..:lol:

"Powercolor an ATi: wir sind mit den Board noch nicht fertig, ihr dürft nicht launchen..." :rofl:


aber natürlich... und wenn nvidia in einem interview sagt, die GF5 kommt noch dieses jahr, dann glaubt ihrs, oder?


*pfff*

ow
2002-07-07, 15:00:56
??? Zusammenhang ???

Quasar
2002-07-07, 15:06:58
Originally posted by nagus
aber natürlich... und wenn nvidia in einem interview sagt, die GF5 kommt noch dieses jahr, dann glaubt ihrs, oder?
*pfff*

Nagus, ich glaube prinzipiell jeden Satz, in dem die Buchstaben "n" und "v" direkt hintereinander vorkommen, hast du das nicht gewußt?

Außerdem sagt das genau der Richtige...

Thowe
2002-07-07, 15:13:28
Originally posted by Quasar


Nagus, ich glaube prinzipiell jeden Satz, in dem die Buchstaben "n" und "v" direkt hintereinander vorkommen, hast du das nicht gewußt?

Außerdem sagt das genau der Richtige...

Hmmm, also ich kenne Formulare wo nv für nicht vertrauenswürdig steht. :D

Ich glaub das was ich in der Hand habe, z.Z. ist das Luft.

Xmas
2002-07-07, 15:24:29
Originally posted by Thowe
Ich glaub das was ich in der Hand habe, z.Z. ist das Luft.
Seltsame Tastatur... ;)

Thowe
2002-07-07, 15:29:57
Originally posted by Xmas

Seltsame Tastatur... ;)

Hehe, ok, aber (spitzfindig) die habe ich nicht in der Hand ;)

Pussycat
2002-07-07, 17:50:08
Originally posted by Unregistered

2. ein plus-minus-Verhältnis (im Vergleich mit GF4)
Bei bestimmten Anwendungen und / oder Einstellungen wird die R300 schneller sein.
Und bei Doom3 ist ein fps tatsächlich schon ziemlich viel.

JC hat gesagt, die R300 wäre schneller als eine extrem hoch getaktete GF4. Also deutlich schneller als eine normale GF4.

aths
2002-07-07, 19:23:39
Thowe, SPs Sache mit dem Spammen bezog sich auf das 2 Minuten vorher geposteteOriginally posted by ow
Kannst aufhören hier zu spammen, Stefan?? aus einem anderen Thread.

Pussycat, ich denke man kann davon ausgehen, dass R300 eine Ti4600 problemlos schlägt. Wenn nicht, hätte ATI diesen Launch gründlich in den Sand gesetzt.

bambo
2002-07-08, 00:31:18
Das wäre auch eine Katastrophe für ATI, wenn das nicht so wäre. Dann könnten sie gleich einpacken. Die R300 wird sich schliesslich in erster Linie mit dem NV30 messen lassen müssen und nicht mit dem Vorgänger.

Frank
2002-07-08, 00:52:47
Originally posted by bambo
Das wäre auch eine Katastrophe für ATI, wenn das nicht so wäre. Dann könnten sie gleich einpacken. Die R300 wird sich schliesslich in erster Linie mit dem NV30 messen lassen müssen und nicht mit dem Vorgänger.
Naja einpacken müssen die deswegen nicht. Hamm ja auch anderswo Einnahmequellen.

Quasar
2002-07-08, 01:58:08
Bambo,
das würde ich nicht so unbedingt sagen. Vielmehr müssen sich die Topprodukte miteinander messen lassen, die gleichzeitig erhältlich sind. Wenn nV den nV30 verpennt haben sollte, muss eben der Ti4600 (oder meinetwegen der Ti4800) nVidias Fähnlein gegen den R300 hochzuhalten versuchen. Das wird ihm wohl weniger gelingen.

Pussycat
2002-07-08, 10:46:41
Stimmt, aber wenn NV sagen kann 'wartet noch zwei Monate, dann schlagen wir zurück' oder einen Paper-lauch macht (ankündigung ohne Produkte), dann hat NV doch 'etwas' was dagegen halten kann. Imageschaden für NV wird es aber unausweichlich geben.

AlfredENeumann
2002-07-08, 13:07:24
http://www.ati-news.de/HTML/news.shtml

R300 ab Novmber in 0,13 µm

Wie PCPop berichtet, wird ATI im November den Herstellungsprozess für den R300 von 0,15 auf 0,13 µm verkleinern.
Weil die Umstellung auf 0,13µm bei TSMC erst ab etwa November möglich, wird der Chip vorerst nur in 0,15 µm hergestellt. Was größer Abwärme, Stromaufnahme und einen geringeren Takt bedeutet.
Quelle: PCPop

--

R300 LowCost (niedrieger Takt, 0.15µ) gegen GF4TI
R300 HighEnd (0.13µ vs. NV30)

Exxtreme
2002-07-08, 13:14:31
Originally posted by AlfredENeumann

R300 LowCost (niedrieger Takt, 0.15µ) gegen GF4TI
R300 HighEnd (0.13µ vs. NV30)

Glaube ich nicht so recht. Die Frage stellt sich ob ein erhöhter Chiptakt tatsächlich so viel Plus an Speed bringen wird. Vor allem da in der Roadmap schon was von 350 MHz mit 0,15µ steht. Sie müssten dann aber gleichzeitig den RAM-Speed kräftig erhöhen damit es was bringt. Ich glaube es geht eher um niedrigeren Stromverbrauch und niedrigere Produktionskosten.

Gruß
Alex

Andre
2002-07-08, 13:39:13
Originally posted by Thowe


Da ich ein sehr hohes Maß an Geduld habe, undrücke ich es, das ich schreiben möchte, "Und das vom Oberspammer". So lass ich es eben sein. Also werde ich mal den Nährwert der letzten paar tausend Postings zusammenfassen:

;D ;D ;D

ow
2002-07-09, 09:21:54
Originally posted by Exxtreme

Glaube ich nicht so recht. Die Frage stellt sich ob ein erhöhter Chiptakt tatsächlich so viel Plus an Speed bringen wird. Vor allem da in der Roadmap schon was von 350 MHz mit 0,15µ steht. Sie müssten dann aber gleichzeitig den RAM-Speed kräftig erhöhen damit es was bringt. Ich glaube es geht eher um niedrigeren Stromverbrauch und niedrigere Produktionskosten.

Gruß
Alex


350Mhz koennen sich nur auf 0.13 beziehen, mit 0.15 ist das unmoeglich. Geht einfach nicht bei ueber 100Mio Transistoren.

Tarkin
2002-07-09, 09:28:24
Originally posted by ow



350Mhz koennen sich nur auf 0.13 beziehen, mit 0.15 ist das unmoeglich. Geht einfach nicht bei ueber 100Mio Transistoren.

sicher, Mr. R300 Chefentwickler :D

StefanV
2002-07-09, 11:39:54
Originally posted by ow
350Mhz koennen sich nur auf 0.13 beziehen, mit 0.15 ist das unmoeglich. Geht einfach nicht bei ueber 100Mio Transistoren.

Nein, ist es nicht.

Bei entsprechendem Design dürften auch 350MHz möglich sein.

Allerdings ist die Kühlung eine andere Frage, aber auch möglich.

Tarkin
2002-07-09, 11:52:55
ok, jetzt glaub ichs dann bald:

von http://www.3dchipset.com/news.shtml

"... The ATI Radeon 8500 Maxx is for real and the card is already in full production and about to be shipped soon. ATi has finally nailed certain issues with the dual chip. Final testings have been done and you should here noise from ATi regarding this offering."

AAAAHHH!!! VERDAMMT WAS DENN JETZT ?!?!?!?!

ATI machts verdammt spannend!

Wer weiß: vielleicht kommts dann so:

ULTRA High End: R300 ... mit an die 30GB Speicherbandbreite und DX9 Features,

High End Readeon 8500 MAXX ... mit ca. 16GB Bandbreite (etwas niedriger getaktet als ne LE)

und Low End die stinktnormale RV250.

... wäre doch rein theoretisch möglich?

Das wär was.... DER ABSOLUT GEILSTE PRODUKTLAUNCH aller Zeiten!!!

;D ;D ;D ;D ;D

Exxtreme
2002-07-09, 12:01:42
Uiii. Also wenn ATi tatsächlich eine Dual-R8500 bringt dann muss man davon ausgehen, daß diese GraKa trotzdem keine Konkurrenz zur R300 sein wird. Da wäre ATi nämlich echt ganz schön blöd. Deswegen bin ich echt richtig auf die R300 gespannt.

Gruß
Alex

Labberlippe
2002-07-09, 12:31:46
Hi

Jetzt wartet doch mal ab bis die ersten Samples da sind.

Wenn ATi auf 0,15 geht und der Chip schneller als eine GeForce4 ist, dann solls mir auch Recht sein.
Wenn die Karte stabil ist und läuft juckt der Herstellungsprozess keine Sau.

Aber vielleicht bemängeln dann die Tester plötzlich die Karte mit der Begründung das diese "nur" in 0,15 gefertigt ist.

Was div. Member hier betrifft die über 0,15 lästern und jetzt schon erkennen wollen das der Chip Mist ist, dann kann ich nur lächeln.


Also mal ruhig Blut.

Gruss Labberlippe

TBird
2002-07-09, 12:38:08
@ ow & Stefan Payne

Habt ihr beide Chipdesign studiert, oder woher wißt ihr dass 350 MHz bei 0,15 machbar/unmöglich sind ?

Unregistered
2002-07-09, 12:42:01
Originally posted by ow



350Mhz koennen sich nur auf 0.13 beziehen, mit 0.15 ist das unmoeglich. Geht einfach nicht bei ueber 100Mio Transistoren.

MuFu @ Beyond3d, der anscheinend gute Kontakte zu ATi hat geht von
ca. 220 - 250 MHz bei 0,15µm aus. Da der Chip 8 Pipelines hat reicht
die Speed aber immer noch locker. Die 350MHz in der Roadmap sollen
sich laut ihm auf die ursprünglich geplante 0,13µm - Version beziehen.
Da aber die Chiphersteller diesen Prozess immer noch nicht serienreif
haben, bleibt eben nur 0,15µm - tech übrig.

Tarkin
2002-07-09, 12:44:36
Originally posted by TBird
@ ow & Stefan Payne

Habt ihr beide Chipdesign studiert, oder woher wißt ihr dass 350 MHz bei 0,15 machbar/unmöglich sind ?

das frag ich mich auch die ganze Zeit....:D

Labberlippe
2002-07-09, 13:00:45
Originally posted by TBird
@ ow & Stefan Payne

Habt ihr beide Chipdesign studiert, oder woher wißt ihr dass 350 MHz bei 0,15 machbar/unmöglich sind ?

Das glaube ich nicht. :D
Allerdings sollte man versuchen ein bischen das Hirn einzuschalten.
Ich glaube kaum das 350Mhz mit 0,15 zu realieseren sind.
Ansonsten hätte ATi die aktuelle R8500 auch schon auf 350 Mhz gejagt.

Gruss Labberlippe

ow
2002-07-09, 13:02:22
Originally posted by Stefan Payne


Nein, ist es nicht.

Bei entsprechendem Design dürften auch 350MHz möglich sein.

Allerdings ist die Kühlung eine andere Frage, aber auch möglich.

Ist es doch. Da kannst du designen was du willst.

Exxtreme
2002-07-09, 13:04:34
Originally posted by Labberlippe
Das glaube ich nicht. :D
Allerdings sollte man versuchen ein bischen das Hirn einzuschalten.
Ich glaube kaum das 350Mhz mit 0,15 zu realieseren sind.
Ansonsten hätte ATi die aktuelle R8500 auch schon auf 350 Mhz gejagt.

Gruss Labberlippe
Err, dann dürfte der Williamette auch nicht mehr als 300 MHz schaffen wenn man deiner Logik folgt.

Gruß
Alex

ow
2002-07-09, 13:05:26
Originally posted by TBird
@ ow & Stefan Payne

Habt ihr beide Chipdesign studiert, oder woher wißt ihr dass 350 MHz bei 0,15 machbar/unmöglich sind ?


Ich schon. Stefan nicht, der labert nur.

Birdman
2002-07-09, 13:06:23
Originally posted by ow
Ist es doch. Da kannst du designen was du willst.
Vielleicht hat ATi ein paar P4 Patente von Intel gekauft und nun sehen wir eine R300 mit doppeltem takt, aber halber leistung *eg*

ow
2002-07-09, 13:06:23
Originally posted by Unregistered


MuFu @ Beyond3d, der anscheinend gute Kontakte zu ATi hat geht von
ca. 220 - 250 MHz bei 0,15µm aus. Da der Chip 8 Pipelines hat reicht
die Speed aber immer noch locker. Die 350MHz in der Roadmap sollen
sich laut ihm auf die ursprünglich geplante 0,13µm - Version beziehen.
Da aber die Chiphersteller diesen Prozess immer noch nicht serienreif
haben, bleibt eben nur 0,15µm - tech übrig.


Sag ich doch die ganze Zeit.

ow
2002-07-09, 13:08:16
Originally posted by Tarkin


das frag ich mich auch die ganze Zeit....:D



vielleicht weisst du's ja jetzt.

mfg

Dipl.-Ing. ow

(ps) waere schoen, auch von dir mal was sinnvolles zu hoeren.

ow
2002-07-09, 13:09:57
Originally posted by Labberlippe

Allerdings sollte man versuchen ein bischen das Hirn einzuschalten.

Gruss Labberlippe

Jep. Auch das hilft bisweilen.
Denn man muss dazu nicht studiert haben.

ow
2002-07-09, 13:11:40
Originally posted by Exxtreme

Err, dann dürfte der Williamette auch nicht mehr als 300 MHz schaffen wenn man deiner Logik folgt.

Gruß
Alex

???

Schonmal die Transistorcounts verglichen?
Ausserdem ist ein Grafikchip wesentlich komplexer (von der Funktion) als eine CPU.

ow
2002-07-09, 13:13:41
Originally posted by Birdman

Vielleicht hat ATi ein paar P4 Patente von Intel gekauft und nun sehen wir eine R300 mit doppeltem takt, aber halber leistung *eg*

:rofl: :D

Labberlippe
2002-07-09, 13:19:22
Originally posted by Exxtreme

Err, dann dürfte der Williamette auch nicht mehr als 300 MHz schaffen wenn man deiner Logik folgt.

Gruß
Alex
Nene meine Logik passt.

Intel hat grob gesagt die Pipes verlängert damit diese Taktraten erreicht werden können.
Dafür ist Rohleisung schwächer.

Im Graka Bereich sieht es anders aus.
Da kannst man nicht so einfach nur auf hohe Taktraten setzen, gerade dann wenn der Chip Jenseits von den 60Millionen ist.
Toll 50 Mhz mehr takt aber dafür 20% wniger Leistung. *eg*

Im Graka bereich zählt die Rohleistung weitaus mehr als im CPU Markt.
Kurz hier muss eine anderer Weg gefunden werden.
Wurde auch mit LMA, HyperZ u.s.w...

Die neuen CPU Boliden können mit der Software besser angesprochen werden SSE2 z.B.
Gerade dann wenn eine eigene Schnittstelle zur Verfügung gestellt wird.

Im Graka Bereich gibt es Standartschnittstellen.


Kannst Du mir folgen ???

Gruss Labberlippe

Exxtreme
2002-07-09, 13:26:37
@ LL
Schon kapiert. Nur finde ich, daß der Taktfrequenzunterschied zw. 250 MHz un 2 GHz schon ziemlich heftig ist. Und auch wenn es nur 250 MHz werden, dank 8 Renderpipelines wird das Teil trotzdem sehr schnell.

Gruß
Alex

Labberlippe
2002-07-09, 13:31:48
Doppelpost

ups

Birdman
2002-07-09, 13:32:12
Originally posted by Exxtreme
@ LL
Schon kapiert. Nur finde ich, daß der Taktfrequenzunterschied zw. 250 MHz un 2 GHz schon ziemlich heftig ist. Und auch wenn es nur 250 MHz werden, dank 8 Renderpipelines wird das Teil trotzdem sehr schnell.
Gruß
Alex
Auf meiner CPU sitzt aber auch ein 1KG schwerer Kühler und nimmt 100x100x100mm Platz weg, der von meiner Graka ist aber nur 120g und nimmt sich 100x40x20mm ....

Labberlippe
2002-07-09, 13:33:08
Originally posted by Exxtreme
@ LL
Schon kapiert. Nur finde ich, daß der Taktfrequenzunterschied zw. 250 MHz un 2 GHz schon ziemlich heftig ist. Und auch wenn es nur 250 MHz werden, dank 8 Renderpipelines wird das Teil trotzdem sehr schnell.

Gruß
Alex

Alles schön und Recht nur nutzen die Games dann auch wirklich alle 8 Pipelines ???
Wenn nicht dann ist die Füllrate (wenn ich mich nicht irre) niedriger.
Ergo ist die Karte langsamer.
Schneller als eine GeForfe4 (schätze ich mal) wird Sie sicher aber genaueres sagen kann man nur dann, wenn die Karten am Markt sind.
Genauer gesagt wenn die ersten Testsamples im Umlauf sind.

Wie gesagt mir ist es Wurscht ob die Karte in 0,15 oder 0,13 gefertigt wird, wenn die Performance passt und alles stabil ist, hat die Fertigung keine Sau zum jucken.

Gerade die Unerfahren User machen sich hier die wenigsten um die Fertigungstechnik, diese sehen nur die fps und wenn die passen ist alles irrelevant.

Gruss Labberlippe

ow
2002-07-09, 13:48:48
Originally posted by Labberlippe


Alles schön und Recht nur nutzen die Games dann auch wirklich alle 8 Pipelines ???

Gruss Labberlippe

Das ist reine Treibersache. Koennte also gehen. *eg*
Das Game weiss nicht, wieviele Pipes ein Chip hat.

Tarkin
2002-07-09, 14:32:48
Originally posted by ow




vielleicht weisst du's ja jetzt.

mfg

Dipl.-Ing. ow

(ps) waere schoen, auch von dir mal was sinnvolles zu hoeren.

Aber natürlich

Mr. Dipl.Ing.DDR.Mag.Phil.Doz.-weltbester-Experte-für-alles ow :bäh:

Exxtreme
2002-07-09, 14:52:44
Originally posted by Tarkin


Aber natürlich

Mr. Dipl.Ing.DDR.Mag.Phil.Doz.-weltbester-Experte-für-alles ow :bäh:
Tarkin bitte! Halte dich mit solchen Aussagen zurück, OK?

Gruß
Alex

Unregistered
2002-07-09, 14:53:37
Originally posted by Labberlippe


Alles schön und Recht nur nutzen die Games dann auch wirklich alle 8 Pipelines ???


Angeblich (!?!) hat der R300 2 Setup-Engines (vielleicht sogar 2 komplette Vertex-Shader-Engines ) und kann deshalb 2 Polygone gleichzeitig rendern. Ob das überhaupt so gut funktioniert, keine Ahnung, aber einen Vorteil sollte es schon geben. So +30% in etwa.
Außerdem (meine Spekulation) kann der R300 ja vielleicht Pipeline-combining machen (die GF-Reihe schafft das definitiv nicht) und kann damit eine höhere Effizienz erreichen.

Tarkin
2002-07-09, 15:14:04
Originally posted by Exxtreme

Tarkin bitte! Halte dich mit solchen Aussagen zurück, OK?

Gruß
Alex

tut mir leid, ich konnte nicht widerstehen :D

aths
2002-07-09, 15:26:25
Originally posted by Unregistered
Außerdem (meine Spekulation) kann der R300 ja vielleicht Pipeline-combining machen (die GF-Reihe schafft das definitiv nicht) und kann damit eine höhere Effizienz erreichen. Also GeForce256 kann definitiv Pipeline Combining, GeForce3 und 4 vermutlich auch. (Wobei ich jetzt keinen Performance-Unterschied zwischen Combining und Loop Back sehe.)

Tarkin
2002-07-09, 15:56:48
HUI! neue Inquirer news:

http://www.theinquirer.net/?article=4333


Hmm.. 315Mhz, ... 15.000 3dMarks ... hört sich garnichtmal so unwahrscheinlich an.

Was haltet Ihr davon?

zeckensack
2002-07-09, 16:01:07
Originally posted by aths
Also GeForce256 kann definitiv Pipeline Combining, GeForce3 und 4 vermutlich auch. (Wobei ich jetzt keinen Performance-Unterschied zwischen Combining und Loop Back sehe.) ???

Für Loopback müssen Stufen der Pipeline umkonfiguriert werden, bevor sie ein zweites Mal durchlaufen werden. Bei Pipeline Combining nicht, zwei unterschiedlich konfigurierte Einheiten können nebeneinander existieren.

Da sich Loobpack grundsätzlich nicht gut mit Pipelining (im allgemeinen Sinne) verträgt*, glaube ich auch, daß es viel weniger Chips am Markt beherrschen, als allgemein angenommen ...

*Für eine Konfigurationsänderung muß immer die Pipeline ausgeleert werden. Da echtes 'Loopback' eine Änderung pro aktiver Pipeline pro Pixel (zB theoretisches 1xLoopback bei einem 4Pipex2TMU Chip -> eine Änderung pro 4 Pixel) erfordert, muß man diese Änderung an der Pipeline mit Puffern für Zwischenergebnisse und anderen Tricksereien so lange wie möglich verzögern. Ansonsten wäre die Performance katastrophal.

aths
2002-07-09, 16:15:06
Originally posted by zeckensack
???

Für Loopback müssen Stufen der Pipeline umkonfiguriert werden, bevor sie ein zweites Mal durchlaufen werden. Bei Pipeline Combining nicht, zwei unterschiedlich konfigurierte Einheiten können nebeneinander existieren.Ich hatte mich auf die reine Füllrate bezogen und dieses Problem dabei gar nicht bedacht. Ließe sich denn unter Ausnutzung dieses Effekts ein für alle mal klären, ob GF3/4 nun Loopback oder Pipeline Combining nutzen?

bambo
2002-07-09, 16:24:59
Originally posted by Exxtreme
Uiii. Also wenn ATi tatsächlich eine Dual-R8500 bringt dann muss man davon ausgehen, daß diese GraKa trotzdem keine Konkurrenz zur R300 sein wird

Wenn das mit der Dual-8500 Maxx stimmen solltem, dann hat ATI ein ernsthaftes Problem mit dem R300. Freiwillig macht man so einen Dualchip-Firlefanz nicht.

TBird
2002-07-09, 16:30:25
Originally posted by Tarkin
HUI! neue Inquirer news:

http://www.theinquirer.net/?article=4333


Hmm.. 315Mhz, ... 15.000 3dMarks ... hört sich garnichtmal so unwahrscheinlich an.

Was haltet Ihr davon?

Wäre mir persönlich zu schwach die Leistung (wenn das stimmt).

Xmas
2002-07-09, 16:32:02
Originally posted by zeckensack
*Für eine Konfigurationsänderung muß immer die Pipeline ausgeleert werden.
Genau dies glaube ich nicht. Ich denke es ist durchaus möglich, die States der einzelnen Einheiten ohne Probleme Takt für Takt zu togglen.

ow
2002-07-09, 16:41:06
Originally posted by Tarkin


Aber natürlich

Mr. Dipl.Ing.DDR.Mag.Phil.Doz.-weltbester-Experte-für-alles ow :bäh:

:rofl:

Musst jetzt deine Minderwertigkeitskomplexe nicht hier ausleben, mach das woanders.

Tarkin
2002-07-09, 16:42:29
Originally posted by TBird


Wäre mir persönlich zu schwach die Leistung (wenn das stimmt).

also das finde ich überhaupt nicht. Denk mal nach. "...nVs best Performance is 10000 - 11000 3DMarks ... 15.000 hat -angeblich- eine R300."

also wenn eine GF4 4600 auf einem System X 10.500 3DMarks hat, und eine R300 (zum jetzigen Zeitpunkt) angeblich schon um die 15.000 ... IMO ist das sogar verdammt gut (an die 50% mehr Leistung, und das beim 3DMark! ... in 1024x768).

Sowas hab ich auch erwartet. Für den Anfang jedenfalls. Mit gut optimierten Treibern und dem final board sind da sicher noch 1.000 - 2.000 Pünktchen drin ... dann hast 16.500 zu 10.500.

Ich wage mal zu behaupten, dass sich da eine nv30 auch schwer tun wird bzw. in ähnliche Regionen liegen wird. (falls man den Zahlen von The Inquirer glauben kann).

ow
2002-07-09, 16:42:58
Originally posted by Tarkin


tut mir leid, ich konnte nicht widerstehen :D

ich frage nochmal: hast du auch irgendwas sinnvolles von dir zu geben oder nur diesen Dummlall??

Tarkin
2002-07-09, 16:43:49
*beleidigung geloescht* (ow)

Tarkin
2002-07-09, 16:45:08
s.o. (ow)

ow
2002-07-09, 16:47:40
Na Tarkin, wo sind die Argumente?
Kommt da noch was oder hast du echt nbicht mehr drauf als Leute zu beleidigen??

Tarkin
2002-07-09, 16:51:41
Originally posted by ow
Na Tarkin, wo sind die Argumente?
Kommt da noch was oder hast du echt nbicht mehr drauf als Leute zu beleidigen??

Und hast Du noch was anderes drauf, als Leute zu provozieren und sich als Moderator aufzuspielen?

bemitleidenswert.

ow
2002-07-09, 16:55:42
Nein, bemitleidenswert bist nur du.

Tarkin
2002-07-09, 17:05:25
Originally posted by ow
Nein, bemitleidenswert bist nur du.

bravo, jetzt fertig?

nagus
2002-07-09, 17:11:56
Originally posted by ow


:rofl:

Musst jetzt deine Minderwertigkeitskomplexe nicht hier ausleben, mach das woanders.


*beleidigung geloescht*

TBird
2002-07-09, 17:20:16
Originally posted by Tarkin
also das finde ich überhaupt nicht. Denk mal nach. "...nVs best Performance is 10000 - 11000 3DMarks ... 15.000 hat -angeblich- eine R300."
also wenn eine GF4 4600 auf einem System X 10.500 3DMarks hat, und eine R300 (zum jetzigen Zeitpunkt) angeblich schon um die 15.000 ... IMO ist das sogar verdammt gut (an die 50% mehr Leistung, und das beim 3DMark! ... in 1024x768).

Sowas hab ich auch erwartet. Für den Anfang jedenfalls. Mit gut optimierten Treibern und dem final board sind da sicher noch 1.000 - 2.000 Pünktchen drin ... dann hast 16.500 zu 10.500.


Naja, also wenn ich mir auf madonion die TOP10 angucke, dann sind da schon einige bei die (vor allem dank hochgepowerter CPU) über 16000 Punkte hinbekommen haben mit einer GF4 Ti4600.
15000 sind da keine Meisterleistung, wobei ich schon denke dass man auch die R300 mindestens auf 20000 hinbekommen sollte mit entsprechender Übertaktung und dass sie schneller sein wird als eine GF4.
Trotzdem ist mir das aber noch immer viel zu wenig für mein nächstes System.


Ich wage mal zu behaupten, dass sich da eine nv30 auch schwer tun wird bzw. in ähnliche Regionen liegen wird. (falls man den Zahlen von The Inquirer glauben kann).

OK, Deine Spekulation. ;)

Ich erwarte jedenfalls vom NV30 (vielleicht auch erst vom NV35, mal sehen) nicht mehr und nicht weniger als 30000 Punkte als absolutes Minimum bei Default-Einstellungen und aktuellster CPU.

nggalai
2002-07-09, 17:26:52
Tarkin, ow und auch nagus--bitte tragt eure Streitereien privat aus und nicht in Threads. Wenn ihr's doch öffentlich machen wollt, dann startet einen neuen Thread im Spam-Forum, nennt ihn meinetwegen "Kinderkram" oder "Beleidigungen ahoi" und gebt da Gas.

Aber nicht in solchen Threads wie dem hier. Danke für eure Kooperation.

ta,
-Sascha.rb

Xmas
2002-07-09, 17:30:34
Originally posted by TBird
Naja, also wenn ich mir auf madonion die TOP10 angucke, dann sind da schon einige bei die (vor allem dank hochgepowerter CPU) über 16000 Punkte hinbekommen haben mit einer GF4 Ti4600.
Nun, TBird, was sagt denn das über den 3DMark in bezug auf die CPU-Leistung aus?
Richtig, mit einer Ti4600 ist er an einigen Stellen CPU-Limitiert.
Ich gehe mal stark davon aus, dass man mit aktuellen CPUs gar keine 30000 Punkte erreichen kann, egal wie schnell die Grafikkarte ist. Wahrscheinlich nicht einmal 20000.

TBird
2002-07-09, 18:17:29
Xmas,

ich gehe von CPUs aus die erhältlich sein werden wenn der NV30/35 auch in den Läden steht. Also gegen Ende diesen/Anfang nächsten Jahres. Gehe ich dann noch davon aus dass der NV30 doppelt so leistungsstark/schnell wie die GF4 (NV35 2,5-3 fache Leistung) werden wird, kann ich mir schon sehr gut vorstellen dass ein solches Monstrum gepaart mit einer dann auf 5-6 GHz (P4 Niveau) hochgetakteten CPU diesen Wert von 30000 knacken kann.

Übrigens habe ich nirgends gesagt dass der 3DMark etwas über die CPU Leistung aussagt, sondern nur dass der Wert von über 16000 auch vor allem durch eine extrem hochgetaktete CPU erreicht wurde.
Dass der 3DMark nicht so CPU limitiert ist wie die meisten derzeit erhältlichen Spiele ist mir auch schon bekannt.

askibo
2002-07-09, 18:32:14
Originally posted by TBird
Naja, also wenn ich mir auf madonion die TOP10 angucke, dann sind da schon einige bei die (vor allem dank hochgepowerter CPU) über 16000 Punkte hinbekommen haben mit einer GF4 Ti4600.


Hier mal das System des aktuelle Rekordhalters mit 16604 Punkten:

P4 2.4B@3492MHz (194FSB 3X RDRAM),
PNY GF4 @398/783

Also alles andere als Standard.



Falls die R300 mit einem handeslüblichen PC gebencht wurde (und falls die Gerüchte überhaupt stimmen)sind 15000 Punkte ein sehr guter Wert.

TBird
2002-07-09, 18:39:55
Originally posted by askibo
Hier mal das System des aktuelle Rekordhalters mit 16604 Punkten:

P4 2.4B@3492MHz (194FSB 3X RDRAM),
PNY GF4 @398/783

Also alles andere als Standard.


Hat auch niemand gesagt dass das Standard ist.


Falls die R300 mit einem handeslüblichen PC gebencht wurde (und falls die Gerüchte überhaupt stimmen)sind 15000 Punkte ein sehr guter Wert.

Ein sehr guter Wert für Dich vielleicht.
Für mich ist das jedoch enttäuschend (wenn das wirklich stimmt).
Ich werde mir jedenfalls erst dann eine neue Grafikkarte holen, wenn selbige in Verbindung mit der dann aktuellsten bis zum Anschlag übertakteten CPU auf das Niveau von 30000 Punkten kommt. Punkt.

askibo
2002-07-09, 18:52:33
Originally posted by TBird
Ich werde mir jedenfalls erst dann eine neue Grafikkarte holen, wenn selbige in Verbindung mit der dann aktuellsten bis zum Anschlag übertakteten CPU auf das Niveau von 30000 Punkten kommt. Punkt.

??? ??? ???

Warum 3dmark? Warum ausgerechnet 30000 Punkte? Warum nicht 28476?

Warum mit einer extrem übertakteten CPU die einen Stabilitätstest sicher nicht überstehen würde? Was bringt das? Die Systeme die momentan 16000 Punkte erreichen taugen IMO nur zum angeben und sonst nichts. Da wird einmal gebencht und gebetet das das System stabil bleibt und du richtest danach deine Kaufentscheidung?




Sorry, aber das ist für mich ein sehr seltsames Kriterium für den Kauf einer neuen Grafikkarte.

cyjoe
2002-07-09, 19:01:53
Hmm... wer es schafft, eine Graka zu bauen, die gar nicht mal so schnell sein muss, nur in 3dmark2k1 alles da gewesene plättet, der ist reich, reich, reich :D:D:D

zeckensack
2002-07-09, 19:15:57
Originally posted by cyjoe
Hmm... wer es schafft, eine Graka zu bauen, die gar nicht mal so schnell sein muss, nur in 3dmark2k1 alles da gewesene plättet, der ist reich, reich, reich :D:D:D Geforce2MX -> hat funktioniert *eg*
Radeon8500 -> eher nicht ;)

Quasar
2002-07-09, 19:22:10
Originally posted by Xmas
Ich gehe mal stark davon aus, dass man mit aktuellen CPUs gar keine 30000 Punkte erreichen kann, egal wie schnell die Grafikkarte ist. Wahrscheinlich nicht einmal 20000.

Das ist leicht rauszufinden. 3DAnalyze mit abgeschaltetem Rendering :)

TBird
2002-07-09, 20:02:09
Originally posted by askibo
??? ??? ???

Warum 3dmark? Warum ausgerechnet 30000 Punkte? Warum nicht 28476?


Na auf ein paar Punkte kommts nicht unbedingt an. Aber das Upgraden muß sich natürlich auch lohnen und das tuts bei 15000 Punkten absolut nicht.


Warum mit einer extrem übertakteten CPU die einen Stabilitätstest sicher nicht überstehen würde?


Auch diese extrem übertakteten Systeme laufen wunderbar stabil.


Was bringt das?


Ferocious Power

Im Ernst: Wenn Du bei Auflösungen ab/über 1600x1200x32 + max. Details + max. AF noch flüssig und vor allem genußvoll spielen willst (gerade bei neueren Titeln oder denk an Doom3) dann ist diese Power absolut notwendig.


Die Systeme die momentan 16000 Punkte erreichen taugen IMO nur zum angeben und sonst nichts.


Angeben ist für Kinder. "Vernünftig" spielen für Erwachsene. ;)


Da wird einmal gebencht und gebetet das das System stabil bleibt und du richtest danach deine Kaufentscheidung?


Da brauch man nicht beten, das System bleibt auch so stabil bei entsprechender Kühlung.


Sorry, aber das ist für mich ein sehr seltsames Kriterium für den Kauf einer neuen Grafikkarte.


Achja hab ich noch vergessen: weitere Kriterien sind natürlich noch 100% DX9 kompatibel und 100% OpenGL 2.0 kompatibel.
So, dann bin ich (erstmal) zufrieden. :)

AlfredENeumann
2002-07-09, 20:02:30
Originally posted by bambo


Wenn das mit der Dual-8500 Maxx stimmen solltem, dann hat ATI ein ernsthaftes Problem mit dem R300. Freiwillig macht man so einen Dualchip-Firlefanz nicht.


Warum den nicht ? Das wäre doch nur ein DX8.1 Chip, nur halt verdammt schnell.

TBird
2002-07-09, 20:03:56
Originally posted by cyjoe
Hmm... wer es schafft, eine Graka zu bauen, die gar nicht mal so schnell sein muss, nur in 3dmark2k1 alles da gewesene plättet, der ist reich, reich, reich :D:D:D

Ich hab ehrlich gesagt noch keine einzige Grafikkarte gesehen die bei 3DMark absolut langsam und bei Spielen absolut schnell ist (oder andersrum ;) ), aber vielleicht zeigst Du mir ja mal eine.
Aber bitte schnell, schnell, schnell. ;)

Exxtreme
2002-07-09, 20:07:59
Originally posted by bambo
Wenn das mit der Dual-8500 Maxx stimmen solltem, dann hat ATI ein ernsthaftes Problem mit dem R300.
Oder die R300 ist noch viel schneller als eine Dual-R8500.
Originally posted by bambo
Freiwillig macht man so einen Dualchip-Firlefanz nicht.
Wieso? 3dfx hat es doch auch gemacht.

Gruß
Alex

ow
2002-07-09, 20:21:22
DUAL Chip Lösungen werden nur dann eingsetzt, wenn ein einzelner Chip zu lahm ist. Ansonsten lohnt das ganze nicht.

Gilt nicht nur für Grafikchips.

askibo
2002-07-09, 20:33:58
Originally posted by TBird

[quote]
Na auf ein paar Punkte kommts nicht unbedingt an. Aber das Upgraden muß sich natürlich auch lohnen und das tuts bei 15000 Punkten absolut nicht.
Im Ernst: Wenn Du bei Auflösungen ab/über 1600x1200x32 + max. Details + max. AF noch flüssig und vor allem genußvoll spielen willst (gerade bei neueren Titeln oder denk an Doom3) dann ist diese Power absolut notwendig.

Einmal sprichst du von der 3mark Punktzahl in der Standardeinstellung (1024x768) und dann von 1600x1200 mit maximaler Bildqualität.
Was ist (Achtung! reine Spekulation!)wenn die R300 durch ihre hohe Bandbreite und den 8 Pipelines in 1600x1200 2-3x so schnell wäre wie eine Ti4600? Dann wäre das doch für dich die ideale Karte (für mich übrigens auch :D).



Auch diese extrem übertakteten Systeme laufen wunderbar stabil.
Da brauch man nicht beten, das System bleibt auch so stabil bei entsprechender Kühlung.

Sicher, es gibt hochübertaktete Systeme die stabil laufen. Aber wer unbedingt auf Platz 1 der Highscore stehen will darfs mit der Stabilität und Bildqualität nicht so genau nehmen. Bei mir läuft der 3dmark auch noch durch wenn ich die Graka stark übertakte, aber durchlaufen und fehlerfrei durchlaufen sind zwei paar Sachen.




Achja hab ich noch vergessen: weitere Kriterien sind natürlich noch 100% DX9 kompatibel und 100% OpenGL 2.0 kompatibel.


Damit du auch im 3dmark 2003 eine hohe Punktzahl erreichst? Für etwas anderes wird die DX9-Fähigkeit der Chips in den nächsten 2 Jahren kaum gebraucht werden.
Einige OpenGL 2.0 Features werden eventuell (man beachte JC´s Kommentar zur P10)in der Doom 3 Engine benutzt werden , aber sonst nur im Profibereich.

Doomtrain
2002-07-09, 20:40:24
@ Tarkin und ow:

Ihr seid beide gleich blöd! Wie alt seid ihr eigentlich? Benehmt euch doch mal, vor allem du ow, du bist ein Moderator! Vergessen?

cyjoe
2002-07-09, 20:40:47
Originally posted by TBird
Ich hab ehrlich gesagt noch keine einzige Grafikkarte gesehen die bei 3DMark absolut langsam und bei Spielen absolut schnell ist (oder andersrum ;) ), aber vielleicht zeigst Du mir ja mal eine.
Aber bitte schnell, schnell, schnell. ;)

Seinerzeit der Kyro2

btw: Was sagt der 3dmark2001 über die Performance in Doom3 aus? Würd mich nämlich mal interessieren :D

bambo
2002-07-09, 20:42:34
Originally posted by Exxtreme

Wieso? 3dfx hat es doch auch gemacht.


Aber nicht freiwillig. Der VSA-100 war als einzelner Chip zu lahm, um konkurenzfähig zu sein, und einen besseren hat 3dfx nicht hinbekommen.

Doomtrain
2002-07-09, 20:47:07
Originally posted by bambo


Aber nicht freiwillig. Der VSA-100 war als einzelner Chip zu lahm, um konkurenzfähig zu sein, und einen besseren hat 3dfx nicht hinbekommen.

Die hätten schon einen besseren hinbekommen, nur die Zeit war zu knapp...Sonst hätten wir jetzt alle keine GeForce3\4 im Rechner, sondern einen Rampage\Hydra\Sage

bambo
2002-07-09, 20:49:42
Originally posted by Doomtrain

Die hätten schon einen besseren hinbekommen, nur die Zeit war zu knapp...Sonst hätten wir jetzt alle keine GeForce3\4 im Rechner, sondern einen Rampage\Hydra\Sage

:lol: Jaja, und die Bitboys hätten noch was besseres hinbekommen, nur die Zeit war zu knapp. Sonst hätten wir alle einen Pyramid3D/Glaze3d im Rechner... *eg*

Doomtrain
2002-07-09, 20:51:09
Originally posted by bambo


:lol: Jaja, und die Bitboys hätten noch was besseres hinbekommen, nur die Zeit war zu knapp. Sonst hätten wir alle einen Pyramid3D/Glaze3d im Rechner... *eg*

Was gibts da zu lachen?

TBird
2002-07-09, 20:57:10
Originally posted by cyjoe
Seinerzeit der Kyro2


Nicht wirklich. ;)


btw: Was sagt der 3dmark2001 über die Performance in Doom3 aus? Würd mich nämlich mal interessieren :D

???
Wie hast Du Dir denn diese Frage ausgedacht ?

EDIT: Sorry, habs vielleicht nicht gleich verstanden, aber als ich Doom3 angeführt habe wollte ich klar machen, dass wenn ein System bereits schon beim 3DMark schlecht abschneidet dann wohl auch sehr wahrscheinlich bei Doom3 (max Settings) absolut mies sein wird.

TBird
2002-07-09, 21:10:14
Originally posted by askibo
Einmal sprichst du von der 3mark Punktzahl in der Standardeinstellung (1024x768) und dann von 1600x1200 mit maximaler Bildqualität.
Was ist (Achtung! reine Spekulation!)wenn die R300 durch ihre hohe Bandbreite und den 8 Pipelines in 1600x1200 2-3x so schnell wäre wie eine Ti4600? Dann wäre das doch für dich die ideale Karte (für mich übrigens auch :D).


Was wäre wenn ATI morgen pleite geht ? ;)

Im Ernst: Die R300 muß sich natürlich erst noch in Tests beweisen müssen wenn sie denn endlich mal releast wurde. Ich bin nur davon ausgegangen dass der R300 wirklich nur 15000 Punkte erreicht in Default-Einstellungen (auf welchem System das getestet wurde würde mich natürlich auch mal interessieren).
Wenn das stimmt, würde der R300 bei mir jedenfalls nicht auf dem Einkaufszettel stehen.


Sicher, es gibt hochübertaktete Systeme die stabil laufen. Aber wer unbedingt auf Platz 1 der Highscore stehen will darfs mit der Stabilität und Bildqualität nicht so genau nehmen. Bei mir läuft der 3dmark auch noch durch wenn ich die Graka stark übertakte, aber durchlaufen und fehlerfrei durchlaufen sind zwei paar Sachen.


Was hat das bitte mit der Bildqualität zu tun ?
Auch extrem übertaktete Systeme laufen stabil und liefern eine exzellente Bildqualität.
Und auf Platz 1 bei irgendwas will ich nicht stehen, mir reicht es schon aus ein System zu besitzen dass noch ein wenig schneller als das vom Platz 1 ist.


Damit du auch im 3dmark 2003 eine hohe Punktzahl erreichst? Für etwas anderes wird die DX9-Fähigkeit der Chips in den nächsten 2 Jahren kaum gebraucht werden.
Einige OpenGL 2.0 Features werden eventuell (man beachte JC´s Kommentar zur P10)in der Doom 3 Engine benutzt werden , aber sonst nur im Profibereich.


Die Rohpower alleine wird schon Grund genug sein umzusteigen. So wars bei mir mit der GF3 (erste DX8 Karte) und so wirds auch mit dem NV30 (erste DX9 Karte) sein.
Klar das die Features erst in Jahren (wenn überhaupt) richtig ausgenutzt werden von Spielen.

Unregistered
2002-07-09, 21:21:01
LOL in 1024 id ja whol nich merh die GPU der limitierende faktor nich mal beim 3Dmark man braücht schon ne 3GHZ CPU um mehr zu bekommen

StefanV
2002-07-10, 00:49:00
Nochwas zum Stecker der R300:

Ist euch so ein Stecker schon auf früheren ATI Platinen aufgefallen???

Nein??

Na, dann sucht mal nach Radeon 8500DV!!

AlfredENeumann
2002-07-10, 13:11:34
Originally posted by Stefan Payne
Nochwas zum Stecker der R300:

Ist euch so ein Stecker schon auf früheren ATI Platinen aufgefallen???

Nein??

Na, dann sucht mal nach Radeon 8500DV!!


ich seh da nix. ODer bin ich blind ?

http://www.ati.com/designpartners/media/images/aiwr8500dvboard.jpg

askibo
2002-07-10, 13:35:49
Die 8500DV braucht den Anschluß eigentlich nur für einige Firewire-Geräte.

http://www.ati.com/products/pc/aiwradeon8500dv/faq.html#9


Q17: What use does the additional 4-pin internal power connector have on the ALL-IN-WONDER® RADEON™ 8500DV? How does it work?


A17: There is an internal 4-pin power connector on the ALL-IN-WONDER® RADEON™ 8500DV. This is an optional connection and is not required to be connected for the IEEE 1394/FireWire® DV functionality to work. There are very few devices that draw power from the IEEE 1394/FireWire® connector; camcorders do not require this connection. However, some examples of devices that do require this power connection are new 'eyeball' cameras that sit on top of the monitor or some very small hard drives. When you connect the 4-pin power connector, power is provided on the IEEE 1394/FireWire® connector's pins both on the graphics board and on the Input/Output block.


Bild der Karte (extra für AEN eingefügt ;) ):
http://www.yesky.com/20011206/card_front.jpg