PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Medion mit DirectX9-Notebook


Quasar
2003-05-03, 14:47:39
Bei ALDI (http://www.aldi-essen.de/OFFER_D/OFFER_19_NB/OFF30.HTM) unser aller Lieblingsdiscounter, gibt's ab nächste Woche endlich mal ein Notebook mit DX9-Tauglichkeit.

Es scheint, als hätte sich der Verzicht auf 0,13µ in der Poduktion des Grafikchips doch gelohnt, da man so eine frühe Verfügbarkeit in großen Stückzahlen sicherstellen konnte.

P.S.:
Dawn läuft auf dem Ding....das tat sie schon auf der CeBIT.

Richthofen
2003-05-03, 16:06:53
Das hier aber hat nur ne FX5200Go und die ist noch 0.15.
Toshiba hat aber zb. Die Verfügbarkeit eines Notebooks mit FX5600Go bekannt gegeben.
Bei den Mobiles scheint Nvidia ziemlich schnell gewesen zu sein.
Liegt wahrscheinlich auch daran, dass die Einbauzeiten kürzer sind als wie bei RetailGrakas, wo erstmal jeder in der Welt versorgt werden muss und die Hersteller dann in Eigenregie bauen und liefern und nicht zentral wie bei Notebook Herstellern.

Mr. Lolman
2003-05-03, 16:50:57
Ich würde noch ein bisschen warten, da ich mir nicht vorstellen kann, dass der FX5200 GO wirklich soviel schneller ist als der 4200 GO.

http://www.rage3d.com/previews/mobility9600/?page=5


edit: Seltsam dass man nirgendwo Benchmarks findet, obwohl ja schon Notebooks mit dem FX5200 Go zu kaufen sind.

BUG
2003-05-03, 16:53:10
..das is doch kein NoteBook, das is besten Falls ein Desktop Ersatz. (laut, dick/schwer, kurze akkulaufzeit,...)

cu
BUG

Quasar
2003-05-03, 17:14:51
Der Kunde will es so.

Ein Computer ohne Kompromisse, den man auch mal auf der Terrasse oder über's WE mitnehmen kann.
Ausserdem sind die echten Arbeits-Notebooks, die mit Zweit-Akku auch 6-8 Stunden halten, für Normalsterbliche nicht zu bezahlen.

Crazy_Bon
2003-05-03, 17:17:30
Dafür nippelt die CPU (kein Mobile!) die Akku-Laufzeit gehörig ab.

Mr. Lolman
2003-05-03, 17:20:38
Ich seh grad: 2.6GHz (kein Mobile Prozzi!!??) +FX5200; bin gespannt wie lang so ein Rechner rennt.

Ein Freund von mir hat einen 2.0GHz Desktop Pentium & Radeon 7500 Mobility und auf den Oberschenkeln kann man das NB beim Spielen nicht liegen lassen :jump4:

LovesuckZ
2003-05-03, 17:51:20
Originally posted by Mr. Lolman
http://www.rage3d.com/previews/mobility9600/?page=5


Kan man das Notebook von denen auch kaufen? :D

Test Setup - M10
Core/Mem 350/300
Processor Intel Pentium 4 3.06GHz
Motherboard i845GE
Memory 512MB DDR333

Quasar
2003-05-03, 17:54:34
Originally posted by Mr. Lolman
Ich würde noch ein bisschen warten, da ich mir nicht vorstellen kann, dass der FX5200 GO wirklich soviel schneller ist als der 4200 GO.

http://www.rage3d.com/previews/mobility9600/?page=5


edit: Seltsam dass man nirgendwo Benchmarks findet, obwohl ja schon Notebooks mit dem FX5200 Go zu kaufen sind.

Hm, eine GF FX5200go ist auch keine FX5600go.

Warum suchst du nicht einen vergleichenden Link zur Radeon Mobility 9200 raus?

Richthofen
2003-05-03, 17:55:38
also ich hab jetzt so ein schönes Compaq EvoN1015v mit Mobile Athlon Xp2000+.
Nettes Teil und gar nicht mal so teuer. Gibts bereits ab 1200 Euro.

geforce
2003-05-03, 18:08:10
Also wenn da wirklich eine GeforceFX Go drin ist will ich nicht so Reklamationen nach einer Woche sehen weil sich die Hälfte der Kunden die Eier weggebruzelt hat! ;)

Mr. Lolman
2003-05-03, 18:11:29
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/9200_geforcefx/001.htm :D

Piffan
2003-05-03, 18:12:28
Originally posted by geforce
Also wenn da wirklich eine GeforceFX Go drin ist will ich nicht so Reklamationen nach einer Woche sehen weil sich die Hälfte der Kunden die Eier weggebruzelt hat! ;)

Ja, da geht ein echtes volkswirtschaftliches Problem von aus: Zuviel Wärme auf die Eier führt zur Unfruchtbarkeit.....Wer zum Teufel soll denn überhaupt noch da sein, um mal meine Rente zu zahlen :(

Von den Aldi- Angeboten gefallen mir diese Woche nur zwei Dinge: Die Minuluftpumpe und das Reparatur- und Klebeband. Leider ist mein Panzerband von der BW aufgebraucht und ich habe bis jetzt keinen brauchbaren Ersatz.....

LovesuckZ
2003-05-03, 18:40:26
Originally posted by geforce
Also wenn da wirklich eine GeforceFX Go drin ist will ich nicht so Reklamationen nach einer Woche sehen weil sich die Hälfte der Kunden die Eier weggebruzelt hat! ;)

Hm, langweiliger Flame, weil unpassend. oder hast schon ne 5200 abbrennen sehn?

LovesuckZ
2003-05-03, 18:41:10
Originally posted by Mr. Lolman
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/9200_geforcefx/001.htm :D

Ich wollt schon immer nen Mobo mit 3000MHZ und 1GB Rambus haben...

StefanV
2003-05-03, 18:58:30
Originally posted by Richthofen
also ich hab jetzt so ein schönes Compaq EvoN1015v mit Mobile Athlon Xp2000+.
Nettes Teil und gar nicht mal so teuer. Gibts bereits ab 1200 Euro.

:rofl:

Richthofen hat ein Notebook mit Radeon IGP...

Denniss
2003-05-03, 19:32:28
Als Desktop Grafikkarte hat die 64MB Version der 5200 ja nur ein 64Bit Speicheranbindung - hoffenltich bei der Go nicht auch so denn sonst wird aus der lahmen Karte ein ultralahme

Das DX9-Gehype im Aldi-Flyer ist ja wohl ein mehr als schlechter Witz

Richthofen
2003-05-03, 19:46:51
klar warum nicht.
Es hätte auch Trident oder SIS Grafik drinn sein können oder auch Nvidia.
Es sollte nur günstig sein. Ich brauchs zum Schreiben meiner DA und zum SAP programmieren und modellieren usw..
Zocken will ich darauf nicht.

In dieser Preisklasse gibts nur Notebooks von Asus, Fujitsu-Siemens, Compaq und Acer.
Und mit den mobile Athlons liefert AMD wirklich tolle Mobil CPUs.
Da muss ich mal sagen hat Intel momentan die schlechteren Karten.

geforce
2003-05-03, 20:56:40
Originally posted by LovesuckZ
Hm, langweiliger Flame, weil unpassend. oder hast schon ne 5200 abbrennen sehn?

Aha, bist also Notebook-Fachmann?

Eigentlich sollte das kein Flame sein, da es hinsichtlich bekannt ist das einige "NoName"-Firmen, ich will keine Namen nennen, ein Problem damit haben, das ihre Desktop-PC´s in Notebook-Format, welche auch die selbe Wärme produzieren schon einigen Leuten warme Schenkel bereitet haben. ;)

aths
2003-05-03, 22:11:02
Originally posted by Quasar
P.S.:
Dawn läuft auf dem Ding....das tat sie schon auf der CeBIT. Warum ist es für ein Notebook im Jahre 2003 irgendwie wichtig, dass Dawn darauf läuft?

LovesuckZ
2003-05-03, 22:19:05
Originally posted by geforce
Eigentlich sollte das kein Flame sein, da es hinsichtlich bekannt ist das einige "NoName"-Firmen, ich will keine Namen nennen, ein Problem damit haben, das ihre Desktop-PC´s in Notebook-Format, welche auch die selbe Wärme produzieren schon einigen Leuten warme Schenkel bereitet haben. ;)

Das passt aber irgendwie nicht dazu:

Also wenn da wirklich eine GeforceFX Go drin ist will ich nicht so Reklamationen nach einer Woche sehen weil sich die Hälfte der Kunden die Eier weggebruzelt hat!

StefanV
2003-05-03, 22:25:02
Originally posted by LovesuckZ


Das passt aber irgendwie nicht dazu:

Also wenn da wirklich eine GeforceFX Go drin ist will ich nicht so Reklamationen nach einer Woche sehen weil sich die Hälfte der Kunden die Eier weggebruzelt hat!

Hm, wenn die Verlustleistung der FX5200 wirklich gering wäre, warum pappt man dann da Kühler drauf, die für 'ne GF3 TI200 langen ??

LovesuckZ
2003-05-03, 22:33:58
Originally posted by Stefan Payne
Hm, wenn die Verlustleistung der FX5200 wirklich gering wäre, warum pappt man dann da Kühler drauf, die für 'ne GF3 TI200 langen ??

Wie kann man von der 5200 auf die 5200go schließen? Bis jetzt gibt es noch keine richtigen Notebooks-Test mit der Karte.

Thowe
2003-05-03, 23:31:15
Ich find das Notebook traurig, wieso nehmen die nicht einfach einen mobile Celeron (ich kenn die Antwort) und wer zum Teufel hat die WebSite designt, davon kriegt man ja Augenkrebs.

Aber Dawn auf´n Notebook find ich cool, sollte mal jemand eine Art Tamagotchi von programmieren. An der FSK18 Version wäre ich auch interessiert.

Razor
2003-05-04, 00:10:34
Originally posted by aths
Warum ist es für ein Notebook im Jahre 2003 irgendwie wichtig, dass Dawn darauf läuft?
Warum ist es für ein Notebook im Jahre 2003 überhaupt wichtig, 3D zu unterstützen ?
???

Razor

Razor
2003-05-04, 00:11:48
Originally posted by Stefan Payne

Hm, wenn die Verlustleistung der FX5200 wirklich gering wäre, warum pappt man dann da Kühler drauf, die für 'ne GF3 TI200 langen ??
Redest Du jetzt von der Desktop-Karte oder von Mobile-Varianten ?
AFAIK ist in Notebooks noch keine gf3 zum Einsatz gekommen...
???

Razor

Love war viiiiiieeeelll schneller ;-)

Frank
2003-05-04, 00:27:59
Originally posted by Thowe
Ich find das Notebook traurig, wieso nehmen die nicht einfach einen mobile Celeron (ich kenn die Antwort) und wer zum Teufel hat die WebSite designt, davon kriegt man ja Augenkrebs.
Richtig. Zudem haben die irgendwie mit die wichtigsten Daten für das Notebook vergessen anzugeben.

StefanV
2003-05-04, 00:42:52
Originally posted by Razor

Redest Du jetzt von der Desktop-Karte oder von Mobile-Varianten ?
AFAIK ist in Notebooks noch keine gf3 zum Einsatz gekommen...
???

Razor


???

Sag mal, hast du mein Posting eigentlich verstanden ??

WO hab ich behauptet, daß es 'ne GF3 in 'nem NB gab ??

Versuchst du mir irgendwelche Dinge anzudichten, die ich weder geschrieben noch gemeint hab ??

Richthofen
2003-05-04, 01:06:51
"
Hm, wenn die Verlustleistung der FX5200 wirklich gering wäre, warum pappt man dann da Kühler drauf, die für 'ne GF3 TI200 langen ??
"
Weil sich das im Retailmarkt besser verkauft du verstehen?
Schöner hübscher Lüfter drauf und nette Platinenfarbe und schon sagt Kunde "Boa"
Das ist der einzige Sinn einer solchen Aktion.
Jede 5200 mit Standardtaktung ist passiv kühlbar und so ist es auch von Nvidia vorgesehen.
Das die Kartenhersteller trotzdem Lüfter draufschrauben die optisch manchmal recht nett ausschauen hat einen Marketing Grund oder aber weil ihr spezielles Modell Overclocker ansprechen soll oder aber eben nicht mit Standardtaktung ausgeliefert wird.
Eine 5200 hat 42 Mio Transistoren in 0.15.
Das ist beim heutigen 0.15 Prozess Kinderkram.
Sowas ist locker passiv kühlbar wie auch von Nvidia gezeigt und die 5200Go erst recht, wobei man in Notebooks wegen der schlechteren Luftzirkulation natürlich bisserl kniffliger sein muss.

Aber abbrennen oda tierisch heiss werden wird das Teil nicht.

Frank
2003-05-04, 01:17:02
Originally posted by Stefan Payne


???

Sag mal, hast du mein Posting eigentlich verstanden ??

WO hab ich behauptet, daß es 'ne GF3 in 'nem NB gab ??

Versuchst du mir irgendwelche Dinge anzudichten, die ich weder geschrieben noch gemeint hab ?? Und wozu hast du dann dein Posting geschrieben? Ich vergleich doch auch nicht die Wärmeabgabe von ATI Radeon 9000 und M9.

Razor
2003-05-04, 01:41:44
Originally posted by Frank
Und wozu hast du dann dein Posting geschrieben? Ich vergleich doch auch nicht die Wärmeabgabe von ATI Radeon 9000 und M9.
Danke.

Quasar
2003-05-04, 02:03:17
Originally posted by aths
Warum ist es für ein Notebook im Jahre 2003 irgendwie wichtig, dass Dawn darauf läuft?

Ganz einfach lieber aths, weil ich an anderer Stelle schonmal darauf angesprochen wurde, wie die Dawn-Demo auf der FX5200 läuft. Wie du sicher bemerkt hast, habe ich diesen Kommentar u.a. auch deswegen ins post scriptum gesetzt.

Quasar
2003-05-04, 02:07:02
Originally posted by Stefan Payne


Hm, wenn die Verlustleistung der FX5200 wirklich gering wäre, warum pappt man dann da Kühler drauf, die für 'ne GF3 TI200 langen ??

Wieso wirfst du auf einmal Desktop-Chips in die Diskussion? Willst du nur wieder das Topic shreddern oder ist dir der Unterschied nicht bekannt?

aths
2003-05-04, 02:24:29
Originally posted by Quasar
Ganz einfach lieber aths, weil ich an anderer Stelle schonmal darauf angesprochen wurde, wie die Dawn-Demo auf der FX5200 läuft. Wie du sicher bemerkt hast, habe ich diesen Kommentar u.a. auch deswegen ins post scriptum gesetzt. Lieber Quasar,

mit dieser Antwort kann ich irgendwie nicht so recht was anfangen.

Dein aths.

Quasar
2003-05-04, 02:27:06
Originally posted by aths
Lieber Quasar,

mit dieser Antwort kann ich irgendwie nicht so recht was anfangen.

Dein aths.

Verehrtester aths,

Mit dieser Antwort wollte ich nur zu verstehen geben, dass die Dawn-Demo auf einer FX5200 (und sicherlich auch auf der "go"-Version) läuft, da mich in einem anderen Thread jemand fragte, wie denn Dawn auf der FX5200 liefe.

Einer ähnlichen Fragestellung wollte ich nur vorbeugen.

Ergebenst,
Quasar

aths
2003-05-04, 02:30:10
Originally posted by Razor
Warum ist es für ein Notebook im Jahre 2003 überhaupt wichtig, 3D zu unterstützen ?
???Vielleicht, um das eine oder andere ältere Spielchen zu spielen, welches auf Hardwarebeschleunigung angewiesen ist?

Razor
2003-05-04, 02:32:01
Originally posted by aths
Vielleicht, um das eine oder andere ältere Spielchen zu spielen, welches auf Hardwarebeschleunigung angewiesen ist?
Und warum dann das Ganze auf "ältere Spielchen" beschränken ?
???

Razor

aths
2003-05-04, 02:41:49
Originally posted by Quasar
Verehrtester aths,

Mit dieser Antwort wollte ich nur zu verstehen geben, dass die Dawn-Demo auf einer FX5200 (und sicherlich auch auf der "go"-Version) läuft, da mich in einem anderen Thread jemand fragte, wie denn Dawn auf der FX5200 liefe.

Einer ähnlichen Fragestellung wollte ich nur vorbeugen.

Ergebenst,
Quasar Eure durchlauchtigste FXheit,

wolltet Ihr damit zum Ausdruck bringen, dass Dawn so ziemlich das letzte ist, worauf ein Notebook-Käufer achten sollte? Dann kam das im Original nicht so richtig rüber.

Hochachtungsvoll verharrend,

aths

aths
2003-05-04, 02:53:02
Originally posted by Razor
Und warum dann das Ganze auf "ältere Spielchen" beschränken ?
???Vielleicht, weil Grakas mit aktueller Deskop-Leistung für ein Notebook einfach zuviel Strom verbrauchen?

Razor
2003-05-04, 02:53:29
Originally posted by aths

wolltet Ihr damit zum Ausdruck bringen, dass Dawn so ziemlich das letzte ist, worauf ein Notebook-Käufer achten sollte? Dann kam das im Original nicht so richtig rüber.
I.d.R. achtet ein Notebook-Käufer überhaupt nicht auf den Grafikkern !
Und wenn doch, dann wird er schon seine Gründe haben... dann macht auch ein DX9-Kern u.U. Sinn.

Bis denne

Razor

Razor
2003-05-04, 02:55:04
Originally posted by aths
Vielleicht, weil Grakas mit aktueller Deskop-Leistung für ein Notebook einfach zuviel Strom verbrauchen?
Ist dem so ?
Wie hoch ist denn die diesbezügliche Anforderung eines M9, einer gf4go oder einer gf5x00go ?
Oder vermutest Du das jetzt nur ?
???

Hmmm...

Razor

StefanV
2003-05-04, 02:56:30
Originally posted by Razor

I.d.R. achtet ein Notebook-Käufer überhaupt nicht auf den Grafikkern !
Und wenn doch, dann wird er schon seine Gründe haben... dann macht auch ein DX9-Kern u.U. Sinn.

Bis denne

Razor

1. dann wird man sicher auch auf die Leistung des Chips achten...
Und da schauts schlecht für NV aus...

2. wozu braucht man DX9, wenn man mehr Leistung bei einem anderen Chip bekommt ??

StefanV
2003-05-04, 02:57:49
Originally posted by Razor

Ist dem so ?
Wie hoch ist denn die diesbezügliche Anforderung eines M9, einer gf4go oder einer gf5x00go ?
Oder vermutest Du das jetzt nur ?
???

Hmmm...

Razor

1. M9 dürfte wohl geringer als bei GF4 GO sein (BTW: welche GF4 GO ?? die GF4 MX oder die gecancelte GF4 TI Go ??)

2. der M10 soll auch noch unter dem Niveau des M9 sein!!

Razor
2003-05-04, 02:58:51
Originally posted by Stefan Payne

1. dann wird man sicher auch auf die Leistung des Chips achten...
Und da schauts schlecht für NV aus...
Nein, tut man nicht... (i.d.R.)
Wenn Du das tust, dann machst Du eine Ausnahme.
Originally posted by Stefan Payne

2. wozu braucht man DX9, wenn man mehr Leistung bei einem anderen Chip bekommt ??
???

Und wenn es bei der 3D-Funktionalität gar nicht primär um leistung geht ?
Wollte nur aufzeigen, dass es durchaus Sinn machen kann, einen DX9-Chip 'onBoard' zu haben...

Bis denne

Razor

Razor
2003-05-04, 02:59:39
Originally posted by Stefan Payne

1. M9 dürfte wohl geringer als bei GF4 GO sein (BTW: welche GF4 GO ?? die GF4 MX oder die gecancelte GF4 TI Go ??)

2. der M10 soll auch noch unter dem Niveau des M9 sein!!
Dann mal her mit den Daten und bitte jetzt nicht wieder diese halbseidenen Annahmen.
Bitte !!!

Razor

StefanV
2003-05-04, 03:01:43
Originally posted by Razor

Nein, tut man nicht... (i.d.R.)
Wenn Du das tust, dann machst Du eine Ausnahme.

???

Und wenn es bei der 3D-Funktionalität gar nicht primär um leistung geht ?
Wollte nur aufzeigen, dass es durchaus Sinn machen kann, einen DX9-Chip 'onBoard' zu haben...

Bis denne

Razor

1. schon klar, nur warum sollte man dann eine FX GO oder einen M9 nehmen, wenn man die 3D Leistung nicht braucht ??
Also irgendwie widersprichst du dir selbst!!

Entweder ich brauch die 3D Leistung oder eben nicht, im letzteren Fall nehme ich mir ein Notebook mit Radeon IGP oder Intel einen Integrated (Extreme Graphics)...

2. was soll ich mit Funktionen, wenn die Leistung fehlt ??
Demos kann ich mir auch auf dem Desktop anschauen und zum spielen brauch ich kein DX9.
Für 'nen Bildschirmschoner brauch ich DX9 nich weniger.

Der Sinn eines DX9 'Beschleunigers' verschließt sich mir...

Razor
2003-05-04, 03:08:43
Originally posted by Stefan Payne

1. schon klar, nur warum sollte man dann eine FX GO oder einen M9 nehmen, wenn man die 3D Leistung nicht braucht ??
Also irgendwie widersprichst du dir selbst!!

Entweder ich brauch die 3D Leistung oder eben nicht, im letzteren Fall nehme ich mir ein Notebook mit Radeon IGP oder Intel einen Integrated (Extreme Graphics)...
Wus ?
Intels Lösung soll mehr (Grund-)Leistung bringen, als eine FX5200go ?
Und dass eine Radeon IGP schneller ist, als eine FX5200go, hast Du auch noch nicht gezeigt.

Du begibst Dich hier IMHO auf sehr glattes Eis.

Zumal Du vorhin noch mit nicht existierender Stromaufnahme (Informationen darüber ;-) argumentiertest, Dir aber offenbar dazu nichts mehr einfällt...
Originally posted by Stefan Payne

2. was soll ich mit Funktionen, wenn die Leistung fehlt ??
Demos kann ich mir auch auf dem Desktop anschauen und zum spielen brauch ich kein DX9.
Für 'nen Bildschirmschoner brauch ich DX9 nich weniger.
Ach ja ?
Da verweise ich auf diverse ATI-Bildschirmschoner...
(wer diese oder andere dieser Art allerdings im Mobil-Betrieb benutzt muss 'nen Hackenschuss haben ;-)

Und stell Dir vor, es soll sogar Leute geben, die haben gar keinen Desktop.
Ich wollte nur aufzeigen, dass es durchaus Sinn machen könnte, aber das scheinst Du wie so oft wieder überlesen zu haben. Da fallen mir übrigens gerade noch die Entwickler ein. Meinst Du nicht, dass ein solcher Chip für diese Zielgruppe Sinn machen würde ?

Übrigens sicher nicht für die von Medion anvisierte Zielgruppe...
(die sollen erst mal lernen, vernünftige Notebooks zu bauen, gericom hats ja auch permanent versemmelt)
;-)
Originally posted by Stefan Payne

Der Sinn eines DX9 'Beschleunigers' verschließt sich mir...
War klar, kommt ja auch von nVidia, oder ?
:D

Razor

Frank
2003-05-04, 03:33:08
Es macht keinen Sinn wieder und wieder mit der selben Uneinsicht auf beider Seiten über 3DFeature/Leistungsverhältnisse zu reden.

Und @aths & Quasar: bitte bitte macht weiter damit. :liplick:

aths
2003-05-04, 04:01:44
Originally posted by Razor
Ist dem so ?
Wie hoch ist denn die diesbezügliche Anforderung eines M9, einer gf4go oder einer gf5x00go ?
Oder vermutest Du das jetzt nur ?
??? Vielleicht stellen mich alle genannten Lösungen nicht zufrieden, sondern ich hätte schon gerne volle Radeon 9600-Leistung?

mike49
2003-05-04, 08:27:47
Originally posted by Stefan Payne

... oder die gecancelte GF4 TI Go ??)



Komisch, daß man diese 'gecancelte' Karte z.B. in Dell-Notebooks bekommt...

Razor
2003-05-04, 10:29:20
Originally posted by aths
Vielleicht stellen mich alle genannten Lösungen nicht zufrieden, sondern ich hätte schon gerne volle Radeon 9600-Leistung?
Könntest Du mir bitte erklären, wie ich das verstehen soll ?

Wenn Du Desktop-Leistung ala 9600 im Notebook haben willst (vermutlich mit einem Minimum an Stromaufnahme ;-), dann wirst Du wohl noch ein bissel warten müssen. ATI ist zuletzt daran gescheitert, bzw. hat den Anspruch aufgegeben, einen R300-Core im nächsten Notebook-Chipsatz zu implementieren. Allerdings ist es nun ein 8500/9200-Core, der bei sehr geringer Aufnahme noch sehr ordentliche Leistung bringen soll, dank Dual-Channel Technologie und vor allem ohne Konkurrenz im Intel-Bereich...
;-)

Bis denne

Razr

Razor
2003-05-04, 10:43:35
Originally posted by mike49

Komisch, daß man diese 'gecancelte' Karte z.B. in Dell-Notebooks bekommt...
Tja Komisch... wollen wir och mal bei DELL verbei schauen...

-

"Inspiron 8500 Professional"
Pentium 4 M Ultimative Multimedia-Leistung

Grundausstattung Mobile Intel® Pentium® 4 Prozessoren-M mit 400 MHz Bustakt
2 Steckplätze für bis zu 2048 MB DDR-SDRAM, 266 MHz
Laufwerksauswahl: CD, DVD, CDRW oder DVD/CDRW Combo
High-Speed Anschlüsse: 2x USB 2.0, Firewire (1394)
weitere Anschlüsse: Seriell, Paralell, VGA, Mikrofon, Kopfhörer, PC-Card
Modem & 10/100 Netzwerkanschluss, DSL bereit
Wireless LAN Antennen integriert,
Mini-PCI Steckplatz für optional integrierte Wireless LAN Karte
Lithium-Ionen Hochleistungs-Akku mit 72 Wh
attraktives Gehäuse in silber/blau mit austauschbarer Display-Rückseite, Gewicht ab 2,99kg
Abmessungen (BxHxT): 36 x 3,8 x 34 cm<Und was haben wir da in den Optionen ?> 32 MB ATi Mobility Radeon 9000 Grafik
64 MB nVidia GeForce4 4200 Go Grafik (+EUR 50,00)Bluetooth
Bitte die Bluetooth Karte nur in Verbindung mit der 64 MB nVidia Geforce4 4200 Go auswählen

-

Oh, die TOP-Ausstattung sieht also eine nVidia 4200go vor ?
Und mit Bluetooth-Modul, muss es sogar eine nVidia sein.
Merchwürdich...

Gilt übrigens auch für alle anderen Notebooks von DELL: Maximale Performance = nVidia !
(was im übrigen auch bei Toshiba so ist ;-)

Bis denne

Razor

LovesuckZ
2003-05-04, 11:01:21
Originally posted by Stefan Payne
1. M9 dürfte wohl geringer als bei GF4 GO sein (BTW: welche GF4 GO ?? die GF4 MX oder die gecancelte GF4 TI Go ??)


Wenn sich dies auf die Stromaufnahme bezieht: Der M9 hat nur bei der DVD-Wiedergabe einen Vorteil. Bei allen anderen Anwendungen (2D/3D) ist ein vergleichbares Notebook mit M9 nur minimal besser.

http://www.de.tomshardware.com/mobile/20020924/mobile_radeon_9000-11.html

LovesuckZ
2003-05-04, 11:04:14
Originally posted by Stefan Payne
2. wozu braucht man DX9, wenn man mehr Leistung bei einem anderen Chip bekommt ??

Von der Leistung ist bis auf ein paar seltsame Benches noch nichts bekannt. Und warum sollte man statt die 5200 eine Karte mit einer aelteren technologischen Untersteutzung nehmen, wenn die Leistung auf dem selben Niveau liege?

LovesuckZ
2003-05-04, 11:06:25
Originally posted by Stefan Payne
2. was soll ich mit Funktionen, wenn die Leistung fehlt ??


Dann frage ich mich, warum man bei Notebooks überhaupt 3D Funktionen benoetigt. Denn das Spiel Technologie = Speed wird wohl immer so weiter gehen: M9 -> DX8 oder 5200go -> DX9.

Quasar
2003-05-04, 11:13:41
Originally posted by aths
Eure durchlauchtigste FXheit,

wolltet Ihr damit zum Ausdruck bringen, dass Dawn so ziemlich das letzte ist, worauf ein Notebook-Käufer achten sollte? Dann kam das im Original nicht so richtig rüber.

Hochachtungsvoll verharrend,

aths

Euere Allergöttlichste Magnifizienz,

In meiner Eigenschaft als kriecherisches Gewürm zu Euren Füssen ist es für mein Anliegen die allergrößte Ehre, von Eurer gnädigen Aufmerksamkeit in höhere Sphären erhoben zu werden.
Ich wollte mit der Erwähnung der Dawn-Demo nichts mit meinem unwürdigen post-scriptum-Zusatz sagen, ausser, dass dieses meiner nichtsnutzigen Aufmerksamkeit ins schmutzige Auge gesprungene Detail keiner weiteren Erwähnung Bedarf.

Dass Eure gnädige Aufmerksamkeit das Licht der Sonne auf mein bescheidenes Anliegen warf niemals vergessend,
Quasar

Quasar
2003-05-04, 11:16:22
Originally posted by LovesuckZ


Wenn sich dies auf die Stromaufnahme bezieht: Der M9 hat nur bei der DVD-Wiedergabe einen Vorteil. Bei allen anderen Anwendungen (2D/3D) ist ein vergleichbares Notebook mit M9 nur minimal besser.

http://www.de.tomshardware.com/mobile/20020924/mobile_radeon_9000-11.html

von Mr-Tom:
Da bei der Mobility Radeon 9000 bisher ATis Stromsparfunktion 'PowerPlay' noch nicht aktiviert ist, wollten wir fair sein und betrieben alle anderen Chips auch mit ihren normalen Einstellungen für 'volle Leistung'.
*SCNR*
Und was sagt uns das jetzt? Im Worst-Case für nV, der gleichzeitig die Normalsituation bei ATi momentan darstellt, gibt es leichte Vorteile für ATi.

Frank
2003-05-04, 11:20:37
Weniger ist hier mehr. Das dürfte jeden klar sein beim Stromverbrauch. Und ich denke es geht evtl einigen nun darum bei weniger mehr Leistung zu haben oder mehr Features. Letztendlich ist doch genau das jeden selbst überlassen. Und jeder hat da seine eigenen Präferenzen.

Quasar
2003-05-04, 11:26:20
Originally posted by Frank
Aber zum Thema:
Weniger ist hier mehr. Das dürfte jeden klar sein beim Stromverbrauch. Und ich denke es geht evtl einigen nun darum bei weniger mehr Leistung zu haben oder mehr Features. Letztendlich ist doch genau das jeden selbst überlassen. Und jeder hat da seine eigenen Präferenzen.

Eben.
Vielleicht sollte jeder, der sich über mobile GPUs mitunterhält mal kurz beschreiben, was er denn von einem Notebook erwartet.

a) Arbeitsrechner ohne 3D, mit Zweitakku um 8 Stunden Laufzeit

b) Billig, Geiz ist Geil

c) Desktopersatz, der eh meist an der Steckdose betrieben wird.


Für mich ganz klar c). Wenn ich schon mehrere tausend DM (ja, ich mache mir den Wert gewisser Dinge durchaus noch in der alten Währung bewusst, da ich nicht vor der falschen Assoziation niedriger Zahlen gefeit bin) für einen weiteren Computer ausgebe, soll er gefälligst auch alles können, was ich von einem Computer erwarte. Für zuhause reicht dann ein alter Celeron als Fileserver/MP-Spieler etc. Für die wirklich Mobilität erfordernden Dinge tut's ein PDA.

edit:
Numerus ("eine PDA" oder gibt's auch weibliche Assistenten?)

Thowe
2003-05-04, 11:43:04
Tjo, ein Notebook muss für mich

1. Ultratransportable sein
2. Nix verbrauchen
3. kein Lärm und keine Abwärme verursachen

-> Das ist ein Notebook.

Für einen Desktop-PC wären andere Lösungen eigentlich viel angebrachter als diese in typische Notebookgehäuse zu packen. Ein Portable in kompakter Form wäre wohl für viele sinniger und ein besserer Investitionsschutz.


Aber ansonsten ist die Unterhaltung zwischen ihrer durchlauchtigste FXheit und der Allergöttlichste Magnifizienz das Beste am Thread.

Ansonsten zu SP, Razor und Co: Ich find es doof wie der eine über den anderen hier Herzog. Geht das nicht besser?

StefanV
2003-05-04, 13:46:18
Originally posted by Quasar


Eben.
Vielleicht sollte jeder, der sich über mobile GPUs mitunterhält mal kurz beschreiben, was er denn von einem Notebook erwartet.

a) Arbeitsrechner ohne 3D, mit Zweitakku um 8 Stunden Laufzeit

b) Billig, Geiz ist Geil

c) Desktopersatz, der eh meist an der Steckdose betrieben wird.


Genau das sind auch meine Ansichten...

zu a)

3D Leistung ist irrelevant, in diesem Segment wird oft auf Integraded Chipsets zurückgegriffen oder ältere ATI Chips, z.B. den Radeon Mobility auf Basis der RV100 aka Radeon VE/100, aber nicht nur ATI und Intel Integraded Chips, auch z.B. Trident ist vertreten, 3D Leistung ist völlig irrelevant...

b) in diesem Marktsegment findet man ebenfalls hauptsächlich Integrated Chipsets, sei es nun die Radeon IGP, diverse SIS Chips oder VIA Integrated Chips, Intel findet man aufgrund des Preises eher weniger und wenn dann kombiniert mit einem älteren 3D Chip, allerhöchstens Radeon 7500 Mobility...

c) Leistung ist alles, man bemüht sich das schnellste zu bekommen, was es gibt...
Dummerweise ist das momentan der M9, bald die Mobility 9600...

Für die FX5200 sehe ich nicht wirklich einen Sinn, ich hätte mir gewünscht, wenn NV am FX5200 die Float Point Genauigkeit gestrichen hätte und sumit de facto einen max PS1.4 Chip gebracht hätte...

Wenn man von den Kühlern der Desktop Chips auf die Verlustleistung der Mibilvarianten schließt, dan hat auch hier der M9 einen Vorteil, a) weniger Transistoren, b) kleinerer Kühlkörper...

Sollte für ATI nicht schwer sein, bei einem Chip von 30-35Mio Transistoren weniger Abwärme zu erzeugen als NV beim NV34...

StefanV
2003-05-04, 13:52:02
Originally posted by LovesuckZ


Wenn sich dies auf die Stromaufnahme bezieht: Der M9 hat nur bei der DVD-Wiedergabe einen Vorteil. Bei allen anderen Anwendungen (2D/3D) ist ein vergleichbares Notebook mit M9 nur minimal besser.

http://www.de.tomshardware.com/mobile/20020924/mobile_radeon_9000-11.html

*autsch*

Damit hast du ein Argument *für* den M9 und *gegen* die Geforce 4 MX GO geliefert...

In den sehr frühen Tests, die Onkel Tom gemacht hat, 'gewinnt' meistens der M9, mal mehr, mal weniger...

Unregistered
2003-05-04, 13:59:04
Problem für ATI sie bieten im Low COst Segment kein DX9. Das gilt für Notebooks wie für Desktops.
Da ist die 5200 und auch Go schon sehr clever

Razor
2003-05-04, 13:59:04
Originally posted by Stefan Payne

*autsch*

Damit hast du ein Argument *für* den M9 und *gegen* die Geforce 4 MX GO geliefert...

In den sehr frühen Tests, die Onkel Tom gemacht hat, 'gewinnt' meistens der M9, mal mehr, mal weniger...
Hattest Du nicht was von einer 'nicht-existierenden' gf4ti 4200go gefaselt ?
Wie siehts denn da mit der Performance aus ?
???

Razor

Unregistered
2003-05-04, 13:59:38
der von ATI hoffnungslos überlegen.
Die komplette 9000er Reihe wird von der GF4Ti GO gefressen zum Frühstück.

StefanV
2003-05-04, 14:09:40
Originally posted by Razor

Wus ?
Intels Lösung soll mehr (Grund-)Leistung bringen, als eine FX5200go ?
Und dass eine Radeon IGP schneller ist, als eine FX5200go, hast Du auch noch nicht gezeigt.

Du begibst Dich hier IMHO auf sehr glattes Eis.

Zumal Du vorhin noch mit nicht existierender Stromaufnahme (Informationen darüber ;-) argumentiertest, Dir aber offenbar dazu nichts mehr einfällt...


Och, Razorle, willst du meinen Standpunkt wirklich nicht verstehen ??
Deinem Posting entnehme ich, daß du mein voriges Posting nur überflogen hast...

Das, was du hineininterpretiert hast, das hab ich weder gesagt noch gemeint...

Also nochmal:

Entweder ich brauche 3D Leistung, dann nehme ich ein NB mit einem möglichst aktuellen Chip (und warte auf den M10) oder ich brauch die 3D Leistung nicht, dann nehme ich ein NB mit Integraded Chipset oder älterem ATI Chip wie dem Radeon Mobility auf Radeon VE Basis.

Es wäre schön, wenn du dir mehr Mühe mit meinen Postings machen würdest und nicht gleich mit Anschuldigungen kommst, denn das hilft niemandem...


Originally posted by Razor
Ach ja ?
Da verweise ich auf diverse ATI-Bildschirmschoner...
(wer diese oder andere dieser Art allerdings im Mobil-Betrieb benutzt muss 'nen Hackenschuss haben ;-)

Und stell Dir vor, es soll sogar Leute geben, die haben gar keinen Desktop.
Ich wollte nur aufzeigen, dass es durchaus Sinn machen könnte, aber das scheinst Du wie so oft wieder überlesen zu haben. Da fallen mir übrigens gerade noch die Entwickler ein. Meinst Du nicht, dass ein solcher Chip für diese Zielgruppe Sinn machen würde ?

Übrigens sicher nicht für die von Medion anvisierte Zielgruppe...
(die sollen erst mal lernen, vernünftige Notebooks zu bauen, gericom hats ja auch permanent versemmelt)
;-)
Jemand, der sich über TFTs erkundigt hat, der wird wohl nur einen Bildschirmschoner nehmen, den es schon in Windows 3.1 gab:
Blank Screen, eventuel Marque mit schwarzem Hintergrund und schwarzer Schrift...

Außerdem sind die ATI Bilschirmschoner eher Techdemos, kein 'Normaler' Mensch nutzt die dauerhaft, zum anschauen sind die ja ganz gut, aber sonst ??

Zu den Leuten, die keinen Desktop haben:
Wozu werden sie das Notebook deiner Meinung nach benutzen ??
Briefe Schreiben, Office usw oder zum gamen ??


Ich denke nicht, daß diese Personengruppe im Sinn hat mit dem Rechner zu spielen und wenn dann eher irgendwelche Freeware Spiele bzw die mit Windows mitgelieferten...


Originally posted by Razor

War klar, kommt ja auch von nVidia, oder ?
:D

Razor

Nein, such mal im Forum, da siehst du meinen Standpunkt zu 'Low Cost DX9 Karten'!!

Die Floatpoint Shader sind sowohl Transistor als auch Leistungsfresser, wenn man keine Schaltkreise dafür vorsieht die entsprechenden Elemente zu deaktivieren...

Und wenn schon einen DX9 Chip, dann bitte was ordentliches!!

Ein NV Chip auf Basis des NV25 in 0,13µ wäre die bessere Alternative zum FX5200 gewesen, eventuell am besten um PS1.4 erweitert und das ganze dann auch als Desktop Low Cost Chip...

Razor
2003-05-04, 14:31:03
Originally posted by Stefan Payne

Es wäre schön, wenn du dir mehr Mühe mit meinen Postings machen würdest und nicht gleich mit Anschuldigungen kommst, denn das hilft niemandem...
Schau Dir diesen Thread bitte nochmal genau an (auch die Reihenfolge der Posts) und dann können wir gerne anfangen zu argumentieren. So sehe ich absolut keinen Sinn darin, Deine Posts irgendwie anders wahr zu nehmen, als ich es derzeit tue...

Nur ein Beispiel: Du erzählst was von höherer Stromaufnahme von nVidia-Chips, bleibst aber einen Beleg dafür schuldig. Auch fragte ich Dich danach, nur antwortest Du darauf nicht, sondern kommst mit neuen haarstäubenden Dingen.

Bleib bitte mal bei einem Thema und wechsle erst, wenn das vorherige geklärt ist. Sonst wirst Du Dich weiterhin wundern müssen, warum das mit dem Verständnis Deiner Postings nicht so weit her ist.

Bis denne

Razor

P.S.: Wenn Du einen Beleg für Deine erste Behauptung (Stomaufnahme) hast, oder es zurück nimmst, dann werde ich Dir auf Deine restlichen 'Argumente' antworten...

Quasar
2003-05-04, 14:32:35
Deinen Standpunkt in allen Ehren, Stefan Payne, aber meinst du nicht, dass die R9600 (egal ob Mobility oder nicht) genauso, wie alle aktuell erhältlichen "DX9"-Karten für richtiges DX9 viel zu langsam sind?

Schau dir mal an, welche Karten schon mit UT2003 in vernünftigen Settings (1024x32 max. Details, evtl. FSAA/AF in niedrigen Stufen) Probleme haben. Und das ist ein DX7-Spiel, in dem DX8 nur zu Performance-Gewinnen eingesetzt wird.

Selbst eine vollgetaktete R9800p ist für "echtes" DX9 zu langsam, insofern sind selbst dort (auch wenn es im Desktop-Bereich eher verschmerzbar ist) die für Floating-Point Rendering nötigen Transistoren verschwendet.

Dies gilt dann natürlich ebenso für alle nicht leistungsstärkeren Mobil-GPUs, oder?

Quasar
2003-05-04, 14:36:18
Originally posted by Stefan Payne


*autsch*

Damit hast du ein Argument *für* den M9 und *gegen* die Geforce 4 MX GO geliefert...

In den sehr frühen Tests, die Onkel Tom gemacht hat, 'gewinnt' meistens der M9, mal mehr, mal weniger...

Für den M9, bei dem PowerMizer nicht funktioniert und wo deswegen alle Chips mit abgeschaltetem Powermanagement getestet werden mussten?

Ich denke nicht.

StefanV
2003-05-04, 14:39:06
Originally posted by Quasar
Für den M9, bei dem PowerMizer nicht funktioniert und wo deswegen alle Chips mit abgeschaltetem Powermanagement getestet werden mussten?

Ich denke nicht.

1. der TEst bei THG ist uralt, IIRC waren das sogar noch Samples, mittlerweile könnten die Probleme behoben sein...

2. ich denke schon, wenn man die Probleme mit Powermizer behoben hat...

Quasar
2003-05-04, 14:40:40
Originally posted by Thowe
Tjo, ein Notebook muss für mich

1. Ultratransportable sein
2. Nix verbrauchen
3. kein Lärm und keine Abwärme verursachen

-> Das ist ein Notebook.


Dann kommt evtl. sowas für dich in Frage:
http://www.pbsshopline.de/PBS_ShopBilder/detail/002715100021.jpg

Quasar
2003-05-04, 14:42:59
Originally posted by Stefan Payne


1. der TEst bei THG ist uralt, IIRC waren das sogar noch Samples, mittlerweile könnten die Probleme behoben sein...

2. ich denke schon, wenn man die Probleme mit Powermizer behoben hat...

Uralt, meinetwegen.
Dann nimm' aber bitte nicht nur die Bruchstücke an Information daraus als gegeben, die dir gerade passen.

IIRC ist die Skalierungsspanne bei den mobilen nV-GPUs deutlich höher, als die von ATis Mobilchips.
Mit aktiviertem Powermanagement könnte das Pendel durchaus in die andere Richtung ausschlagen.

Frank
2003-05-04, 14:43:40
Dazu zum Beispiel meine Meinung
Originally posted by Stefan Payne
Genau das sind auch meine Ansichten...

zu a)
3D Leistung ist irrelevant, in diesem Segment wird oft auf Integraded Chipsets zurückgegriffen oder ältere ATI Chips, z.B. den Radeon Mobility auf Basis der RV100 aka Radeon VE/100, aber nicht nur ATI und Intel Integraded Chips, auch z.B. Trident ist vertreten, 3D Leistung ist völlig irrelevant... 3D Leistung ist irrelevant. Wenn ich schon einen 3D Chip dann drin habe, bitte vollgepackt mit netten Features. Ansonsten kann ich auch gleich bei Neomagic 256XL+ oder Lynx EM4+ bleiben. Stromverbrauch wichtigsten Kritierium. (Eine low low low FX5200go wär quasi optimal. Und wenn der nur 8MB embedded hat und mit 100MHz max läuft - hauptsache Saft opti) Noch etwas zum Verbrauch. Der Neomagic Magicmedia 256XL+ braucht unter Maximallast weniger als 1 Watt. Die Ausstattung ist hinreichend gut - quasi meine Messlatte für den Rest. :eyes: Originally posted by Stefan Payne
b) in diesem Marktsegment findet man ebenfalls hauptsächlich Integrated Chipsets, sei es nun die Radeon IGP, diverse SIS Chips oder VIA Integrated Chips, Intel findet man aufgrund des Preises eher weniger und wenn dann kombiniert mit einem älteren 3D Chip, allerhöchstens Radeon 7500 Mobility...
Das sind für mich eh keine Notebooks in meinem Sinne - also kein Kommentar.
Originally posted by Stefan Payne
c) Leistung ist alles, man bemüht sich das schnellste zu bekommen, was es gibt...
Dummerweise ist das momentan der M9, bald die Mobility 9600...

Optimal sehe ich da FireGL7800 und GL9000. Wennschon Dennschon.

Originally posted by Stefan Payne
Wenn man von den Kühlern der Desktop Chips auf die Verlustleistung der Mibilvarianten schließt, dan hat auch hier der M9 einen Vorteil, a) weniger Transistoren, b) kleinerer Kühlkörper...
Weswegen du meiner Meinung nach trotzdem den M9 im Notebook aktiv kühlen musst. Aber wo ist das Problem? Wenn designmäßig hier ordentlich gearbeitet wurde, erledigt das for free eh der CPU Kühler.

Sowas gibts schon seit vielen Jahren. Hab da auch schon zum Beispiel einen Trident 9397DVD unter so einen erweiterten CPU Kühlkörper gesehen. Mal ganz ab davon das die Kühlplatten auch sich noch weiter verteielt haben - Lüfterlauf = quasi nie. Firma verrat ich aber nich.
Originally posted by Quasar


Dann kommt evtl. sowas für dich in Frage:
http://www.pbsshopline.de/PBS_ShopBilder/detail/002715100021.jpg

Ich hab in etwa die selben Ansprüche. Und ja es gibt dafür Notebooks. Keine Notizblöcke. Obwohl - die auch: http://www.digi.no/d2.nsf/pic/fot20010112141224eros76833600/$file/transnote.jpg

StefanV
2003-05-04, 14:49:16
Originally posted by Quasar
Deinen Standpunkt in allen Ehren, Stefan Payne, aber meinst du nicht, dass die R9600 (egal ob Mobility oder nicht) genauso, wie alle aktuell erhältlichen "DX9"-Karten für richtiges DX9 viel zu langsam sind?

Schau dir mal an, welche Karten schon mit UT2003 in vernünftigen Settings (1024x32 max. Details, evtl. FSAA/AF in niedrigen Stufen) Probleme haben. Und das ist ein DX7-Spiel, in dem DX8 nur zu Performance-Gewinnen eingesetzt wird.

Selbst eine vollgetaktete R9800p ist für "echtes" DX9 zu langsam, insofern sind selbst dort (auch wenn es im Desktop-Bereich eher verschmerzbar ist) die für Floating-Point Rendering nötigen Transistoren verschwendet.

Dies gilt dann natürlich ebenso für alle nicht leistungsstärkeren Mobil-GPUs, oder?

1. wie schon gesagt, DX9 interessiert mich nicht wirklich, Meiner Meinung nach kommen die Float Point Formate als zwang für DX9 zu früh, auch scheinen die Float Point Formate nur halb gar zu sein, ich hätte mir gewünscht, wenn man die später gebracht hätte, dafür aber komplett mit (brauchbarer) Texturfilterung und entsprechendem RAMDAC...
Allerdings ist der M10 der schnellste NB Chip, DX9 hin oder her...

2. schon klar, damit kommen auch erst neuere (DX8) Karten zurecht, deswegen sagte ich auch, daß NV sich DX9 beim NV34 (teilweise) hätte schenken sollen und einen DX8.1 Chip mit PS1.4 hätte bringen sollen, der dafür ein besseres Konzept/Design als der NV34 hätte und auch entsprechend schneller wäre...

3. richtig, das ist allerdings auch das High End Modell, damit wird geprotzt, was das Zeugs hält, da sind FP Formate eine andere Geschichte...
Die FP Formate sind noch nicht ganz gar, die hätte man erst bringen sollen, wenn das Konzept richtig durchdacht ist und die Probleme mit AA und Filterung ausgeräumt sind...
Die Transistoren, die für die FP Formate draufgegangen sind, hätte man besser für andere, sinnvollere Dinge nutzen sollen, was aber dank M$ nicht mehr möglich ist...

4. natürlich, deswegen sagte ich ja auch, daß DX9 nicht wirklich wichtig ist...
Ich bin auch nicht wirklich von allen DX9 Features, die sich in der NV30 und R300 finden lassen begeistert...

Quasar
2003-05-04, 15:04:02
Originally posted by Frank
Ich hab in etwa die selben Ansprüche. Und ja es gibt dafür Notebooks. Keine Notizblöcke. Obwohl - die auch: http://www.digi.no/d2.nsf/pic/fot20010112141224eros76833600/$file/transnote.jpg
:lol:
Untauglich, da ich Linkshänder bin. ;)

Und davon abgesehen, produziert jedes elektronische Notebook nicht "null Abwärme" und verbraucht mehr als "nix verbrauchen". ;)

Quasar
2003-05-04, 15:13:41
Originally posted by Stefan Payne
Originally posted by Quasar
Deinen Standpunkt in allen Ehren, Stefan Payne, aber meinst du nicht, dass die R9600 (egal ob Mobility oder nicht) genauso, wie alle aktuell erhältlichen "DX9"-Karten für richtiges DX9 viel zu langsam sind?

Schau dir mal an, welche Karten schon mit UT2003 in vernünftigen Settings (1024x32 max. Details, evtl. FSAA/AF in niedrigen Stufen) Probleme haben. Und das ist ein DX7-Spiel, in dem DX8 nur zu Performance-Gewinnen eingesetzt wird.

Selbst eine vollgetaktete R9800p ist für "echtes" DX9 zu langsam, insofern sind selbst dort (auch wenn es im Desktop-Bereich eher verschmerzbar ist) die für Floating-Point Rendering nötigen Transistoren verschwendet.

Dies gilt dann natürlich ebenso für alle nicht leistungsstärkeren Mobil-GPUs, oder?

1. wie schon gesagt, DX9 interessiert mich nicht wirklich, Meiner Meinung nach kommen die Float Point Formate als zwang für DX9 zu früh, auch scheinen die Float Point Formate nur halb gar zu sein, ich hätte mir gewünscht, wenn man die später gebracht hätte, dafür aber komplett mit (brauchbarer) Texturfilterung und entsprechendem RAMDAC...
Allerdings ist der M10 der schnellste NB Chip, DX9 hin oder her...

2. schon klar, damit kommen auch erst neuere (DX8) Karten zurecht, deswegen sagte ich auch, daß NV sich DX9 beim NV34 (teilweise) hätte schenken sollen und einen DX8.1 Chip mit PS1.4 hätte bringen sollen, der dafür ein besseres Konzept/Design als der NV34 hätte und auch entsprechend schneller wäre...

3. richtig, das ist allerdings auch das High End Modell, damit wird geprotzt, was das Zeugs hält, da sind FP Formate eine andere Geschichte...
Die FP Formate sind noch nicht ganz gar, die hätte man erst bringen sollen, wenn das Konzept richtig durchdacht ist und die Probleme mit AA und Filterung ausgeräumt sind...
Die Transistoren, die für die FP Formate draufgegangen sind, hätte man besser für andere, sinnvollere Dinge nutzen sollen, was aber dank M$ nicht mehr möglich ist...

4. natürlich, deswegen sagte ich ja auch, daß DX9 nicht wirklich wichtig ist...
Ich bin auch nicht wirklich von allen DX9 Features, die sich in der NV30 und R300 finden lassen begeistert...


1.) Wenn dich DX9 nicht interessiert und du mir zustimmst, dass der M10 als von dir gekürter schnellster Notebook-Chip auch für DX9 zu langsam ist, wie kommt's, dass du dir hier das "[...]ich hätte mir gewünscht, wenn ATi am M10 die Float Point Genauigkeit gestrichen hätte und sumit de facto einen max PS1.4 Chip gebracht hätte..." verkneifst?

2.) Wenn das so wäre, was meinst du, von wem hier im Forum dann wieder das allfällige Geschrei á la Technologiebremse GF4MX gekommen wäre?
Darüberhinaus, wie kommt's, dass du dir hier das "[...]daß ATi sich DX9 beim RV350 (teilweise) hätte schenken sollen und einen DX8.1 Chip mit PS1.4 hätte bringen sollen, der dafür ein besseres Konzept/Design als der RV350 hätte und auch entsprechend schneller wäre...." verkneifst?

3.) Trotz des Geprotzes mit dem High-End Modell ist es IMO zu langsam für Spiele, die voll auf DX9 aufsetzen, analog dazu, wie UT2003 auf DX7 aufsetzt. Man hätte sich die Transistoren schenken können und aus dem R9800p einen DX8.1-Chip machen können, der in diesem Bereich sicher schneller gewesen wäre, als es da aktuelle R350-Design ist.

4.) Schön, daß du DX9 nicht wichtig findest. Außer für den Packungsaufdruck und zum Betrachten der Techdemos finde ich es auch noch nicht wichtig, aber eine Software wird ohne vorhandene Hardware-Basis kaum entwickelt. Das war bei den vorhergehenden Versionen von DX und entsprechenden Games schon so.
Was ich nicht verstehe, wieso du bei der einen Firma gnädig über das Vorhandensein von DX9 hinwegsiehst, und es bei der anderen sogar als Minuspunkt ankreiden möchtest. Kannst du mir das erklären?

Demirug
2003-05-04, 15:13:42
Stefan bleib beim Thema wenn du eine Generalabrechnung mit DX9 machen möchtest dann bitte in einem eigenen Thread.

EDIT: Das gilt auch für dich Quasar. ;)

jensemann
2003-05-04, 15:52:05
Leutz, nehmt euch doch mal ein paar Tage und lest euch die Diskussion hier nochmal durch. Ich find das ja schon langsam lächerlich, wie ihr übereinander herfallt, eure Argumente dreht und wendet, nur um den anderen eine reinzuwürgen. Drei Antworten später entkräftet hier jeder seine eigenen Argument. Gedreht, wie man es gerade braucht. In der Beziehung nehmen sich hier die wenigsten was.

Wie gesagt, lest das nochmal in Ruhe durch, anstatt gleich wieder an die Decke zu gehen.

AlfredENeumann
2003-05-04, 17:52:07
Originally posted by Unregistered
Problem für ATI sie bieten im Low COst Segment kein DX9. Das gilt für Notebooks wie für Desktops.
Da ist die 5200 und auch Go schon sehr clever


Dann erklär mir mal bitte was DX9 in dieser Preis, und vor allem Leistungsklasse bringen soll ?

AlfredENeumann
2003-05-04, 17:53:44
Originally posted by Unregistered
der von ATI hoffnungslos überlegen.
Die komplette 9000er Reihe wird von der GF4Ti GO gefressen zum Frühstück.

Na und? So viel schneller is er nu auch wieder nicht.

LovesuckZ
2003-05-04, 17:57:38
Originally posted by AlfredENeumann
Dann erklär mir mal bitte was DX9 in dieser Preis, und vor allem Leistungsklasse bringen soll ?

Schwach. Oder was bringt DX8 bei einer 9000? Oder anders: Was bringt DX9 bei einer heutzutage 500€ Karte?

AlfredENeumann
2003-05-04, 18:03:04
Originally posted by LovesuckZ


Schwach. Oder was bringt DX8 bei einer 9000? Oder anders: Was bringt DX9 bei einer heutzutage 500€ Karte?


Beantworte doch meine Frage. Du verteidigst doch so gerne auf Teufel komm raus den Möchtegern-Dx9(tm) FX5200.

LovesuckZ
2003-05-04, 18:19:57
Originally posted by AlfredENeumann
Beantworte doch meine Frage. Du verteidigst doch so gerne auf Teufel komm raus den Möchtegern-Dx9(tm) FX5200.

Vielleicht weil einige nicht ueber 100te € raushauen wollen, doch dafuer technologisch "in" sein moechten? Oder weil ich schneller DX9 Effekte sehen moechte. Oder nur, weil sich die Karte durch mehr Feature besser verkauft.
Nun bist du dran: Wozu brauch der RV250 DX8?

zeckensack
2003-05-04, 18:21:20
Originally posted by LovesuckZ
Schwach. Oder was bringt DX8 bei einer 9000?Schicke Quecksilberpfützen in Morrowind :)
Oder anders: Was bringt DX9 bei einer heutzutage 500€ Karte? Krasse Grafik (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=63770), btw auch auf einer 9500Pro noch durchaus angenehm flüssig :)

LovesuckZ
2003-05-04, 18:23:41
Originally posted by zeckensack
Schicke Quecksilberpfützen in Morrowind :)
Krasse Grafik (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=63770), btw auch auf einer 9500Pro noch durchaus angenehm flüssig :)

Das Wasser in Morrowind sieht ohne meiner Meinung nach viel besser aus. :)

Also DX9 Demos kann man mit der 5200 auch angucken. Bis auf die Geschwindigkeit sehe ich da keine Vorteile.

mapel110
2003-05-04, 18:33:00
Originally posted by LovesuckZ


Das Wasser in Morrowind sieht ohne meiner Meinung nach viel besser aus. :)

Also DX9 Demos kann man mit der 5200 auch angucken. Bis auf die Geschwindigkeit sehe ich da keine Vorteile.

1. du eh, biste blind ? ich hab morrowind auf ner kyro2 gezockt, da sah das wasser zum brechen aus. mit der 8500er kam dann der hier ":o"

2.http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=68456

LovesuckZ
2003-05-04, 18:34:54
Originally posted by mapel110
1. du eh, biste blind ? ich hab morrowind auf ner kyro2 gezockt, da sah das wasser zum brechen aus. mit der 8500er kam dann der hier ":o"
2.http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=68456

1. Ich find's besser. Das Pixelshader Wasser ist irgendwie so "unecht".

2.
Gibt da 2 Links...

Einer, wo die "fairy.exe" ohne Parameter aufgerufen wird, i.e. "Dawn".
Der andere, bei dem o.g. Datei als Parameter mitgegeben wird und als "Dawn ultra" tituliert ist.

Razor

zeckensack
2003-05-04, 18:40:23
Originally posted by LovesuckZ
Das Wasser in Morrowind sieht ohne meiner Meinung nach viel besser aus. :)Das ist auch dein gutes Recht. Mir wiederum gefällt's ganz gut :)
Also DX9 Demos kann man mit der 5200 auch angucken. Bis auf die Geschwindigkeit sehe ich da keine Vorteile.Sicher. DX9 ist zumindest aufgrund der Demos (wenn (!) man sich für sowas interessiert) nicht völlig überflüssig. Der Vergleich mit dem DX8igen ATI M9 ist daher IMO nicht ganz passend :D

Dann muß es aber auch erlaubt sein, über die Geschwindigkeit zu reden. Der FX5200go ist in meinen Augen sicher kein überflüssiges Produkt. Er wird sich nur demnächst den Vergleich mit dem M10 gefallen lassen müssen, von dem ich persönlich etwas mehr erwarte.

Genaue Zahlen (die auf echten Notebook-Konfigurationen entstanden sind) gibt's dazu in der Tat noch nicht.

LovesuckZ
2003-05-04, 18:48:02
Originally posted by zeckensack
Dann muß es aber auch erlaubt sein, über die Geschwindigkeit zu reden. Der FX5200go ist in meinen Augen sicher kein überflüssiges Produkt. Er wird sich nur demnächst den Vergleich mit dem M10 gefallen lassen müssen, von dem ich persönlich etwas mehr erwarte.


Der 5200go soll sich auch nicht mit dem M10 messen. Hier ist die 5600go eher angebracht, da beide sich in eine andere Preisklasse richten.

Piffan
2003-05-04, 19:07:09
Wenn man die Anzeige durchliest, ist doch wohl sonnenklar, warum da ne FX5200 drin ist: Für den DAU- Fang und sonst nichts! Hauptsache man kann schreiben: "Überragende 3d- Leistung und volle dx9- Unterstützung".

Im Prinzip ist es nicht schlecht, wenn ein Notebook eine brauchbare 3d- Leistung bringt - aber nur dann, wenn ich den Mehrverbrauch an Strom abschalten kann, den ein modernes 3d-Transistor- Monster verursacht.....

Wahrscheinlich trifft beides nicht auf den 5200 zu, weder ist die Leistung brauchbar zum Gamen noch lässt sich der zum Arbeiten überflüssige 3d- Wasserkopf abhängen....

Bin mal auf die c't gespannt; todsicher werden das "Notebook" von Aldi sezieren.....bis dahin darf flöhlich weitergestritten werden ;)

Razor
2003-05-04, 19:11:11
Originally posted by AlfredENeumann

Dann erklär mir mal bitte was DX9 in dieser Preis, und vor allem Leistungsklasse bringen soll ?
Das Gleiche, was DX9 auch in anderen Klassen derzeit bringt: einen Technologie-Preview.

Taugt für Demos, wohl aber nicht für 100%-Games oder -Apps.
Wie schnell eine solche Demo abläuft, oder ablaufen sollte, liegt in der Betrachtung des Einzelnen und kann nicht pauschalisiert werden. Wenn man bedenkt, dass einige es schon wahnsinnig faszinierend fanden, mit dem OGL-Treiber-Hack 'NV30Emulate' sich z.Bsp. "Dawn" anzuschauen, kann man diesen 'Vorteil' also nicht von der Hand weisen. Dazu kommt noch das Nicht-Vorhandensein von nView, bzw. Multimonitor-Möglichkeiten bei der gf3.

Ich hab's hier schon diverseste male geschreiben, aber für Dich wiederhole ich das gerne nochmal:
- DX7/8 Rohperformance auf gf4mx460-Niveau
- DX7/8 Quality-Performance (2xAA/4xAF) auf gf3ti500-Niveau (bis zu 50% besser, als gf3@235/530)
- DX9-Fähigkeiten als Tech-Preview
- Multimonitor bei superber Signalqualität
- TV-Out mit perfekter Bildqualität
- passiv gekühlt
- für 100€ (auch schon ab 90€) ist 'ne 128MB-Variante zu haben

So, nun möchte ich gerne von Dir wissen, was daran jetzt schlecht sein soll ?
Welchen Vorteil versprichst Du Dir denn von den DX9-Funktionalitäten ATI's bei den R9500 aufwärts ?

Soll es wieder soweit kommen, dass locker 6 Jahre nach Erscheinen einer Technologie (TNT-Klasse) neue Engines noch immer auf so etwas Rücksicht nehmen müssen, weil 40% der Leutz da draußen nichts besseres haben ?

Sorry, aber egal, was nVidia macht, es ist falsch.
Damals mekerte man und beschimpfte die gf4mx als Technologie-Bremse. Nun macht ATI das gleiche (wohlgemerkt heute !) und schon ist das natürlich was Gutes. nVidia regierte und spendiert auch ihrer neuesten Low-End-Klasse (immerhin gemittelt auf gf3-Niveau) die neueste Technologie. Nun ist das natürlich schlecht, weils ja von nVidia kommt.

Sorry, aber irgendwie habe ich das Gefühl, das es gewissen Leuten einfach nicht recht gemacht werden kann.

-

So und jetzt möchte von Dir wissen, was DX9 in der Midrange- (vorrangig zu behandeln !) und in der High-End-Preis/Leistungs-Klasse zu suchen hat.

Und eines noch, wie wird heute eigentlich DX9-Leistung 'gemessen' ?
Etwa mit dem Murks ?
Na danke.

Bis denne

Razor

Demirug
2003-05-04, 19:15:48
Für die DX9 Sinn Diskussion habe ich euch extra einen Thread aufgemacht http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=69268

Piffan
2003-05-04, 19:21:14
Originally posted by Razor



Ich hab's hier schon diverseste male geschreiben, aber für Dich wiederhole ich das gerne nochmal:
- DX7/8 Rohperformance auf gf4mx460-Niveau
- DX7/8 Quality-Performance (2xAA/4xAF) auf gf3ti500-Niveau (bis zu 50% besser, als gf3@235/530)
- DX9-Fähigkeiten als Tech-Preview
- Multimonitor bei superber Signalqualität
- TV-Out mit perfekter Bildqualität
- passiv gekühlt
- für 100€ (auch schon ab 90€) ist 'ne 128MB-Variante zu haben


Razor

WEnn das alles so stimmt, also Fakten sind, dann gebe ich Dir allerdings vollkommen recht! Dann würde die Leistung in der Tat reichen für manches hübsche Spielchen!

Noch toller wäre es, wenn das Ding dynamisch stark runtertaktet oder den 3d- Part abhängen könnte!

Unregistered
2003-05-04, 19:22:36
Originally posted by AlfredENeumann



Dann erklär mir mal bitte was DX9 in dieser Preis, und vor allem Leistungsklasse bringen soll ?


Marktdurchdringung von DX9.
Wurde schon des öfteren hier dargelegt warum das gut ist.

Razor
2003-05-04, 19:23:08
Originally posted by Piffan

Wenn man die Anzeige durchliest, ist doch wohl sonnenklar, warum da ne FX5200 drin ist: Für den DAU- Fang und sonst nichts! Hauptsache man kann schreiben: "Überragende 3d- Leistung und volle dx9- Unterstützung".
Soweit so gut...
Originally posted by Piffan

Im Prinzip ist es nicht schlecht, wenn ein Notebook eine brauchbare 3d- Leistung bringt - aber nur dann, wenn ich den Mehrverbrauch an Strom abschalten kann, den ein modernes 3d-Transistor- Monster verursacht.....
Weswege es ja die 'go'-Varianten gibt.
Originally posted by Piffan

Wahrscheinlich trifft beides nicht auf den 5200 zu, weder ist die Leistung brauchbar zum Gamen noch lässt sich der zum Arbeiten überflüssige 3d- Wasserkopf abhängen....
Wieso sollte die fx5200go nicht in der laage sein, das, was ohnehin in den FX'ern implemetiert ist, auch zu nutzen. Schon vergessen, dass es die 2D/3D Taktregler gibt. Warum sollte dies nicht auch bei den Mobil-Varianten greifen. Die Karten werden halt soweit herunter getaktet, wie es möglich ist und schon dürfte sich auch der Stomverbrauch in Grenzen halten. Mal ganz von anderen Dingen, die da im Mobil-Bereich möglich sind.

Und was die Leistung angeht...
Habe ich schon weiter oben was zu geschrieben.
Das soll für Notebooks nicht ausreichen.
Hmmm... als dann müsste es ja nur unglückliche Notebook-User geben...
Originally posted by Piffan

Bin mal auf die c't gespannt; todsicher werden das "Notebook" von Aldi sezieren.....bis dahin darf flöhlich weitergestritten werden ;)
Das Ding von ALDI dürfte man, wie auch deren Vorgänger schlicht wegschmeißen können. Die Nicht-Existemz eines Mobile-P4 in der Lesitungsklasse spricht da ja schon Bände und disqulifiziert dieses Dinf schon im Vorherein.

Aber ja, vielleicht werden wir aber dann Gewißheit bekommen, wie es um die Stromaufnahme einer DX-Mobile-GPU von nVidia bestellt ist. Zumindest hört hier dann dieses wilde herumraten auf.

-

Ach ja, habe ich schon erwähnt, dass die noch passiv gekühlte FX5200 wunderbar in meinem 2. Rechner in Verbindung mit einem NoName 250W-Netzteil lief ?

Die R9500 wollte das nicht einmal trotz externer Stromversorgung und 350W-Netzteil.
Aber das nur am Rande...

Bis denne

Razor

Piffan
2003-05-04, 19:25:00
Originally posted by Unregistered



Marktdurchdringung von DX9.
Wurde schon des öfteren hier dargelegt warum das gut ist.

Marktdurchdringung alleine reicht wohl auch nicht, die Leistungsfähigkeit ist dabei auch nicht ganz uninteressant. Oder Glaubst Du, dass sich die Entwickler rüberziehen ließen, wenn die Hardware nur auf dem Papier DX9- tauglich ist?

LovesuckZ
2003-05-04, 19:25:04
Originally posted by Piffan
Noch toller wäre es, wenn das Ding dynamisch stark runtertaktet oder den 3d- Part abhängen könnte!

http://www.de.tomshardware.com/mobile/20030418/sony-vaio-nvr23-05.html

Das ist die Powermizer Funktion der GF4GO. Ich denke mal, dass Nvidia hier nicht viel verschlimmbessern werden.

Razor
2003-05-04, 19:27:53
Originally posted by Piffan

WEnn das alles so stimmt, also Fakten sind, dann gebe ich Dir allerdings vollkommen recht! Dann würde die Leistung in der Tat reichen für manches hübsche Spielchen!

Noch toller wäre es, wenn das Ding dynamisch stark runtertaktet oder den 3d- Part abhängen könnte!
Ich vermute mal, dass das nur mit Mobile-Variante möglich sein wird.
Hätte vielleicht dazu schreiben sollen, dass das meine Erfahrungen mit einer passiven FX5200 (nonGo ;-) waren...

Aber klar, gerade das dynamische Takten ist ja bei den Mobile-Varianten schon immer da gewesen. Erst nVidia brachte dieses Prinzip auch für den Desktop-Markt und dürfte von den anderen Herstellern auch aufgenommen werden, wenn der Markt dieses verlangt.

Warum jetzt aber gerade die Mobil-Variante einer gffx nicht dazu in der lege sein soll, obwohl das allen bisherigen Chips auch schafften, will mir nicht so recht in den Kopf.

-

Und noch was zum Thema 'Spielchen'... auch das neue ST:EF2-Demo läuft mit AA/AF ganz hervorragend auf der 'Kleinen' !
:D

Bis denne

Razor

Razor
2003-05-04, 19:31:45
Originally posted by Piffan

Marktdurchdringung alleine reicht wohl auch nicht, die Leistungsfähigkeit ist dabei auch nicht ganz uninteressant. Oder Glaubst Du, dass sich die Entwickler rüberziehen ließen, wenn die Hardware nur auf dem Papier DX9- tauglich ist?
Klar, wie Demirug schon sagte: Leistung ist nicht das Problem...
Man kann Auflösung, Details und Effekte per Menü oder Auto-Erkennung abschalten und das Game läuft. Wenn aber die Technologie nicht unterstützt wird (wie jetzt bei ca. 80-90% aller Spieler, die keine DX8-Hardware ihr Eigen nennen), dann läuft's nicht und der Kunde ist enttäuscht.

Wenn ich daran denke, wie einige hier so etwas wie HalfLife oder Q3 zocken...
*brrrrr*
;-)

Und nicht vergessen... auch Doom3 wird auf einer gf1(sdr) laufen.
Frag' mich nur nicht, wie...

Aber die dort zugrunde liegende Technologie ist mehr als 4 Jahre alt !

Bis denne

Razor

Unregistered
2003-05-04, 19:39:01
Originally posted by Piffan


Marktdurchdringung alleine reicht wohl auch nicht, die Leistungsfähigkeit ist dabei auch nicht ganz uninteressant. Oder Glaubst Du, dass sich die Entwickler rüberziehen ließen, wenn die Hardware nur auf dem Papier DX9- tauglich ist?


DX9 only Games werden erst dann erscheinen, wenn praktisch die letzte non-DX9 Karte aus den Rechnern der User verschwunden ist. und genau dazu braucht es Karten wie die FX5200.
ich rechne damit, dass dies noch 3-4 Jahre dauert.

Razor
2003-05-04, 19:42:11
Originally posted by Unregistered

DX9 only Games werden erst dann erscheinen, wenn praktisch die letzte non-DX9 Karte aus den Rechnern der User verschwunden ist. und genau dazu braucht es Karten wie die FX5200.
ich rechne damit, dass dies noch 3-4 Jahre dauert.
Mindestens...
Die TNT-Klasse hat bis heute schon über 4 Jahre auf dem Buckel...
Und noch immer werden solche Karten verkauft.

Razor

Thowe
2003-05-04, 22:21:43
Heute schien die Sonne, aber gestern hat es geregnet.

Liquaron
2003-05-04, 22:23:37
Originally posted by Thowe
Heute schien die Sonne, aber gestern hat es geregnet.


Ähhhm jaa.....

Wir müssen uns doch keine Sorgen um dich machen lieber Thowe?

Geht es dir wirklich gut?


Lieber Thowe erzähl und von deinen Problemen.

Wir sind doch alle für dich da und haben dich ganz doll lieb !!!!

AlfredENeumann
2003-05-04, 23:47:03
Originally posted by LovesuckZ


Vielleicht weil einige nicht ueber 100te € raushauen wollen, doch dafuer technologisch "in" sein moechten? Oder weil ich schneller DX9 Effekte sehen moechte. Oder nur, weil sich die Karte durch mehr Feature besser verkauft.
Nun bist du dran: Wozu brauch der RV250 DX8?

Man man man. die 200er Reihe hatte immer schon DX8.1 was für eine dämliche frage.

Jemand der nicht viel Kohle hat. Vielleicht 100€ und zocken will. Was kauft der sich wohl. Eine DX9-Schnecke oder eine DX8 die noch ein wenig schneller ist ?
Da pfeift jeder auf DX9.
Schau mal in das größte DAU-Forum in Deutschland. Und zwar bei GIGA. Da siehste was in der Low-Kohle-Generation abgeht.

Quasar
2003-05-05, 00:03:25
Originally posted by AlfredENeumann


Man man man. die 200er Reihe hatte immer schon DX8.1 was für eine dämliche frage.


Wenn ich es mal mit Stefan Paynes Worten formulieren darf:

~ Die Transistoren für DX8.1 hätte man sich sparen können und dafür lieber ein performanteres DX7-Design schaffen sollen, evtl. mit einer zweiten Textureinheit* ~

*die der R200 hatte, dem RV250 aber gestrichen wurde. Ein DX7-Chip mit 4x2 und der Rohleistung einer R8500 auf Retail-Niveau wäre für Spieler sicher sinnvoller als eine kastrierte (TMU, TruForm) R200 und möglicherweise sogar ökonomischer herzustellen gewesen.

AlfredENeumann
2003-05-05, 00:05:34
Originally posted by Razor
"Das Gleiche, was DX9 auch in anderen Klassen derzeit bringt: einen Technologie-Preview."

Das hat OTTO-Normal-DAU nur nichts von

"Taugt für Demos, wohl aber nicht für 100%-Games oder -Apps."

Das ist das wo jeder hier hinauswill

"- DX7/8 Rohperformance auf gf4mx460-Niveau"

find ich etwas arm für ne Karte die zwei DX-Generationen weiter ist.

"- DX7/8 Quality-Performance (2xAA/4xAF) auf gf3ti500-Niveau (bis zu 50% besser, als gf3@235/530)"

bringt nur nicht viel wenn die Rohperformance vorher schon mies ist.

"- DX9-Fähigkeiten als Tech-Preview"

siehe oben

"- Multimonitor bei superber Signalqualität"

haben andere Karten in einer niedriegern Preisklasse ebenfalls.

"- TV-Out mit perfekter Bildqualität"

Das gabs bei ATI schon immer

"- passiv gekühlt"

können andere auch

"- für 100€ (auch schon ab 90€) ist 'ne 128MB-Variante zu haben"

die 9200 von ATI auch.

"So, nun möchte ich gerne von Dir wissen, was daran jetzt schlecht sein soll ?"

Nichts. Es sagt keiner was gegen die Karte an sich. Ist zwar zu langsam im vergleich zu gleichteueren Karten, aber was solls. Es ist das DX9-für-arme(tm) was mich da stört.

"Welchen Vorteil versprichst Du Dir denn von den DX9-Funktionalitäten ATI's bei den R9500 aufwärts ?"

Welchen Vorteil versprichst Du Dir denn von den DX9-Funktionalitäten Nvidia's bei den FX5600 aufwärts?

"Soll es wieder soweit kommen, dass locker 6 Jahre nach Erscheinen einer Technologie (TNT-Klasse) neue Engines noch immer auf so etwas Rücksicht nehmen müssen, weil 40% der Leutz da draußen nichts besseres haben ?"

siehe GF4mx !!!! ATI hat Toll gelernt, nicht wahr. Bring einfach die letzte generation in den LowCost, wie es NV vorher immer gmeacht hat. Das reicht um die Speielentwicklung schön aufzuhalten. Aber selbst wenn ATI selber einen DX9-SuperLowCost-Ableger gebracht hätte, glaubst du DX9 Spiele würden anders aussehen ?

"Sorry, aber egal, was nVidia macht, es ist falsch."

Sorry, aber egal, was ATI macht, es ist falsch. (Wie schön das sich alles immer drehen läßt)

"Damals mekerte man und beschimpfte die gf4mx als Technologie-Bremse. Nun macht ATI das gleiche (wohlgemerkt heute !) und schon ist das natürlich was Gutes."

Nö. Heute schimpfen NVidioten auf ATI. Mein freund Suckie kann das besonders gut.

"nidia regierte und spendiert auch ihrer neuesten Low-End-Klasse (immerhin gemittelt auf gf3-Niveau) die neueste Technologie. Nun ist das natürlich schlecht, weils ja von nVidia kommt."

nö. Meiner meinung nach nur schlecht weil mehr als Nutzlos. Meiner meinung nach genauso nützlich wie PS1.4

"Sorry, aber irgendwie habe ich das Gefühl, das es gewissen Leuten einfach nicht recht gemacht werden kann."


Dem schließ ich mich an.


"o und jetzt möchte von Dir wissen, was DX9 in der Midrange- (vorrangig zu behandeln !) und in der High-End-Preis/Leistungs-Klasse zu suchen hat."

Nix. Dx9 ist da ein mitbringsel, wie imLowCost. Nur im Midrange und HighEnd macht es nicht so viel aus, da dort die Karte eine Entsprechende Leistung für Ihr Geld bringen und außerdem noch mit Spielbaren AA und AF daherkommen.

"Und eines noch, wie wird heute eigentlich DX9-Leistung 'gemessen' ?
Etwa mit dem Murks ?"

Is mir wurscht. Wie wäre es wenn unsere Programiergenies da mal was zusammenschustern ?

AlfredENeumann
2003-05-05, 00:07:30
Originally posted by Unregistered



Marktdurchdringung von DX9.
Wurde schon des öfteren hier dargelegt warum das gut ist.

Interessiert mich als Endkunden trotzdem nicht. Und wenn DX9-Kindergarten-Karten als kleinster Nenner für DX9-Spiele herhalten sollen kauf ich mir ne Konsole zum Zocken. Da habe ich dann mehr davon.

StefanV
2003-05-05, 00:28:30
Originally posted by Razor
Ach ja, habe ich schon erwähnt, dass die noch passiv gekühlte FX5200 wunderbar in meinem 2. Rechner in Verbindung mit einem NoName 250W-Netzteil lief ?

Die R9500 wollte das nicht einmal trotz externer Stromversorgung und 350W-Netzteil.
Aber das nur am Rande...

Bis denne

Razor

Achja, hab ich schon erwähnt, das meine 9700 wunderbar in meinem 2./3. Rechner (je nach dem) mit meinem 235W Markennetzteil von Chanell Well wunderbar läuft ??

Keine abstürze, keine freezes, die 5V Spannung sackt zwar auf 4,8V ab, was es aber auch schon ohne die 9700 macht, was auch bei einem 235W Netzteil zu verschmerzen ist...

Es zahlt sich halt aus, etwas mehr Geld in ein NT zu stecken, da hat man mehr von...


PS: dieses NT ist mittlererweile schon fast 4 Jahre alt...

StefanV
2003-05-05, 00:33:15
Originally posted by Razor

Sorry, aber egal, was nVidia macht, es ist falsch.
Damals mekerte man und beschimpfte die gf4mx als Technologie-Bremse. Nun macht ATI das gleiche (wohlgemerkt heute !) und schon ist das natürlich was Gutes. nVidia regierte und spendiert auch ihrer neuesten Low-End-Klasse (immerhin gemittelt auf gf3-Niveau) die neueste Technologie. Nun ist das natürlich schlecht, weils ja von nVidia kommt.


Sorry, Razor aber die Zeiten zwischen GF4 MX release und jetzt kann man nicht miteinander vergleichen.

Wenn du wissen willst warum, dann überleg mal, wie ´lange es zum Release der GF4 MX schon DX7 Karten gab, wenn mich mein Hirn nicht täuscht, dann waren das ~2 Jahre!!

Oder anders gesagt: die GF4 MX ist die 3. (!!) DX7 Generation von nVidia, dazu auch noch etwas verspätet...

In diesem Fall bin ich mit Leonidas einer Meinung, hätte NV die GF4 MX ein halbes Jahr früher gebracht, dann wäre es in Ordnung, da sie es aber nicht getan haben...

Der Unterschied ist auch, daß der Schritt von DX7 nach DX8 enorm ist, verglichen zwischen DX8 und DX9 ist DX9 nur bugfixing + logische Erweiterungen...

Quasar
2003-05-05, 00:36:33
Originally posted by Stefan Payne
Sorry, Razor aber die Zeiten zwischen GF4 MX release und jetzt kann man nicht miteinander vergleichen.

Wenn du wissen willst warum, dann überleg mal, wie ´lange es zum Release der GF4 MX schon DX7 Karten gab, wenn mich mein Hirn nicht täuscht, dann waren das ~2 Jahre!!

Oder anders gesagt: die GF4 MX ist die 3. (!!) DX7 Generation von nVidia, dazu auch noch etwas verspätet...

1) Warum denn nicht?

2) Es gibt mittlerweile seit zwei Jahren DX8-Karten und jetzt wird noch die R9200 released.

3) Die R9200 ist auch die dritte DX8-Generation von Ati, und?


Ich verstehe nicht, wieso alles, was nV macht schlecht ist und alles, was ATi macht gut.

Richthofen
2003-05-05, 00:58:10
NV DX9 in allen Bereichen ATI eben nur DX8 im Low COst.
Obs dir gefällt oder nicht aber das wurde ja bei der GF4MX kritisiert und jetzt wirds knallhart bei ATI kritisiert.

mike49
2003-05-05, 02:16:47
Hier scheinen mir aber einige ziemlich vom eigentlichen Thema abgekommen zu sein... :smash:

Nochmal zur Erinnnerung: Es geht hier um Notebooks und die eigentliche Frage müßte doch wohl viel eher lauten: Was soll eine DX 9-GPU in einem Notebook denn schon schaden ?

Bevor ich mir wie ansonsten in dem Preissegment üblich irgendeine Shared-Memory Lösung antue nehme ich doch mit Kußhand die FX 5200 Go und freue mich darüber, nebenbei auch mal in halbwegs vernünftiger Qualität spielen zu können. Da ist die FX 5200 Go nämlich allen anderen integrierten Lösungen meilenweit überlegen. Und ob die nun DX 8/9 oder was auch immer unterstützt ist doch wirklich nur Nebensache und schadet (außer einem evtl minimal höheren Stromverbrauch) nun wirklich nicht weiter !

Wenn dann noch ein vernünftiger externer Ausgang (VGA/S-Video) dazukommt (was ATI bei dem M9 leider total versaut hat) sind zumindest meine Ansprüche an eine Notebook-Karte voll und ganz erfüllt...

wrdaniel
2003-05-05, 02:31:57
- Multimonitor bei superber Signalqualität
- TV-Out mit perfekter Bildqualität

Razor
2003-05-05, 02:46:20
Originally posted by AlfredENeumann
Originally posted by Razor
"Das Gleiche, was DX9 auch in anderen Klassen derzeit bringt: einen Technologie-Preview."
Das hat OTTO-Normal-DAU nur nichts von
"Taugt für Demos, wohl aber nicht für 100%-Games oder -Apps."
Das ist das wo jeder hier hinauswill
"- DX7/8 Rohperformance auf gf4mx460-Niveau"
find ich etwas arm für ne Karte die zwei DX-Generationen weiter ist.
"- DX7/8 Quality-Performance (2xAA/4xAF) auf gf3ti500-Niveau (bis zu 50% besser, als gf3@235/530)"
bringt nur nicht viel wenn die Rohperformance vorher schon mies ist.
"- DX9-Fähigkeiten als Tech-Preview"
siehe oben
"- Multimonitor bei superber Signalqualität"
haben andere Karten in einer niedriegern Preisklasse ebenfalls.
"- TV-Out mit perfekter Bildqualität"
Das gabs bei ATI schon immer
"- passiv gekühlt"
können andere auch
"- für 100€ (auch schon ab 90€) ist 'ne 128MB-Variante zu haben"
die 9200 von ATI auch.
"So, nun möchte ich gerne von Dir wissen, was daran jetzt schlecht sein soll ?"
Nichts. Es sagt keiner was gegen die Karte an sich. Ist zwar zu langsam im vergleich zu gleichteueren Karten, aber was solls. Es ist das DX9-für-arme(tm) was mich da stört.
"Welchen Vorteil versprichst Du Dir denn von den DX9-Funktionalitäten ATI's bei den R9500 aufwärts ?"
Welchen Vorteil versprichst Du Dir denn von den DX9-Funktionalitäten Nvidia's bei den FX5600 aufwärts?
"Soll es wieder soweit kommen, dass locker 6 Jahre nach Erscheinen einer Technologie (TNT-Klasse) neue Engines noch immer auf so etwas Rücksicht nehmen müssen, weil 40% der Leutz da draußen nichts besseres haben ?"
siehe GF4mx !!!! ATI hat Toll gelernt, nicht wahr. Bring einfach die letzte generation in den LowCost, wie es NV vorher immer gmeacht hat. Das reicht um die Speielentwicklung schön aufzuhalten. Aber selbst wenn ATI selber einen DX9-SuperLowCost-Ableger gebracht hätte, glaubst du DX9 Spiele würden anders aussehen ?
"Sorry, aber egal, was nVidia macht, es ist falsch."
Sorry, aber egal, was ATI macht, es ist falsch. (Wie schön das sich alles immer drehen läßt)
"Damals mekerte man und beschimpfte die gf4mx als Technologie-Bremse. Nun macht ATI das gleiche (wohlgemerkt heute !) und schon ist das natürlich was Gutes."
Nö. Heute schimpfen NVidioten auf ATI. Mein freund Suckie kann das besonders gut.
"nidia regierte und spendiert auch ihrer neuesten Low-End-Klasse (immerhin gemittelt auf gf3-Niveau) die neueste Technologie. Nun ist das natürlich schlecht, weils ja von nVidia kommt."
nö. Meiner meinung nach nur schlecht weil mehr als Nutzlos. Meiner meinung nach genauso nützlich wie PS1.4
"Sorry, aber irgendwie habe ich das Gefühl, das es gewissen Leuten einfach nicht recht gemacht werden kann."
Dem schließ ich mich an.
"o und jetzt möchte von Dir wissen, was DX9 in der Midrange- (vorrangig zu behandeln !) und in der High-End-Preis/Leistungs-Klasse zu suchen hat."
Nix. Dx9 ist da ein mitbringsel, wie imLowCost. Nur im Midrange und HighEnd macht es nicht so viel aus, da dort die Karte eine Entsprechende Leistung für Ihr Geld bringen und außerdem noch mit Spielbaren AA und AF daherkommen.
"Und eines noch, wie wird heute eigentlich DX9-Leistung 'gemessen' ?
Etwa mit dem Murks ?"
Is mir wurscht. Wie wäre es wenn unsere Programiergenies da mal was zusammenschustern ?
Sorry, aber meinst Du ernsthaft, dass ich darauf antworte ?
???

Neee....

Razor

P.S.: Kann man ja nicht mal vernünftig lesen... da wird einem ja schwindelig !
(und sicher nicht der Argumente wegen ;-)

Razor
2003-05-05, 02:47:30
Originally posted by AlfredENeumann

Interessiert mich als Endkunden trotzdem nicht. Und wenn DX9-Kindergarten-Karten als kleinster Nenner für DX9-Spiele herhalten sollen kauf ich mir ne Konsole zum Zocken. Da habe ich dann mehr davon.
Versteh ich nicht...
Du würdest den DX9-Teil Deiner GraKa also einfach abschalten, weil er Dich nicht interessiert ?
Und Du hast definitiv auch nicht die hübschen ATI-Techdemo's angeschaut ?
Respekt !
:D

Razor

Razor
2003-05-05, 02:49:15
Originally posted by Stefan Payne

Achja, hab ich schon erwähnt, das meine 9700 wunderbar in meinem 2./3. Rechner (je nach dem) mit meinem 235W Markennetzteil von Chanell Well wunderbar läuft ??

Keine abstürze, keine freezes, die 5V Spannung sackt zwar auf 4,8V ab, was es aber auch schon ohne die 9700 macht, was auch bei einem 235W Netzteil zu verschmerzen ist...

Es zahlt sich halt aus, etwas mehr Geld in ein NT zu stecken, da hat man mehr von...

PS: dieses NT ist mittlererweile schon fast 4 Jahre alt...
Kannst Du mir bitte sagen, wen das interssieren soll ?
Du willst also tatsächlich sagen, dass man sich zu einer R300 auch immer gleich ein Marken-Netzteil "bestimmter Güte" zulegen soll ?
Na klasse !

Razor

Razor
2003-05-05, 02:52:14
Originally posted by Stefan Payne

Sorry, Razor aber die Zeiten zwischen GF4 MX release und jetzt kann man nicht miteinander vergleichen.

Wenn du wissen willst warum, dann überleg mal, wie ´lange es zum Release der GF4 MX schon DX7 Karten gab, wenn mich mein Hirn nicht täuscht, dann waren das ~2 Jahre!!

Oder anders gesagt: die GF4 MX ist die 3. (!!) DX7 Generation von nVidia, dazu auch noch etwas verspätet...
Ah ja... deswegen entscheid sich also nun auch ATI nach über 2 Jahren (!!! ;-) also schon wieder DX8-Karten der was-weiß-ich-wievielten Generation zutage zu fördern ?

Sorry, aber hier wiederspricht Du Dir selber ganz erheblich.

Razor

Ups... schon wieder kam Quasar damit früher...
Hmmm...
;-)

hjenseman
2003-05-05, 06:06:51
Originally posted by Quasar

Ich verstehe nicht, wieso alles, was nV macht schlecht ist und alles, was ATi macht gut.

Genau so argumentieren oft Razor, RH und du Quasar in Bezug auf Nvidia. Das ist es ja, was die Fronten so verhärten lässt hier im Forum.

Du meinst vielleicht, du tust ja nur gegensteuern aber eigentlich bist du keinen Deut besser!!!

aths
2003-05-05, 07:29:49
Originally posted by Razor

Sorry, aber meinst Du ernsthaft, dass ich darauf antworte ?
???

Neee....

Razor

P.S.: Kann man ja nicht mal vernünftig lesen... da wird einem ja schwindelig !
(und sicher nicht der Argumente wegen ;-) Was hast du denn an AENs Antwort im einzelnen auszusetzen? (Ich kann es ganz gut lesen.)

Frank
2003-05-05, 09:17:04
Für die DirectX9 /8 /7 Diskussion hat Demirug extra einen neuen Thread aufgemacht. Also bitte !!

Sir Integral Wingate Hellsing
2003-05-05, 09:30:44
Originally posted by Razor

I.d.R. achtet ein Notebook-Käufer überhaupt nicht auf den Grafikkern !
Und wenn doch, dann wird er schon seine Gründe haben... dann macht auch ein DX9-Kern u.U. Sinn.

Bis denne

Razor

DAS wüsst ich aber!

Gerade der Graka-Chips is wichtig... was bringt mir nen XP-M 2000+ oder P 4-M 2GHz, wenn ich nur ne Trident, SiS oderso drin hab...

Und wer jetzt kommt "Auf dem Laptop zoggt man nicht" den kann ich nur sagen , dass sich IBM '81 auch net vorgestellt dass Man auf PCs zoggt... und der Trend geht nunmal zum mobilen Zocken!

a
2003-05-05, 10:26:29
Genau, besser als eine shared-Lösung ist die GF FX go allemal und wens nicht interessiert, wird es auch nicht stören.

Aber der Threadtitel "Medion mit DX9-Notebook" zielt ja wohl eindeutig in eine andere Richtung und ist bei dem Grafikcore oberpeinlich.

StefanV
2003-05-05, 11:25:18
Originally posted by Richthofen
NV DX9 in allen Bereichen ATI eben nur DX8 im Low COst.
Obs dir gefällt oder nicht aber das wurde ja bei der GF4MX kritisiert und jetzt wirds knallhart bei ATI kritisiert.

RH,

FX5200 -> 54 MIO Transis
FX5600 -> 75 MIO Transis
FX5800 -> 120 MIO Transis

ATI:

RV280 -> 36 MIO Transis
RV350 -> 60 MIO Transis
R350 -> 107 MIO Transis

So, wer hat nun gute Arbeit geleistet und arbeitet sehr wirtschaftlich und wer hat bei den Designs geschlampt ??

Sonst legst du ja auch sehr viel Wert darauf, daß die einzelnen Unternehmen profit erwirtschaften !!

Dummerweise hat ATI momentan die wirtschaftlicheren weil kleineren Chips...

Frank
2003-05-05, 11:55:48
Originally posted by Stefan Payne
So, wer hat nun gute Arbeit geleistet und arbeitet sehr wirtschaftlich und wer hat bei den Designs geschlampt ??

Sonst legst du ja auch sehr viel Wert darauf, daß die einzelnen Unternehmen profit erwirtschaften !!

Dummerweise hat ATI momentan die wirtschaftlicheren weil kleineren Chips... warum dummerweise? Ist doch schön.

Ansonsten verlagere das bitte in den DX9 Thread Stefan.

Andre
2003-05-05, 12:04:56
Originally posted by Stefan Payne


RH,

FX5200 -> 54 MIO Transis
FX5600 -> 75 MIO Transis
FX5800 -> 120 MIO Transis

ATI:

RV280 -> 36 MIO Transis
RV350 -> 60 MIO Transis
R350 -> 107 MIO Transis

So, wer hat nun gute Arbeit geleistet und arbeitet sehr wirtschaftlich und wer hat bei den Designs geschlampt ??

Sonst legst du ja auch sehr viel Wert darauf, daß die einzelnen Unternehmen profit erwirtschaften !!

Dummerweise hat ATI momentan die wirtschaftlicheren weil kleineren Chips...

Zusammenhang zum Threadthema?

Mr. Lolman
2003-05-05, 12:23:50
Originally posted by Andre


Zusammenhang zum Threadthema?

Keiner, ist aber trotzdem interessant.

AlfredENeumann
2003-05-05, 13:21:28
Originally posted by aths
Was hast du denn an AENs Antwort im einzelnen auszusetzen? (Ich kann es ganz gut lesen.)

Ich versteh ihn manchmal auch nicht. Bei Richthofen kann er es ganz gut lesen.

Unregistered
2003-05-05, 13:22:06
Originally posted by Stefan Payne
FX5200 -> 54 MIO Transis
FX5600 -> 75 MIO Transis

ATI:
RV280 -> 36 MIO Transis
RV350 -> 60 MIO Transis


Quelle?

Quasar@Work
2003-05-05, 13:25:09
Originally posted by hjenseman


Genau so argumentieren oft Razor, RH und du Quasar in Bezug auf Nvidia. Das ist es ja, was die Fronten so verhärten lässt hier im Forum.

Du meinst vielleicht, du tust ja nur gegensteuern aber eigentlich bist du keinen Deut besser!!!

Mag sein, aber dann zeige mir mal bitte, wo ich denn auf solcherlei Art und Weise pauschalisiere?

Ich habe mich im Gegenteil eigentlich immer recht positiv über ATi geäußert, nur das AF gefällt mir nach wie vor nicht so gut, wie das von nV.

Razor
2003-05-05, 15:47:03
Originally posted by AlfredENeumann

Ich versteh ihn manchmal auch nicht. Bei Richthofen kann er es ganz gut lesen.

Nicht wenn jeder Satz kommetiert wird. Und auch nicht, wenn kein Abstand zwischen den Zitaten ist.

Richthofen:"
BluBlaBlubb
BlaBlaBlum
BrabaDu
"

Text...AEN:"BluBlaBlubb"

Text...

"BlaBlaBlum"

Text...

"BrabaDu"

Text...Sorry, aber das ist ein gewaltiger Unterschied...

Razor

Razor
2003-05-05, 15:51:30
Originally posted by hjenseman

Genau so argumentieren oft Razor, RH und du Quasar in Bezug auf Nvidia. Das ist es ja, was die Fronten so verhärten lässt hier im Forum.

Du meinst vielleicht, du tust ja nur gegensteuern aber eigentlich bist du keinen Deut besser!!!
Laß mir bloß Quasar in Ruhe !
Er ist hier wohl noch derjenige, der am objektivsten über die hier diskutierten Themen schreibt.
Auch wenn er selber nie behaupten würde, objektiv zu sein. So wie es so einige andere hier tun...

Zeige mir bitte nur ein (vollständiges) Zitat, welches das von Dir behauptete belegt !

Razor

Quasar@Work
2003-05-05, 16:30:10
Originally posted by Unregistered


Quelle?

Das war im Übrigen ich.

Unregistered
2003-05-05, 18:10:10
Originally posted by Razor

Laß mir bloß Quasar in Ruhe !
Er ist hier wohl noch derjenige, der am objektivsten über die hier Diskutierten Themen schreibt.
Auch wenn er selber nie behaupten würde, objektiv zu. So wie es so einige andere hier tun...

Zeige mir bitte nur ein (vollständiges) Zitat, welches das von Dir behauptete belegt !

Razor

Auf so einem Egotrip möcht ich auch mal sein.

Selbsterkenntniss? Keine Spur.

Thowe
2003-05-05, 18:21:19
Originally posted by Unregistered


Auf so einem Egotrip möcht ich auch mal sein.

Selbsterkenntniss? Keine Spur.

Naja, eher Selbstwertgefühl ohne Ende und durchaus Ahnung und Hilfsbereichtschaft. Das passt schon und wer Razor kennt, der weiss wofür sein Name steht - das passt schon und ist gut so. =)

Richthofen
2003-05-05, 18:30:58
"
RH,

FX5200 -> 54 MIO Transis
FX5600 -> 75 MIO Transis
FX5800 -> 120 MIO Transis

ATI:

RV280 -> 36 MIO Transis
RV350 -> 60 MIO Transis
R350 -> 107 MIO Transis
"

Deine Zahl für den NV34 ist um knapp 10 Mio zu hoch gegriffen.
Er hat um die 45 Mio. Die Zahlen die ich gefunden habe bewegen sich zwischen 42 und 47 Mio.
Die Mehrheit der Hardwareseiten gibt 45 Mio an.
Darunter Hothardware, Extreemetech, tech-report usw..
Die werden wohl kaum alle so falsch liegen. Noch keiner hat deine Zahl genannt.

Unterm Strich bleib, ATi bietet kein DX9 im Low Cost an. Punkt aus Ende.

Piffan
2003-05-05, 20:01:39
Originally posted by Thowe


Naja, eher Selbstwertgefühl ohne Ende und durchaus Ahnung und Hilfsbereichtschaft. Das passt schon und wer Razor kennt, der weiss wofür sein Name steht - das passt schon und ist gut so. =)

Jepp! Hilfsbereit ist er und kein Dampfplauderer! Hat mich schon oft geholfen :D

LovesuckZ
2003-05-07, 18:53:45
PCGH hat das neue Aldi Notebook mit der 5200go getestet. Der interessanteste Teil ist dieser hier

Das eigentlich interessante am neuem Aldi-Notebook ist der DirectX-9-Grafikchip. Die Geforce FX Go 5200 leistet im Spiel Serious Sam II (Grosse Kathedrale) mit einer Auflösung von 1.024x768 Pixeln (Standard Mode, 32 Bit) 63 Bilder pro Sekunde. Im Quality Mode erreicht das Notebook 44 fps - ein passabler Wert. Beispielsweise das Xeron Sonic Pro X50 mit Pentium M 1,6 GHz (Centrino) und Ati Mobility Radeon 9000 (64 MB DDR) leistet im Standard Mode 75 und im Quality Mode 46 Bilder pro Sekunde.

Das ganze Review gibt es hier:
http://www.pcgames.de/?article_id=167260&page=1

Frank
2003-05-07, 19:09:13
ogott - Von wegen die Akkulaufzeit kommt vom Stromsparmodus. Aber was Akkukapazität ist, weiß der Tester hoffentlich.

3,5kg und 51db find ich viel interessanter. Maße ... scheinen den Tester nicht interessiert zu haben. Naja who cares. Will eh keiner das Schiff. :D

WeyounTM
2003-05-07, 19:14:15
Originally posted by Frank
3,5kg und 51db find ich viel interessanter.

51 db ??
:O

Da muss man sich ja bald (auch) für Schlepptopps eine Extra-Packung Ohropax zulegen ;) !

Richthofen
2003-05-07, 19:15:36
ich glaub da irrst du :)
Kann auch sein dass du es ironisch meinst aber die Lage sieht so aus, dass Business Hersteller wie IBM zwar wirklich tolle und auch kostspielige Notebooks liefern aber das Wachstum in anderen Märkten stattfindet und dazu gehören nunmal auch die Desktop Ersatz Notebooks und natürlich die Mobile All in One Teile.

Die Alid Teile trotz Desktop CPU gehen weg wie warme semmeln.
Stromverbrauch und Wärme interessiert bei den Privatkunden die wenigsten, weil sie einfach nur nen PC zum mitnehmen brauchen, Steckdose aber meisst vorhanden ist zb im Urlaub.

Die 5200 ist da schon eine feine Sache. Ausreichende Performance, nicht besonders warm und stromhungrig und DX9.
Netten Test gibts dazu zb hier:
http://www.penstarsys.com/Reviews/video/leadtek/fx5200/index.html

Ist aber keine Go Version sondern Desktop.

WeyounTM
2003-05-07, 19:20:01
Ich denke auch, dass das Teil seine Klientel finden wird. Als Business-Laptop ist der ja auch nicht gedacht. Allerdings könnte ich mich mit so einer Lärm- und Wärmequelle nicht anfreunden.

Überhaupt finde ich es erschreckend, dass neben normalen PCs nun auch die Notebooks zu Lärmbelästigern werden :|

StefanV
2003-05-07, 19:25:18
Originally posted by Frank
ogott - Von wegen die Akkulaufzeit kommt vom Stromsparmodus. Aber was Akkukapazität ist, weiß der Tester hoffentlich.

3,5kg und 51db find ich viel interessanter. Maße ... scheinen den Tester nicht interessiert zu haben. Naja who cares. Will eh keiner das Schiff. :D

1. nicht nur, auch die Qualität der Akkus spielt eine Rolle.
Allerdings denke ich kaum, daß irgendein Hersteller, der was auf sich hält irgendwelchen Billigschrott verbaut, wie es z.B. bei billigen Akkuschraubern der Fall ist...

2. :O

Da brauch ich das Medion NB garnicht erst mitzuschleppen, da kann ich ja gleich meinen mini Rechner auf Basis des A340 nehmen!!

LovesuckZ
2003-05-07, 19:42:02
Originally posted by Frank
3,5kg und 51db find ich viel interessanter.

Ich hab nur den relevanten Teil als "interessant" eingestuft, da es hier ja nicht primaer um die Lautstaerke und das Gewicht des gesamten Notebooks ging.
Für Kritik sind die Menchen bei der PCGH bestimmt dankbar, daher kannst ihn auch gerne deine "Verbesserungshinweise" schicken. :)

Freddy
2003-05-07, 21:59:45
Dieser Marketing-Schlepptop ist ein Muster für unausgewogenes Design! Mal abgesehen von Lärm und Gewicht, ist das Verhältnis CPU zu GPU einfach nur schlecht gewählt. Grundsätzlich gehört zu einer leistungsfähigen CPU eine ähnlich leistungsfähige GPU, sonst bremst einer den anderen aus. Ein P4-Mobile mit 2GHz wäre für den FX5200Go noch immer zu schnell gewesen. Einem P4 2,6GHz sollte daher ein 5600Go oder 9600Mobility zur Seite gestellt werden. Die gibt's zwar noch(!) nicht, aber das ändert nichts an der bescheidenen Abstimmung, die in diesem Marketing-Krachmonster enden musste. 1,5kEur mögen zwar als nicht viel für diesen Notebook erscheinen, doch Zocker sollten das Geld besser in einen Desktop Rechner investieren und wer würde dann ernsthaft eine untertaktete FX5200 (230MHz) mit einem P4-2,6 GHz kombinieren? Diejenigen, die einen "echten" Notebook brauchen, werden mit der Brüllpflunder bestimmt nicht glücklich werden. Vielleicht sollte man noch anmerken, dass die Desktop CPU nicht immer bei 2,6GHz laufen wird, da der Akku die dazu benötigten Saftspitzen bestimmt nicht liefern kann. Gehört vielleicht auch zu den relevanten Anmerkungen, die sich PCGH bei der Komposition ihres Lobliedes verkniffen haben. Eine differenzierte Beurteilung wäre hier ganz sich angebracht gewesen.

Mein Beileid für die Käufer dieses 'nicht Fisch und nicht Fleisch' Produktes.

Freddy

Piffan
2003-05-07, 22:07:26
Originally posted by Freddy
Dieser Marketing-Schlepptop ist ein Muster für unausgewogenes Design! Mal abgesehen von Lärm und Gewicht, ist das Verhältnis CPU zu GPU einfach nur schlecht gewählt. Grundsätzlich gehört zu einer leistungsfähigen CPU eine ähnlich leistungsfähige GPU, sonst bremst einer den anderen aus. Ein P4-Mobile mit 2GHz wäre für den FX5200Go noch immer zu schnell gewesen. Einem P4 2,6GHz sollte daher ein 5600Go oder 9600Mobility zur Seite gestellt werden. Die gibt's zwar noch(!) nicht, aber das ändert nichts an der bescheidenen Abstimmung, die in diesem Marketing-Krachmonster enden musste. 1,5kEur mögen zwar als nicht viel für diesen Notebook erscheinen, doch Zocker sollten das Geld besser in einen Desktop Rechner investieren und wer würde dann ernsthaft eine untertaktete FX5200 (230MHz) mit einem P4-2,6 GHz kombinieren? Diejenigen, die einen "echten" Notebook brauchen, werden mit der Brüllpflunder bestimmt nicht glücklich werden. Vielleicht sollte man noch anmerken, dass die Desktop CPU nicht immer bei 2,6GHz laufen wird, da der Akku die dazu benötigten Saftspitzen bestimmt nicht liefern kann. Gehört vielleicht auch zu den relevanten Anmerkungen, die sich PCGH bei der Komposition ihres Lobliedes verkniffen haben. Eine differenzierte Beurteilung wäre hier ganz sich angebracht gewesen.

Mein Beileid für die Käufer dieses 'nicht Fisch und nicht Fleisch' Produktes.

Freddy

Gut zusammengefasst! Das Ding versucht alle Wünsche auf einmal zu befriedigen: Ultra- Leistung, Universalität und Mobilität.....Imho ist man da mit einem Mini-Pc (Barebone oder wie nennt man die doch gleich) und TFT besser dran, da kann man die Zusammentstellung noch in Grenzen bestimmen...Aber dieser Koffer von Medion ist weder praktikabel für den Außeneinsatz (es sei denn man hat Kraft und Ausdauer im Überfluss) noch kann es mit einem Gamer- Pc mit besserer Graka konkurrieren...

StefanV
2003-05-07, 22:16:50
hier noch ein anderer Thread, mit einem äußerst interessanten Testbericht, den Richthofen verlinkt hat.

http://forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=69462

Razor
2003-05-07, 23:55:08
Originally posted by Frank
ogott - Von wegen die Akkulaufzeit kommt vom Stromsparmodus. Aber was Akkukapazität ist, weiß der Tester hoffentlich.

3,5kg und 51db find ich viel interessanter. Maße ... scheinen den Tester nicht interessiert zu haben. Naja who cares. Will eh keiner das Schiff. :D
3,5kg ?
:bonk:

Da hat Aldi ja wohl tatsächlich wieder ein echtes 'Schlepptop' heraus gebracht...

"Im Kombo mit 'ner 12V Auto-Batterie eine akzeptabele Laufzeit und im Samsonite Reisekoffer auch platzsparend unter gebracht !"
;D

Razor

Eazy
2003-05-08, 09:05:47
Originally posted by Richthofen
ich glaub da irrst du :)
Kann auch sein dass du es ironisch meinst aber die Lage sieht so aus, dass Business Hersteller wie IBM zwar wirklich tolle und auch kostspielige Notebooks liefern aber das Wachstum in anderen Märkten stattfindet und dazu gehören nunmal auch die Desktop Ersatz Notebooks und natürlich die Mobile All in One Teile.


IBM liefert tolle Notebooks???
Mit den Teilen kannste jemand erschlagen!!!
Hast Du schon mal das A31p gesehen?
Ist zwar gut ausgestattet (P4, 512/1GB RAM...) aber
verdammt groß und schwer. (Größer als das alte ALDI Notebook!)

Gruß
Eazy

Frank
2003-05-08, 10:06:26
Originally posted by Eazy


IBM liefert tolle Notebooks???
Mit den Teilen kannste jemand erschlagen!!!
Hast Du schon mal das A31p gesehen?
Ist zwar gut ausgestattet (P4, 512/1GB RAM...) aber
verdammt groß und schwer. (Größer als das alte ALDI Notebook!)

Gruß
Eazy
Das A der A Serie heißt ja nicht umsonst A wie AllInOne. Es ist als Desktopersatz gebaut wurden und hat im Gegensatz zu den restlichen Desktopbrudern zb zwei Ultrabays ... Zudem hört die Palette bei der A Serie nicht auf.

Und richtig - mit dem Titangehäuse kann man jemanden erschlagen ohne dass das Ding kaputt geht.

Richthofen
2003-05-08, 10:30:23
ja da muss ich Frank recht geben.
Die A Serie ist genauso wie mein Compaq Evo N1015v ein All in One Notebook mit Mobile Prozessor.
Die Teile wiegen immer so um die 3 kg, bieten aber dafür eben unheimlich viel.
So viel bekommt man in einem Thin and light oder klassischen gehobenem Business Notebook nicht unter.

Also die Verarbeitung, Komponenten usw.. sind bei IBM Top da gibts nix zu rütteln. Für einen Geschäftskunden, bei dem nicht jeder Dollar zählt erste Wahl.

Allerdings muss ich auch sagen, dass IBM für den Privatkunden nix bietet bis jetzt.
Die A Serie ist zwar All in One und geht in die Richtung, ist aber viel zu teuer für das was sie bietet.
Bei anderen Markenherstellern bekomme ich fürs gleiche Geld eine deutlich bessere Ausstattung auf der ganzen Front.
Das ist eben dann der Nachteil bei IBM.
Für den Privatkunden sind die nur bedingt tauglich. Das sind Compaq, Siemens, Acer und Asus besser geeignet.

DrumDub
2003-05-08, 10:50:41
von 3d-grafik hat ibm auch noch nichts gehört... ;)

Frank
2003-05-08, 10:59:57
Originally posted by DrumDub
von 3d-grafik hat ibm auch noch nichts gehört... ;) FireGL 9000, FireGL 7800, Radeon 7500 Mobility, Radeon M6 ... hmmm
Aber bei der Thinkpad Website hast du vorher nachgeschaut um deiner Aussage mal eine Basis zu verschaffen? ts'ss

DrumDub
2003-05-08, 11:32:00
jaaa... aber verglichen mit anderen firmen sind die noch nicht so weit... den ati m10 oder geforce 4 go gibts bei denen noch nicht... und die g-serie it ja wohl auch eher nen witz, wenn auch vergleichsweise günstig für ibm...

StefanV
2003-05-08, 12:43:10
@Drub

Den M10 gibts momentan noch bei keinem Hersteller, was daran liegt, daß es den M10 momenta nur als Samples gibt...

BTW: ganz ab davon wäre es für IBM sicher kein Problem den M10 einzusetzen, da er vermutlich Pinkompatibel zum Vorgänger ist...

DrumDub
2003-05-08, 13:02:08
hehe.. okay... das stimmt natürlich...

ich bin aber dennoch der meinung, dass ibm recht spät auf den 3d-zug aufgesprungen ist. dell war da schneller (z.b. geforce 2 go)...

WeyounTM
2003-05-08, 17:29:18
Die Frage die sich natürlich in dem Zusammenhang stellt: will die Klientel von IBM eigentlich solche Dinger wie GeforceFX5200 und Co ? Ich denke, dass IBM eine ganz andere Zielgruppe hat als potentielle "Gamer".

Frank
2003-05-08, 18:48:31
Die G Serie ist ziemlich neu und in meinen Augen auch eher LowLowLowCost. Die R Serie ist ja schon Lowcostnachfolger der i Serie gewesen - aber die G Serie ... ts'ss

ps. IBM verbaut keine nVidia Hardware. Kannst dir jetzt aussuchen warum - aber der Aufdruck nV ist bis jetzt in keinen Thinkpad gelandet. Zumal damals der ATI M4 eigentlich auch schon akzeptable Performance geliefert hat - auch im Vergleich zum GF2go.

LovesuckZ
2003-05-17, 08:27:22
Anscheinend kommt der FX - Zug nun richtig ins Rollen. Nach dem Aldi mit ihrem letzten Notebook schon die 5200go eingeetzt hat, zieht nun Lidl mit ihrem neuen PC nach: Sie verbauen die 5600 mit 128MB.

http://www.lidl.de/de/index.nsf/pages/c.o.oow.20030521.p.Targa_Visionary_AMD_Athlon_XP_2700

Ich denke mal, dass passt hier noch so rein, denn fuer ein extra Thread waere es nen bissl laecherlich.

Braincatcher
2003-05-17, 11:35:07
Erklär mir mal einer bitte den Sinn eines Dx9-Notebooks...

Richthofen
2003-05-17, 11:47:15
na wer sich jetzt ein Notebook kauft, nimmt doch lieber gleich DX9, wenn er ein wenig wert auf Grafik legt.
Ich glaube nicht, dass sich jeder jedes Jahr ein neues Notebook kaufen will.
Longhorn steht 2005 an. Wer sein Notebook da immer noch haben will, der nimmt doch lieber gleich DX9. Dazu muss er ja nichtmal Spieler sein.
Wenn es das zu vernünftigen Preisen gibt, ist es doch ok.

Bei meinem Kauf vor 3 Wochen stand das nicht zur Debatte, da ich auf Grafik nur wenig Wert lege bei einem Notebook und da dieses aus der Not heraus schnell gekauft werden musste und da von DX9 Notebooks noch nichts zu sehen war. Das Teil von Aldi mit Desktop CPU war für mich keine Wahl.
Ich will Leistung satt im Notebook auf der CPU Front aber trozdem halbwegs spaarsam sein und da führt momentan am Mobile Athlon nix vorbei. Der Centrino ist zu teur und bietet auch nicht die Leistung die ich haben will und der P4 ist ein reines Heizkraftwerk mit sattem Stromverbrauch.

Ich bin wirklich erstaunt wie gut das Compaq Evo ist. Der Lüfter läuft bei mir so gut wie überhaupt nicht. Es ist äußerst selten, dass der mal an ist. Und bei mir ist ein Mobile XP2000+ drinne, also schon die etwas leistungsfähigere Kategorie. Zwar nicht das Maximum was es momentan gibt aber schon gehobene Kategorie.
Kann das Notebook nur jedem empfehlen, sofern er auf Grafik nicht so den wert legt.

aths
2003-05-17, 17:48:07
Originally posted by Richthofen
na wer sich jetzt ein Notebook kauft, nimmt doch lieber gleich DX9, wenn er ein wenig wert auf Grafik legt.Das glaube ich nicht, denn...
Originally posted by Richthofen
Ich glaube nicht, dass sich jeder jedes Jahr ein neues Notebook kaufen will.
Longhorn steht 2005 an. Wer sein Notebook da immer noch haben will, der nimmt doch lieber gleich DX9.Longhorn braucht für Tier2-Grafik nicht nur DX9, sondern auch AGP x8. Und sehr viel RAM. Welcher Notebook-Besitzer kauft 2005 extra Longhorn und rüstet seinen RAM auf? Das ist doch ähnlich blöd, als würde man 2001 eine Graka für Doom3 kaufen...

Richthofen
2003-05-17, 18:34:03
Das kannst du nicht vergleichen, weil sich keinder hinstellt und sagt er kauft sich 2005 ein Notebook. Wer heute ein Notebook braucht und sich das kauft, der wird wohl kaum in 1,5 Jahren sich wieder ein neues kaufen wollen nur weil die Graka nicht mehr reicht für den vollen Genuss. Der ist doch mit einer Low Cost DX9 lösung dann besser bedient.
Ob er sich Longhorn kauft? K.a. wer kauft sich im privaten Markt überhaupt MS Betriebssysteme original?
Die meissten dürften sich das doch eher brennen, es sei denn sie kaufen ein neues Gerät und das OS ist dabei.
Insofern bist mit einer DX9 Graka einfach besser bedient. Wenn es das kostengünstig gibt, wieso soll ich dann eine GF4Go, Trident, oder Radeon bzw, Rage Variante nehmen.

Unregistered
2003-05-17, 18:38:15
Originally posted by Richthofen
Das hier aber hat nur ne FX5200Go und die ist noch 0.15.
Toshiba hat aber zb. Die Verfügbarkeit eines Notebooks mit FX5600Go bekannt gegeben.
Bei den Mobiles scheint Nvidia ziemlich schnell gewesen zu sein.
Liegt wahrscheinlich auch daran, dass die Einbauzeiten kürzer sind als wie bei RetailGrakas, wo erstmal jeder in der Welt versorgt werden muss und die Hersteller dann in Eigenregie bauen und liefern und nicht zentral wie bei Notebook Herstellern.

Ich habe sogar schon ein Toshiba Book mit der FX in Actiion gesehen, wenn ich mich nicht irre war das der 5600er *ggg*
Was mich bei diesen Book aber beindruckt hat war das hammermäsige TFT Display.
Endlich mal ein brauchbares in diesen Bereich.

Gruss Labberlippe

Unregistered
2003-05-17, 18:39:51
Originally posted by LovesuckZ


Das passt aber irgendwie nicht dazu:

Also wenn da wirklich eine GeforceFX Go drin ist will ich nicht so Reklamationen nach einer Woche sehen weil sich die Hälfte der Kunden die Eier weggebruzelt hat!

Tut es auch nicht das Toshiba book war im dauerbetrieb während ein Schulung und hat keine Mucken gemacht.

Gruss Labberlippe

aths
2003-05-17, 18:47:24
Originally posted by Richthofen
Das kannst du nicht vergleichen, weil sich keinder hinstellt und sagt er kauft sich 2005 ein Notebook. Wer heute ein Notebook braucht und sich das kauft, der wird wohl kaum in 1,5 Jahren sich wieder ein neues kaufen wollen nur weil die Graka nicht mehr reicht für den vollen Genuss. Wer mit einem Notebook arbeitet, braucht keinen "vollen Genuss" was Grafik angeht. 2005 mögen Notebooks leistungsfähig genug sein, um den Longhorn-Tier2-Overhead wegzustecken. Heutige Notebooks halte ich für zu schwachbrüstig.
Originally posted by Richthofen
Der ist doch mit einer Low Cost DX9 lösung dann besser bedient.Ist die FX 5200 Go denn mit 8x AGP angeschlossen? Hat sie, und das restliche Notebook wirklich die Leistung für ruckelfreie Tier2-Effekte? Möchte man überhaupt bei einem Notebook Leistung für diesen Schnullifax verballern, oder reicht es nicht aus, dass Longhorn prinzipiell läuft?
Originally posted by Richthofen
Ob er sich Longhorn kauft? K.a. wer kauft sich im privaten Markt überhaupt MS Betriebssysteme original?Ja, man kauft sich das meistens nur, wenn es bei einem neuen Rechner dabei ist. Sollten 2005 Notebooks mit Longhorn kommen, kann man vielleicht anfangen darauf zu achten ob die Hardware Tier2-fähig ist.
Originally posted by Richthofen
Insofern bist mit einer DX9 Graka einfach besser bedient. Wenn es das kostengünstig gibt, wieso soll ich dann eine GF4Go, Trident, oder Radeon bzw, Rage Variante nehmen. Bekommt man das DX9-Feature im Notebook wirklich ohne Aufpreis? Wie sieht es mit der 3D-Leistung aus, verglichen mit der Konkurrenz?

ScottManDeath
2003-05-22, 18:29:04
Hi

also ich werde mir im Juli / August ein Laptop mit GFFX 5600 go holen, da ich zu meinem Praktikum schlecht meinen desktop mitnehmen kann.
Für mich als Spieler und OpenGL Programmierer ist die Grafikleistung entscheidend. Geringer Stromverbrauch ist nettes Feature, wenn mit 3D dann aber mit Steckdose.
Da ich bis jetzt mit meiner Geforce4TI nur mit NV30 Emulation gearbeitet habe möchte ich im Laptop auch nicht wieder eine DX8 karte haben. ATI werde ich nicht nehmen, da diese z.T. andere Extensions als NV hat, ist halt die Macht der Gewohnheit.

Die FX 5200 muss nicht unbedingt sein, für die mit Ansprüchen gibts dann eben die FX5600 bzw dir R9600


Bye
ScottManDeath

Gast
2003-05-27, 21:53:46
Original geschrieben von LovesuckZ
Dann frage ich mich, warum man bei Notebooks überhaupt 3D Funktionen benoetigt. Denn das Spiel Technologie = Speed wird wohl immer so weiter gehen: M9 -> DX8 oder 5200go -> DX9.


Kann ich dir sagen. Weil so Leute wie ich einerseits Spiele spielen wollen, und anderseits auf die Mobilität und das nichtvorhandensein eines "fetten" Rechners Wert legen. Zu deutsch: Wer das Geld und den Spaß hat, ersetzt seinen Desktoprechner durch einen Laptop.

P.S.: Sehr praktisch bei LANs. :D