PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grfikkarten für CAD-Anwendungen


Unregistered
2001-04-13, 13:56:26
Kann mir jemand einen Tip geben, welche GraKa für CAD-Anwendungen wie z.B. Pro-E, Catia gut geeignet und vor allen Dingen erschwinglich ist?
Bedankt Guest!

StefanV
2001-04-13, 14:01:10
Fire GL2, oder auch die Fire GL1.

Eine Professionelle 3D-Karte fängt erst bei 2000DM an...

Bei http://www.Tomshardware.de gabs letztens einen Test zu Professionellen Karten...

Susi
2001-04-13, 14:31:10
Erschwinglich wohl eher die aktuellen Grafikkarten,
die Spielekarten sind eigentlich auch bestens dafür
geeingnet, musst halt schauen, dass sie genügend
RAM hat sonst rechnet sie zu lange rum.
Dauerte früher bei mir mal 5 min.
Die richtig teuren solltest du wirklich nur dann nehmen
wenn die files mehrere 100 MB groß sind, an denen du
rumarbeitest.

StefanV
2001-04-13, 15:07:40
Stimmt, die Aktuellen Grafikchips mit T&L Einheit gehen dafür auch, aber es ist ja auch eine Frage der Stabilität/Optimirung der Treiber und da können die 'Konsumer' Karten nunmal nicht mithalten...

Aber prinzipiell ist es möglich.

Susi
2001-04-13, 18:33:52
Wieso T&L ???

John Woo
2001-04-13, 18:35:35
Originally posted by Stefan
Stimmt, die Aktuellen Grafikchips mit T&L Einheit gehen dafür auch, aber es ist ja auch eine Frage der Stabilität/Optimirung der Treiber und da können die 'Konsumer' Karten nunmal nicht mithalten...

Aber prinzipiell ist es möglich.

Hmm,

da gibt es doch den Hack für die Geforce *hust*.
Lieber ne Radeon, die macht ein sehr gutes Bild, dann sieht die Welt nicht so matschig aus :)

bushMills
2001-04-13, 19:03:10
hehe..o)

jo finde auch das eine nvidia basierte opengl-karte verboten werden muesste..o) grade da braucht man ja ein gutes bild... und somit diqualifziert sich eine geforce .. mit oder ohne hack von selbst..o)

zum spielen gehts ja vieleicht nochmal.. aber zu mehr auch nicht...ausser zum verschenken an leute die

a. man nicht leiden kann...o)

b. deren augen noch so gut sind das sie schon immer eine brille haben wollten.. und dies kuenstlich forcieren moechten..o)

c. die sonst keine probleme haben ..o) dann haben sie wenigstens mal eines..o)

StefanV
2001-04-13, 21:36:31
@bushMills

Oder die, die einen ALDI oder Wohnwagen Kompatiblem Monitor aus Käse Land haben (Philips), oder andere billig Marken...

Jedenfalls denen, die den Unterschied zwischen einer Matrox und eine NoName NVidia nicht merken würden...

Andre
2001-04-13, 22:13:10
Da haben sich 2 Richtige gefunden ! *LOL*

ow
2001-04-14, 00:33:24
Originally posted by Stefan
Fire GL2, oder auch die Fire GL1.

Eine Professionelle 3D-Karte fängt erst bei 2000DM an...

Bei http://www.Tomshardware.de gabs letztens einen Test zu Professionellen Karten...

Jetzt bist du wohl völlig durchgeknallt:)


Profikarten fangen bei TNT2 Chips an.
Zu empfehlen ist alles mit T&L von NVidia.
MUSS keine Quadro-Karte sein.

bushMills
2001-04-14, 02:41:03
hmm... also ich fand den test der opengl.graka's in der c't besser.. die kamen ja teilweise zu ganz anderen ergebnissen, soweit ich mich erinnern kann...als der gute tom..o)

www.heise.de da ma suchen nach artikeln und schon siehste wo drin stand.. falls es dich interessiert und du mir die nummer der c't sendest... kann ich ja mal aufn boden gehen und schauen ob ich die finde..o)

ich will ja nicht umsonst danach suchen...o) also schreib mal was rein und dann sehe ich ja das es dich wirklich interessiert..o)

StefanV
2001-04-14, 12:17:03
Wenn die Karten nichts Berechnen sollen, dann spricht eigentlich auch nichts gegen eine Matrox G450...

Aber wenn sie etwas berechnen soll, und damit Geld verdient wird, dann ist ein Professioneller 3D-Beschleuniger nicht verkehrt...

Auch ATI steigt in diesen Bereich ein...

John Woo
2001-04-14, 22:55:09
Originally posted by Stefan
Wenn die Karten nichts Berechnen sollen, dann spricht eigentlich auch nichts gegen eine Matrox G450...

Aber wenn sie etwas berechnen soll, und damit Geld verdient wird, dann ist ein Professioneller 3D-Beschleuniger nicht verkehrt...

Auch ATI steigt in diesen Bereich ein...

Ich hab ne Radeon 64MB ViVo unter W2k mit SolidWorks u.ä. beruflich im Einsatz. Die Performance ist o.k., und die Bildqualität auf meinem Monitor Sony F500R bei 1600*1200 und 32Bit@85Hz excelllent. Ich empfehle unbedingt die Verwendung eines RGB-Kabels, Sub-D ist da einfach matschig.

StefanV
2001-04-14, 23:02:24
Originally posted by John Woo


Ich hab ne Radeon 64MB ViVo unter W2k mit SolidWorks u.ä. beruflich im Einsatz. Die Performance ist o.k., und die Bildqualität auf meinem Monitor Sony F500R bei 1600*1200 und 32Bit@85Hz excelllent. Ich empfehle unbedingt die Verwendung eines RGB-Kabels, Sub-D ist da einfach matschig.

Wenn der Monitor denn einen RGB-Eingang hat...

bushMills
2001-04-15, 09:58:13
tstsss.. das mit dem vga-kabel und matschig, mag ich doch aber mal bezweifeln..o)

rgb-kabel sind erstens viel anfaelliger, 2. teuerer..ausser man baut sich selbst eins..und das da bessres bild rauskommt...ich habe das noch nirgends gesehen. das ist noch so eine geschichte aus lang-vergangenen zeiten, sprich ein maerchen..o)

haette nicht gedacht, das diese geschichte noch heute erzaehlt wird und eventl. anklang findet..o)

muss ich doch gleichmal los und schauen, ob ich rotkaeppchen im wald vernaschen kann..o)

Unregistered
2001-04-15, 14:30:39
Originally posted by bushMills
tstsss.. das mit dem vga-kabel und matschig, mag ich doch aber mal bezweifeln..o)

rgb-kabel sind erstens viel anfaelliger, 2. teuerer..ausser man baut sich selbst eins..und das da bessres bild rauskommt...ich habe das noch nirgends gesehen. das ist noch so eine geschichte aus lang-vergangenen zeiten, sprich ein maerchen..o)

haette nicht gedacht, das diese geschichte noch heute erzaehlt wird und eventl. anklang findet..o)

muss ich doch gleichmal los und schauen, ob ich rotkaeppchen im wald vernaschen kann..o)

Hmmpf,

wird wohl von IBM keinen Hintergrund haben das ihre Alpha-Workstations für Catia immer mit Sony-Monitor und RGB-Kabel kommen. Der Pixeltakt bei ner hohen Auflösung mit höher Wiederhohlrate ist gewaltig, da kommt es im Sub-D-Kabel zu Interferenzen.
im übrigen: so ne geleaste Workstatio kostet samt Software ca. 80.000 DM wobei Catia schon im Relase 4 ca. 70.000 kostet ;)

Da lohnt sich das leasen wirklich...

bushMills
2001-04-15, 20:16:18
der hintergrund wird sein, das sie das zeug noch auf halde haben.. geben ihm ein anschein von exclusivität... und stelln dir dann monster 20" mit festfrequenz für 1280x1024 hin.. wo das teil nur 75 hz bringt...o)(wurden letzte woche an einer bekannten dt. uni aufn müll geworfen .o)

ein preis sagt noch lange nix über die güte des products ..o)

aktuelle beispiele findet man immer ..o)

hehe ich kenne noch die zeit wo mein bruder sein damals echt monser monitor 17" mit rgb-kabeln betrieb.. andauernd sind die scheisskabel kaputtgegangen.. wie gesagt.. rgb isn relikt aus vergangen zeiten und sollte von leuten mit gesundem menschenverstand weiträumig umgangen werden..o)

blacky
2001-04-16, 10:34:11
das halt ich ehr fürn gerücht

wenn ich meinen vision Master pro 450 unter 1600x1200 betreibe SIEHT man den unter schied aber gewaltig zuungunsten des d-sub kabels

es kann sein das ich nen billiges d-sub erwischt hab, aber die 59 dm für das rgb-kabel sind IMHO eine sinnvollere investition als irgendwelche wärmepaste mit silberanteil die die durchsch. temp. um 3 grad senken ?-)

Thowe
2001-04-16, 11:05:12
Erst mal zum eigentlichen Thema, auch wenns mir nicht gefällt wirklich die Nvidia GeForce2.

Zum Thema Kabel, es gibt sehr gute Sub-D Kabel wo V/H/R/G/B einzelnt doppelt geschirmt sind und die haben dann eine ähnliche Qualität wie ein gutes RGB-Kabel. Beide Kabel haben aber etwa den gleichen Preis, ich persönlich würde dann aber doch lieber zum RGB greifen.

Das ganze Thema scheitert natürlich an schlechten Grafikkarten und oder Monitore. Wobei die Grafikkarten heute eigentlich häufig gute Signalpegel/Stärke liefern, z.B. die Radeon. Die Qualität der Monitore hat wirklich massiv nachgelassen, vor allem wenn die schon ein jährchen auf den Buckel haben.

John Woo
2001-04-16, 11:19:00
Originally posted by Thowe
Erst mal zum eigentlichen Thema, auch wenns mir nicht gefällt wirklich die Nvidia GeForce2.

Zum Thema Kabel, es gibt sehr gute Sub-D Kabel wo V/H/R/G/B einzelnt doppelt geschirmt sind und die haben dann eine ähnliche Qualität wie ein gutes RGB-Kabel. Beide Kabel haben aber etwa den gleichen Preis, ich persönlich würde dann aber doch lieber zum RGB greifen.

Das ganze Thema scheitert natürlich an schlechten Grafikkarten und oder Monitore. Wobei die Grafikkarten heute eigentlich häufig gute Signalpegel/Stärke liefern, z.B. die Radeon. Die Qualität der Monitore hat wirklich massiv nachgelassen, vor allem wenn die schon ein jährchen auf den Buckel haben.

Ausgerechnet die Geforce2 die für matschige Bilder bekannt ist, Hercules mag noch gehen, selbst Elsa hat da Probleme.

Um jetzt letztmalig meinen Senf dazuzugeben, ich hab auf der Arbeit auch mit ner Elsa Gloria XXL gearbeitet, die wahr von der Bildqualität ok, aber die Quadros/Geforce lassen echt zu wünschen übrig. Ist auch kein Wunder, da jder No-Name-Hersteller Geforce-Chips auf seine Karten knallt, und da ist nur über den Preis was zu machen. Vor allem wo ne Quadro 4000 DM kostet ist das nen bisschen mager. Da kann auch der Treiberaufwand nicht geltend gemacht werden, die Boards sind vom Layout sonst gleich.

Thowe
2001-04-16, 11:40:46
@John Woo

Richtig die Elsa ist nicht OK, liegt auch daran das die ja nicht mehr selber bauen - die meisten Karten kommen von Visiontek. Aber mit den Asus Karten hatte ich eigentlich noch nie echte Probleme zumindest nicht zusammen mit den Eizo F980, aber ansonsten bleibt eh nur der Griff zu Permedia, IBM und Co.

Unregistered
2001-04-16, 11:48:52
aehm ich muss jetzt ma "fragen"

ist die Definition einer "profi" karte nicht die, das diese Karten eine Vollständige Implementation der OpenGL ICD besitzen (was wohl auch die basis des Quadro Hacks ist) und nicht nur eine Rudimentäre wie es die Customer Karten besitzen? Und haben Profi Karten nicht auch ein oder mehr Geometrie Prozessoren ? (nicht vergleichbar mit T&L vom Befehlsumfang her denke ich).

zum Thema T&L muss ich auchma nochwas loswerden.

Ist es nicht einen gedanken wert, dass T&L eher ein Marketing Begriff oder ein sinnvolles Feature fuer Rechner der 500 Mhz Generation ist ?
Wie soll eine mit 200 Mhz getaktete T&L Unit so schnell sein wie eine 1,2 Ghz CPU ? durch einen 6 fachen Speedup ? ich denke nicht, denn die GPU's haben ja auch noch ne menge nebenbei zu tun, (texturen und so :).

Also mir ist egal ob T&L oder nicht, wenn ich ne GraKa innen 1.2 Ghz TP stecke und die is da schneller als ne andere, das is das die bessere. Dabei faellt bei nicht T&L Chips vielleicht nebenbei noch ne 1.2 Ghz CPU und ein Board ab, kostet ja zusammen ca. 1000 DM ... immernoch billiger als GF3 :)

bushMills
2001-04-16, 11:52:24
thema t&l gibst hier jede menge infos..o)

http://www.3dconcept.ch/

Unregistered
2001-04-16, 13:19:13
Originally posted by Unregistered
aehm ich muss jetzt ma "fragen"

ist die Definition einer "profi" karte nicht die, das diese Karten eine Vollständige Implementation der OpenGL ICD besitzen (was wohl auch die basis des Quadro Hacks ist) und nicht nur eine Rudimentäre wie es die Customer Karten besitzen? Und haben Profi Karten nicht auch ein oder mehr Geometrie Prozessoren ? (nicht vergleichbar mit T&L vom Befehlsumfang her denke ich).

zum Thema T&L muss ich auchma nochwas loswerden.

Ist es nicht einen gedanken wert, dass T&L eher ein Marketing Begriff oder ein sinnvolles Feature fuer Rechner der 500 Mhz Generation ist ?
Wie soll eine mit 200 Mhz getaktete T&L Unit so schnell sein wie eine 1,2 Ghz CPU ? durch einen 6 fachen Speedup ? ich denke nicht, denn die GPU's haben ja auch noch ne menge nebenbei zu tun, (texturen und so :).

Also mir ist egal ob T&L oder nicht, wenn ich ne GraKa innen 1.2 Ghz TP stecke und die is da schneller als ne andere, das is das die bessere. Dabei faellt bei nicht T&L Chips vielleicht nebenbei noch ne 1.2 Ghz CPU und ein Board ab, kostet ja zusammen ca. 1000 DM ... immernoch billiger als GF3 :)


1) Auch Konsumerkarten haben eine vollständige OpenGL ICD Umsetzung (Ausnahme: 3Dfx).


2)T&L = Geometrieprozessor!!

3)6-facher speedup?? NEIN. HW T&L ist etwa 100 mal so schnell wie SW T&L.

bushMills
2001-04-16, 13:53:49
ct 26/00 s. 180: die aktuelle generation der prof. 3d-grafikkarten führt auch t&l durch - und zwar etwa 10fach schneller, als es die cpu vermag. man muss also keine ghz-cpu einsetzen, unm 3d-objekte aus 100 000 polygonen flüssig in der 3d-view zu positionieren.

.o)

als "testsieger" gemischtes bild:

fire gl3 - 3dstudio max r3

gloria 3 - indy3d

oxygen gvx1pro/gvx420 - solidworks 2000

gloria 3 - view perfect 6.1.2

empfehlung fuer gleichmässige leistung.. fire gl 3
bildquali war nichso doll, aber war noch vorserienmuster.

firegl2 un gloria 3 hatten auch signalschwierigkeiten...
nunja bei einer nvidia ist das ja nix neues..o)