PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gary Tarolli verläßt NV!


MadManniMan
2003-04-01, 19:08:42
hier mal ein ausschnitt der news auf www.within3d.de...

Doch ein solches Engagement kann ganz offensichtlich auch zu internen Problemen führen: So hat uns die Meldung erreicht, dass bei NVIDIA insgesamt 14 Ingenieure ihre Kündigung eingereicht haben – aus Protest an der indirekten Beteiligung des Unternehmens am Irak-Krieg. In dieser Gruppe befinden sich auch Gary Tarolli...

...ich nehme bei dieser thematik mal nicht an, daß es sich hier um einen aprilscherz handelt.

Salvee
2003-04-01, 19:15:23
:o
nVidia = teh evil, ich wusste es schon immer...:|

Wenn das ein Scherz ist, dann der übelste von allen heute.

ow
2003-04-01, 19:20:57
Originally posted by MadManniMan
hier mal ein ausschnitt der news auf www.within3d.de...


...ich nehme bei dieser thematik mal nicht an, daß es sich hier um einen aprilscherz handelt.

Ich schon.:D

StefanV
2003-04-01, 19:22:33
Originally posted by ow
Ich schon.

'ein paar' der wichtigsten NV Entwickler können ja auch nicht zum 'Feind' (=ATI oder MGA) überlaufen, nein, DAS geht nun wirklich nicht.

Raff
2003-04-01, 19:25:47
Wer heute irgend einer vermeintlich ungewöhnlich-interessanten Newsmeldung auch nur ein Fünkchen Glauben schenkt, ist selbst schuld... Ich glaube heute aus Prinzip nichts und niemandem ;)

MfG
Raff

Omnicron
2003-04-01, 19:26:38
Originally posted by MadManniMan
hier mal ein ausschnitt der news auf www.within3d.de...

Doch ein solches Engagement kann ganz offensichtlich auch zu internen Problemen führen: So hat uns die Meldung erreicht, dass bei NVIDIA insgesamt 14 Ingenieure ihre Kündigung eingereicht haben – aus Protest an der indirekten Beteiligung des Unternehmens am Irak-Krieg. In dieser Gruppe befinden sich auch Gary Tarolli...

...ich nehme bei dieser thematik mal nicht an, daß es sich hier um einen aprilscherz handelt.

Welche Beteiligung hat NV denn am Irak Krieg ? :|

Demirug
2003-04-01, 19:29:17
Originally posted by Stefan Payne


'ein paar' der wichtigsten NV Entwickler können ja auch nicht zum 'Feind' (=ATI oder MGA) überlaufen, nein, DAS geht nun wirklich nicht.

Wohl kaum den auch von diesen Firmen wurde schon Chips im Millitär umfeld verbaut.

Zudem enthält die News sowieso einen Fehler. NVIDIA verkauft nicht direkt ans millitär. Das Millitär kauft teilweise bei Quantum3D und die kaufen dann bei NVIDIA Chips ein wenn die alte 3dfx chips die man dort scheinabr noch in massen hat dafür nicht taugen.

Unregistered
2003-04-01, 19:46:34
...und Matrox schaffte es nur so lange zu überleben, da sie enge Verflechtungen mit dem US-amerikanischem Militär haben. Kein Sch1ce.

Lolman

Braincatcher
2003-04-01, 19:56:04
Originally posted by Omnicron


Welche Beteiligung hat NV denn am Irak Krieg ? :|
->Amerikaner...;)

MadManniMan
2003-04-01, 20:16:04
Originally posted by Braincatcher

->Amerikaner...;)

man lese einfach mal die news komplett

Demirug
2003-04-01, 20:46:33
Originally posted by Omnicron


Welche Beteiligung hat NV denn am Irak Krieg ? :|

In irgendeinem Kampfjettype sind Geforce2Go Chips für die Displays verbaut.

Unregistered
2003-04-01, 20:49:04
meinst du die benutzen beim militär primitives mainstream 3d zeugs?!

LovesuckZ
2003-04-01, 20:49:10
Originally posted by Demirug
In irgendeinem Kampfjettype sind Geforce2Go Chips für die Displays verbaut.

koennte man damit unterwegs zoggen?

MadManniMan
2003-04-01, 20:52:09
Originally posted by LovesuckZ


koennte man damit unterwegs zoggen?

:D

komm schon... back to topic!

aber lustig wars!

Piffan
2003-04-01, 20:54:49
Originally posted by Unregistered
meinst du die benutzen beim militär primitives mainstream 3d zeugs?!

"Primitiv".....Da schreibt einer, der sich ein Urteil erlauben kann. ;)

MadManniMan
2003-04-01, 20:56:42
Originally posted by Piffan


"Primitiv".....Da schreibt einer, der sich ein Urteil erlauben kann. ;)


naja, irgendwie scheint es für uns normalos nunmal kaum vorstellbar, daß unser "value"-kram in kampfjets einsetzbar ist!

StefanV
2003-04-01, 21:13:26
Originally posted by MadManniMan
naja, irgendwie scheint es für uns normalos nunmal kaum vorstellbar, daß unser "value"-kram in kampfjets einsetzbar ist!

Naja, das Highend Zeugs 'passt' schlecht, die Wärmeabgabe ist einfach zu hoch...

Richthofen
2003-04-01, 21:42:49
die news ist ein Aprilscherz und ich find den auch wenn ich für den Irak Krieg bin geschmacklos.

zeckensack
2003-04-01, 21:44:03
Zuerst Star Wars, und jetzt
Originally posted by MadManniMan
lustig wars!

:|

mapel110
2003-04-01, 22:07:39
Originally posted by zeckensack
Zuerst Star Wars, und jetzt


:|

LOL
@payne, meinst, die würden versuchen, ne FX zu verbauen ?! da könnte sie die abwärme doch als antrieb nutzen :D

Gohan
2003-04-01, 22:08:25
Originally posted by Stefan Payne


Naja, das Highend Zeugs 'passt' schlecht, die Wärmeabgabe ist einfach zu hoch...

Und der VSA-100 der in der FA-18 E Hornet drin ist wird natürlich net zu heiß ;)

StefanV
2003-04-01, 22:10:31
Originally posted by Gohan
Und der VSA-100 der in der FA-18 E Hornet drin ist wird natürlich net zu heiß ;)

Öhm, die 3DFX Chips konnten die Wärme aber ab, das ist der Unterschied zu heutigen Chips ;)

Wenn die 'etwas' wärmer als 60°C werden, dann sind sie fast am abrauchen, während die guten 3DFX Qualitätschips noch locker bei 85°C weiterarbeiten...

Iceman346
2003-04-01, 22:35:52
http://www.withinboards.net/viewtopic.php?t=754

;)

Radeonator
2003-04-02, 10:35:06
Ich weiss nur das die US Luftwaffe Radeon GPU´s benutzt *eg*

ow
2003-04-02, 10:56:28
Originally posted by Stefan Payne


Öhm, die 3DFX Chips konnten die Wärme aber ab, das ist der Unterschied zu heutigen Chips ;)




Red keinen Unsinn ueber Dinge, von denen du nichts verstehst. Es gibt da naemlich keinen Unterschied zu heutigen Chips.

StefanV
2003-04-02, 11:21:07
Originally posted by ow
Red keinen Unsinn ueber Dinge, von denen du nichts verstehst. Es gibt da naemlich keinen Unterschied zu heutigen Chips.

achnein ??

Schonmal 'ne Kyro bei 60°C Temp am laufen gehabt ??

Unregistered
2003-04-02, 11:42:42
Originally posted by Stefan Payne


achnein ??

Schonmal 'ne Kyro bei 60°C Temp am laufen gehabt ??
NE da DIE beine hat!

ow
2003-04-02, 11:45:34
Originally posted by Stefan Payne


achnein ??

Schonmal 'ne Kyro bei 60°C Temp am laufen gehabt ??

Aber sicher doch, was denkst du denn??

StefanV
2003-04-02, 12:33:37
Originally posted by ow
Aber sicher doch, was denkst du denn??

Daß sie die Tiles 'zerhackt' und abschmiert...

Tja, irgendjemand scheint sich mit den 175MHz wohl übernommen zu haben...

StefanV
2003-04-02, 12:34:04
Originally posted by Unregistered
NE da DIE beine hat!

Jaja, ist ja schon gut ;)

gehen tut sie auch nicht, nur stürzen :-)

ow
2003-04-02, 13:05:21
Originally posted by Stefan Payne


Daß sie die Tiles 'zerhackt' und abschmiert...

Tja, irgendjemand scheint sich mit den 175MHz wohl übernommen zu haben...

Timing-Problem, na und?? Hat mit der Waerme nix zu tun.


Ich zitiere nochmals, damit du auch weisst was du geschrieben hast:

"Öhm, die 3DFX Chips konnten die Wärme aber ab, das ist der Unterschied zu heutigen Chips "

Frage: Seit wann ist der Kyro ein heutiger Chip?? Gab's den nicht schon vor der V5??

aths
2003-04-02, 13:08:39
Originally posted by Demirug
In irgendeinem Kampfjettype sind Geforce2Go Chips für die Displays verbaut. Waren das nicht VSA-100 für die F16?

ice cool69
2003-04-02, 13:14:11
@ richthofen

das sieht dir ähnlich dass du für den krieg bist

Demirug
2003-04-02, 13:26:23
Originally posted by aths
Waren das nicht VSA-100 für die F16?

Wer redet den von einer F16?

Was ich meine ist das Cockpit Display des F-22 Raptor. Dieses wird von einem Quadro2 Go Chip angesteuert. Angestuert werden 2 Displays ein 5" mit 1280x1024 und ein 8" mit 1920x1440 Pixel angeschlossen ist das ganze übrigens über einen PCI Bus.

Die VSA-100 Chips stecken übrigens in den "AH-64D Apache Longbow" und den "F-18 Super Hornet".

StefanV
2003-04-02, 13:44:33
Originally posted by ow
Timing-Problem, na und?? Hat mit der Waerme nix zu tun.

Na ganz einfach:

Wenn Kyro zu warm, dann Kyro schmiert ab.

Oder auch andere Karte, die 'nur' noch maximal 70°C vertragen...

StefanV
2003-04-02, 13:46:05
Originally posted by Demirug


Wer redet den von einer F16?

Was ich meine ist das Cockpit Display des F-22 Raptor. Dieses wird von einem Quadro2 Go Chip angesteuert. Angestuert werden 2 Displays ein 5" mit 1280x1024 und ein 8" mit 1920x1440 Pixel angeschlossen ist das ganze übrigens über einen PCI Bus.

Die VSA-100 Chips stecken übrigens in den "AH-64D Apache Longbow" und den "F-18 Super Hornet".

Was steckt denn in den Tomcats, den Warzenschweinen und den 'lägenderen' F16 ??

PS: ist die Raptor nicht noch ein Prototyp ??

HOT
2003-04-02, 13:51:16
In den Tomcats kann nix neues mehr schlummern :D Die sind schon so alt.. ausserdm sollen die nach dem Krieg eh ausgemustert werden.
Der F18 gehört die ZZukunft.

BlackBirdSR
2003-04-02, 13:52:46
Originally posted by Stefan Payne


Was steckt denn in den Tomcats, den Warzenschweinen und den 'lägenderen' F16 ??

PS: ist die Raptor nicht noch ein Prototyp ??

Tomcats sind wohl etwas zu alt für sowas.. die und die F18-C/D bekommen 2008 eh Ablösung durch die F35.

Die A10 hat kein Radar, und ist auch viel zu alt für sowas.
Die legendäre F16 wird auch durch die F35 ersetzt, und nutzt auch schon ein paar ältere Prozessoren für die Displays, kann aber sein dass eine der neuen Block Versionen was Neues bekommt.

Und die F22 Raptor ist das Serienmodell, die beiden Lighting II waren die Prototypen.
Sollte eigentlich 2002/2003 mit der Auslieferung begonnen werden.

StefanV
2003-04-02, 13:55:30
Originally posted by HOT
In den Tomcats kann nix neues mehr schlummern :D Die sind schon so alt.. ausserdm sollen die nach dem Krieg eh ausgemustert werden.
Der F18 gehört die ZZukunft.

Naja, soo alt nun auch wieder nicht ;)

Wenn mein Hirn mich nicht trügt, dann wurden sie 'erst' 1972 in Dienst gestellt und 'zwischendurch' 'ein paarmal' 'erneuert'.

Welche 'version' ist eigentlich momentan aktuell ??
die F14D ??

ow
2003-04-02, 13:57:33
Originally posted by Stefan Payne

Na ganz einfach:

Wenn Kyro zu warm, dann Kyro schmiert ab.

Oder auch andere Karte, die 'nur' noch maximal 70°C vertragen...

Hoer doch endlich auf, hier diesen haltlosen Unsinn zu verzapfen!!

Timing-Problem ist nicht gleich thermisches Problem!!

StefanV
2003-04-02, 14:14:56
Originally posted by ow
Hoer doch endlich auf, hier diesen haltlosen Unsinn zu verzapfen!!

Timing-Problem ist nicht gleich thermisches Problem!!

1. das ist kein Unsinn, die Kyro II schmiert bei ~60°C ab

2. und ob es das ist...
Besser gesagt kanns durch die Wärme verstärkt werden, was dazu führen kann, daß ein Chip bei höherer Temperatur abschmiert.

Oder was glaubst du, warum ein übertakteter Chip bei höherer Temperatur früher am Ende ist ??

Gohan
2003-04-02, 14:18:25
Als ob eine GeForce3 bei 70° abschmieren würde :D Meine Ti200 ief den kompletten 3DMark 2x mit einem passiv Kühlkörper mit den Massen 40x40x3mm durch.

Ne du, die können auch schon was ab Stefan.

StefanV
2003-04-02, 14:23:25
Originally posted by Gohan
Als ob eine GeForce3 bei 70° abschmieren würde :D Meine Ti200 ief den kompletten 3DMark 2x mit einem passiv Kühlkörper mit den Massen 40x40x3mm durch.

Ne du, die können auch schon was ab Stefan.

1. naja, ich dachte eigentlich an 'neuere' Chips wie GF4 ;)
Die TI200 hat nicht gerade einen hohen Takt, bei der TI500 wäre es viel interessanter zu wissen, wieviel °C sie verträgt :)

2. hier gehts (momentan) (eigentlich) um die Kyro2, die höhere Temperaturen nicht wirklich mag und ohne Kühler recht schnel abschmiert.

MadManniMan
2003-04-02, 14:29:25
Originally posted by Stefan Payne
1. das ist kein Unsinn, die Kyro II schmiert bei ~60°C ab



schade nur, daß das ding mit ner mittelmäßigen kühlung innem mittelmäßigen gehäuse sowieso kaum über 40° kommt :bonk:

Quasar@Work
2003-04-02, 14:35:04
Originally posted by Stefan Payne


1. naja, ich dachte eigentlich an 'neuere' Chips wie GF4 ;)
Die TI200 hat nicht gerade einen hohen Takt, bei der TI500 wäre es viel interessanter zu wissen, wieviel °C sie verträgt :)

2. hier gehts (momentan) (eigentlich) um die Kyro2, die höhere Temperaturen nicht wirklich mag und ohne Kühler recht schnel abschmiert.

'ne GF4 Ti4600 läßt sich lt. Asus Smartdoctor problemfrei bsi 70°C betreiben. Bei nVidia's GeForce FX ist die Runtertaktungsschwelle bei einigen CeBit-Mustern im Treiber mit >100°C angegeben...

StefanV
2003-04-02, 14:42:50
Originally posted by MadManniMan
schade nur, daß das ding mit ner mittelmäßigen kühlung innem mittelmäßigen gehäuse sowieso kaum über 40° kommt :bonk:

Naja, ok, selbst mit passiver Kühlung hättest du recht, darum gehts aber (gerade) nicht, es geht 'nur' darum, ob die Kyro bei 60°C abschmiert oder nicht ;)

Bei ~60°C schmiert sie definitiv ab, was ich (unfreiwillig) getestet hab (Kühler hat sich im Betrieb vom Chip verabscheidet), danach lief die Kyro 2 nicht wirklich lange...

LovesuckZ
2003-04-02, 21:49:32
Originally posted by Stefan Payne
Naja, ok, selbst mit passiver Kühlung hättest du recht, darum gehts aber (gerade) nicht, es geht 'nur' darum, ob die Kyro bei 60°C abschmiert oder nicht ;)


Vielleicht ist die Karte auch nicht fuer hohe Temperaturen ausgelegt, da sie diese sowieso nicht erreicht?

Unregistered
2003-04-03, 11:29:46
Originally posted by Stefan Payne


1. naja, ich dachte eigentlich an 'neuere' Chips wie GF4 ;)
Die TI200 hat nicht gerade einen hohen Takt, bei der TI500 wäre es viel interessanter zu wissen, wieviel °C sie verträgt :)

2. hier gehts (momentan) (eigentlich) um die Kyro2, die höhere Temperaturen nicht wirklich mag und ohne Kühler recht schnel abschmiert.
Das mit der TI 500 (225) ist Blödsinn die war auch nur ein paar MHz höher getaktet als die TI 200 (175) und dazwischen liegt die Ur Gf3(200)!

Die paar MHz machen nix, besserer kühler und die Chips dürfen gleichwarm werden. Kommt halt darauf an wieviel Verlustleistung du abführen kannst!

StefanV
2003-04-03, 11:41:36
Originally posted by Unregistered

Das mit der TI 500 (225) ist Blödsinn die war auch nur ein paar MHz höher getaktet als die TI 200 (175) und dazwischen liegt die Ur Gf3(200)!

Die paar MHz machen nix, besserer kühler und die Chips dürfen gleichwarm werden. Kommt halt darauf an wieviel Verlustleistung du abführen kannst!

1. ???

'die paar MHz' sind, nach meinem Hirn zu urteilen 65MHz, das sind in % ganze 27%...

2. das macht schon was, ob ich 175MHz oder 240MHz hab...
Die Verlustleistung steigt ja linear an, um genau zu sein ist die Verlustleistung um 27%* höher +20%* höhere Verlustleistung beim RAM!

*Erhöhte Spannung bei TI500 Karten nicht berücksichtigt.


[edit]
% hinzugefügt
[€dit2]
Fehler korrigiert, THX 2 Manni
[€dit3]
Dank Endorphine noch einen Gedankengang berücksichtigt :)

MadManniMan
2003-04-03, 11:48:56
Originally posted by Unreg/Stefan Payne
wir meinen beide zu wissen, wie die ti500 getaktet ist! und wir wissen das seeeehr gut! jawohl!


:eyes:

GF3 Ti500 => 240 MHz Core, 250 MHz RAM

StefanV
2003-04-03, 11:50:28
Originally posted by MadManniMan


:eyes:

GF3 Ti500 => 240 MHz Core, 250 MHz RAM

*autsch*, danke...

Macht nochmal 10MHz mehr, werds gleich mal ändern...
Hab da wohl den COretakt der TI500 mit dem RAM Takt der GF3 verwechselt...

Endorphine
2003-04-03, 12:00:34
Originally posted by MadManniMan
:eyes:

GF3 Ti500 => 240 MHz Core, 250 MHz RAMUnd da es nVidia schon immer gut verstand, Chips am Limit zu selektieren und die GF3 Ti500 ein richtiger Heizofen war konnte man da kaum noch was rausholen. Mir wurde es schon bei 260/275 MHz bei meiner GF3 Ti500 deutlich zu warm.

Die an der Grafikkarte hochkriechenden Hitzeschwaden hab ich noch gut in Erinnerung. Dagegen läuft die 9700 erstaunlicherweise deutlich kühler.

ow
2003-04-03, 12:18:29
Originally posted by Endorphine
Und da es nVidia schon immer gut verstand, Chips am Limit zu selektieren und die GF3 Ti500 ein richtiger Heizofen war konnte man da kaum noch was rausholen. Mir wurde es schon bei 260/275 MHz bei meiner GF3 Ti500 deutlich zu warm.


??? wie hast du die Waerme denn ermittelt?


Die an der Grafikkarte hochkriechenden Hitzeschwaden hab ich noch gut in Erinnerung. Dagegen läuft die 9700 erstaunlicherweise deutlich kühler.

Mal den Kuehler der 9700 mit dem der ti500 verglichen?

(btw. der kuehler meiner Gf4ti4200 wird nicht mal richtig handwarm)

StefanV
2003-04-03, 12:20:38
Originally posted by ow


??? wie hast du die Waerme denn ermittelt?



Mal den Kuehler der 9700 mit dem der ti500 verglichen?

(btw. der kuehler meiner Gf4ti4200 wird nicht mal richtig handwarm)

1. meine Leadtek TI200 wird auch 'etwas' warm, wenn ich sie 'geringfügig' übertakte.

2. mal den Kühler der leadtek TI200 mit dem der 9700 verglichen??
Außerdem gabs damals schon diverse Karten mit sehr großen Kühlern die denen der 9700 in nix nachstehen, z.B. MSI.

3. btw: meine TI4200 wurde 'etwas' wärmer als meine 9700.