PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Jetzt wirds teuer für nVidia


Gast
2006-09-19, 19:08:00
kauft besser noch schnell Karten bevor der Lieferstopp in Kraft tritt.

http://www.heise.de/newsticker/meldung/78400

Mr. Lolman
2006-09-19, 19:20:40
Die Penner haben damals auch schon von http://666kb.com/i/afdp57w0hbxmx3epi.gif geklaut :mad:

Gast
2006-09-19, 19:22:05
Die sind auf sowas spezialisiert. Am Ende wird sich "aussergerichtlich" geeinigt was soviel heisst wie $$$. Und zwar jede Menge $$$.

Zocker_28
2006-09-19, 19:22:46
Ich hoffe die Scheiss Firma geht Pleite, das was sie herstellen ist eh nur Schrott.

AnarchX
2006-09-19, 19:26:56
Das US-amerikanische Unternehmen Scanner Technologies hat bei einem Bezirksgericht in Texas den Grafikchip- und Chipsatz-Hersteller Nvidia wegen angeblicher Patentverletzungen verklag
;)
Im Endeffekt sind solche "Machenschaften" Gang und Gebe in der Wirtschaft.

Die Penner haben damals auch schon von http://666kb.com/i/afdp57w0hbxmx3epi.gifgeklaut :mad:
Jetzt wird mir so einiges klar und meine Theorie zu deiner nVidia-Aversion bestätigt sich.

btw. Falsches Unterforum!

Heimscheißer
2006-09-19, 19:27:00
Ich hoffe die Scheiss Firma geht Pleite, das was sie herstellen ist eh nur Schrott.

Ich hoff` Du bist "krank" und redest so wirres Zeug weil du ....na ja....eben "krank" bist !?!

Böser Mensch Du.....


;-)


Sven

Mike1
2006-09-19, 19:27:27
paar Millionen/Milliarden $$$ und der Streit is beendet...

;)


Jetzt wird mir so einiges klar und meine Theorie zu deiner nVidia-Aversion bestätigt sich.
ein V5 6k Besitzer kann nur Nvidia Hasser sein:wink:

Mr. Lolman
2006-09-19, 19:33:16
Jetzt wird mir so einiges klar und meine Theorie zu deiner nVidia-Aversion bestätigt sich.

btw. Falsches Unterforum!

Naja:

http://www.computerbase.de/news/wirtschaft/recht_gesetz/2000/oktober/erfolg_3dfx_patentstreit_nvidia/

http://www.heise.de/newsticker/meldung/12541

Zocker_28
2006-09-19, 19:36:25
Ich hoff` Du bist "krank" und redest so wirres Zeug weil du ....na ja....eben "krank" bist !?!

Böser Mensch Du.....


;-)


Sven

Ne bin ich leider nicht, sry das ich nicht auf Benches gucke ich zocke gern Games und bin sehr verwöhnt was Qualli angeht.
Und das was NV bietet ist einfach nur unter aller Sau.

Gast
2006-09-19, 19:40:42
Die Penner haben damals auch schon von http://666kb.com/i/afdp57w0hbxmx3epi.gif geklaut :mad:

Ohja, das böse Multitexturing. Wie hätte man da auch sonst drauf kommen sollen...

Gast
2006-09-19, 19:41:38
Ich hoffe die Scheiss Firma geht Pleite, das was sie herstellen ist eh nur Schrott.

Das was du von dir gibst auch.

Scose
2006-09-19, 19:41:54
na dann wünschen wir ATI doch ein frohes händereibenes Preistreiben falls dann mal keine echt Konkurrenz mehr besteht.

Und die Fanboys können sich keine Karte der roten (oder doch grünen :biggrin: ) mehr leisten...

sorry für OT aber auf solchen Quatsch reagier ich allergisch

4711
2006-09-19, 19:42:00
jo echt?
Ich seh keinen Unterschied bei einer x1900er und einer zb.GX²..aber lassen wie das..das sonst öffnen sich wieder die Höhlen... ;D

Metalmaniac
2006-09-19, 19:42:39
Ne bin ich leider nicht, sry das ich nicht auf Benches gucke ich zocke gern Games und bin sehr verwöhnt was Qualli angeht.
Und das was NV bietet ist einfach nur unter aller Sau.

Und wenn nVidia pleite ginge (was sicherlich kaum vorstellbar ist) würdest Du allerdings auch kaum mehr von schöner Quali in Spielen verwöhnt werden, da die benötigte Hardware dazu für Dich wahrscheinlich unbezahlbar wäre.:P

AnarchX
2006-09-19, 19:43:49
Naja:

http://www.computerbase.de/news/wirtschaft/recht_gesetz/2000/oktober/erfolg_3dfx_patentstreit_nvidia/

http://www.heise.de/newsticker/meldung/12541

Wer ist als Sieger hervorgegangen? ;)
Die Welt ist eben nicht fair, warum sollte es in diesem Bereich dann anders sein, natürlich ist es schade um 3Dfx, ein Kampf zwischen drei Großen wäre deutlich interessanter.

Aber imho kann man sich auch streiten über die Sinnhaftigkeit eines Patents auf Multi-Texturing, da wäre ja fast soetwas wie ein Patent auf runde Reifen...:D

Aber danke für den Link, mit dem Untergang von 3Dfx hatte ich mich bisher noch so intensiv beschäftigt, was ich wohl nun nachholen werde.:)

tokugawa
2006-09-19, 19:44:59
Ne bin ich leider nicht, sry das ich nicht auf Benches gucke ich zocke gern Games und bin sehr verwöhnt was Qualli angeht.
Und das was NV bietet ist einfach nur unter aller Sau.

Naja, was NV bietet ist:
- viel für die Forschung tun
- technologisch (auch im Algorithmen-Bereich) viel weiterbringen
- für Entwickler viel tun


Das sind alles Dinge die auch für Zocker wichtig sind (wer soll sonst die Zocker mit Zockerfutter versorgen?), aber leider für Zocker meistens unsichtbar und unbekannt bleibt.

Nichtzuletzt deswegen hat NVIDIA gerade unter Forschern und Entwicklern tatsächlich einen besseren Ruf als ATI (die Treiberqualität tut ihr übriges - lustig war bei der Eurographics 2006 wo die leitende Entwicklerin des ATI-ToyShop-Demos und eine der führenden ATI-Researcher, Natalya Tatarchuk, über die Technik dahinter einen Vortrag gehalten hat, und auf ihrem Notebook live die ToyShop-Demo hergezeigt hat, dieses aber Artefakte gezeigt hat, und auf die Frage was diese Artefakte seien, meinte sie das ist ein Treiberproblem, und sie hat noch nicht auf die aktuellen upgedatet...).

Also, NVIDIA gehört nicht weg. Absolut nicht. Aber ATI genauso wenig, nur sollten die mal ihr Forschungsbudget erhöhen (eine derzeit unsichere Sache laut Frau Tatarchuk, da nach dem AMD-ATI-Merger die Budgetverteilung noch nicht klar ist).

Spasstiger
2006-09-19, 19:45:35
Ne bin ich leider nicht, sry das ich nicht auf Benches gucke ich zocke gern Games und bin sehr verwöhnt was Qualli angeht.
Und das was NV bietet ist einfach nur unter aller Sau.
Der High-End-Gamer-Markt ist aber nicht besonders relevant für den Umsatz eines IHVs. High-End-Karten sind in erster Linie Prestigestücke und Technikdemonstrationen.
Ohne den nötigen Konkurrenzkampf, der dank ATI und Nvidia gewährleistet ist, würden wir Gamer nicht diese Prestigestücke in den Händen halten können.
Aus Ingenieurssicht leistet Nvidia auf jeden Fall Erstaunliches, genauso ATI.

tokugawa
2006-09-19, 19:53:10
Der High-End-Gamer-Markt ist aber nicht besonders relevant für den Umsatz eines IHVs. High-End-Karten sind in erster Linie Prestigestücke und Technikdemonstrationen.
Ohne den nötigen Konkurrenzkampf, der dank ATI und Nvidia gewährleistet ist, würden wir Gamer nicht diese Prestigestücke in den Händen halten können.
Aus Ingenieurssicht leistet Nvidia auf jeden Fall Erstaunliches, genauso ATI.

Das kann man nur unterschreiben! :up:

Mr. Lolman
2006-09-19, 19:58:36
Aber imho kann man sich auch streiten über die Sinnhaftigkeit eines Patents auf Multi-Texturing, da wäre ja fast soetwas wie ein Patent auf runde Reifen...:D

Nicht auf Multitexturing generell, sondern auf eine bestimmte Multitexturing-Technologie: http://www.freepatentsonline.com/6392655.html

akuji13
2006-09-19, 20:12:38
Naja, was NV bietet ist:

- für Entwickler viel tun

Es gibt vermutlich genauso viele Entwickler die sich über den NV support beschweren,wie welche die sich über ATI beschweren.



Nichtzuletzt deswegen hat NVIDIA gerade unter Forschern und Entwicklern tatsächlich einen besseren Ruf als ATI (die Treiberqualität tut ihr übriges - lustig war bei der Eurographics 2006 wo die leitende Entwicklerin des ATI-ToyShop-Demos und eine der führenden ATI-Researcher, Natalya Tatarchuk, über die Technik dahinter einen Vortrag gehalten hat, und auf ihrem Notebook live die ToyShop-Demo hergezeigt hat, dieses aber Artefakte gezeigt hat, und auf die Frage was diese Artefakte seien, meinte sie das ist ein Treiberproblem, und sie hat noch nicht auf die aktuellen upgedatet...).

Hohoho,das hätte bei NV natürlich nicht passieren können. :rolleyes:
Woher weisst du das? Bist du Entwickler?
Sorry,das ist hohles FanBoy Gequatsche auf dem Niveau der Mitarbeiter von NV die sich wie Ghetto Assis prügeln mussten (wobei ich es den ATI Leuten auch zutrauen würde).
JEDER der beiden hat schon mal Treiberprobleme gehabt...nämlich JEDEN Monat aufs neue.
Wer keine findet,spielt/nutzt seinen Rechner nur nicht genug oder hat schlichtweg nur 1 Karte eines Herstellers.

@topic

Da wird außer einem Vergleich garnix bei rauskommen und das ist auch gut so,Konkurenz belebt das Geschäft.

Zocker_28
2006-09-19, 20:32:51
Und wenn nVidia pleite ginge (was sicherlich kaum vorstellbar ist) würdest Du allerdings auch kaum mehr von schöner Quali in Spielen verwöhnt werden, da die benötigte Hardware dazu für Dich wahrscheinlich unbezahlbar wäre.:P


Nö glaub ich net, ich verdiene 2 Braune im Monat und wenn ne Graka 1000 Kostet ist mir doch egal, wird trotzdem gekauft.

AnarchX
2006-09-19, 20:35:35
Nö glaub ich net, ich verdiene 2 Braune im Monat und wenn ne Graka 1000 Kostet ist mir doch egal, wird trotzdem gekauft.

Nur wird dann diese 1000€ GraKa vielleicht nur 10% schneller sein als der Vorgänger.
Monopol ist niemals gut...;)
(btw. 2 Braune? => 2x50€!? X-D)

@akuji13:
Ich glaube du solltest mal einen Blick in die Signatur von tokugawa werfen.;)

Raff
2006-09-19, 20:45:55
ein V5 6k Besitzer kann nur Nvidia Hasser sein:wink:

Das möchte ich hiermit mal bestreiten. ;)

MfG,
Raff

The_Invisible
2006-09-19, 20:49:59
Nö glaub ich net, ich verdiene 2 Braune im Monat und wenn ne Graka 1000 Kostet ist mir doch egal, wird trotzdem gekauft.

schön für dich wennst dann keinen nutzen davon hast wenn in der spieleentwicklung nix mehr weitergeht...

edit:
und ich will auch keine opengl frickellösung abseits von mainstream, hilfe

Cubitus
2006-09-19, 20:57:34
Es gibt vermutlich genauso viele Entwickler die sich über den NV support beschweren,wie welche die sich über ATI beschweren.

Hohoho,das hätte bei NV natürlich nicht passieren können. :rolleyes:
Woher weisst du das? Bist du Entwickler?
Sorry,das ist hohles FanBoy Gequatsche auf dem Niveau der Mitarbeiter von NV die sich wie Ghetto Assis prügeln mussten (wobei ich es den ATI Leuten auch zutrauen würde).
JEDER der beiden hat schon mal Treiberprobleme gehabt...nämlich JEDEN Monat aufs neue.
Wer keine findet,spielt/nutzt seinen Rechner nur nicht genug oder hat schlichtweg nur 1 Karte eines Herstellers.


Eine NV Treiber installation ist einfach was Rundes.
SLI ist nahezu ausgereift und supported jede Menge Games,
Eine Installation von SLI ist problemlos möglich!

ATi hat seit dem Cat 6.5 einen Bug im Treiber drinn,
der von einem immer verlangt bei Crossfire erstmal den alten Treiber
restlos zu entfernen(beide karten bleiben drinn, und dann wird neu Installiert)
Leider funktioniert diese Methode auch nicht, obwohl sie in jeder Dokumentation von ATi so zu finden ist!:rolleyes:

Außerdem verursacht der erzwungene AFR Modus bei vielen Games Crashes oder greift erst gar nicht!
ne, wie stiefmütterlich ATI sein CF behandelt ist unter aller Sau.
An was fehlts? an guten Mitarbeitern? oder am zu knapp kalkulierten
Budget,der Markt wäre da! es gibt genug Spinner die sich ein SLi oder CF System kaufen bzw von NV überlaufen wurden!

Für NV hat SLI eine hohe Priorität, für mich ein Zeichen der Entwicklerfreundschaft und guter Disziplin!

Metalmaniac
2006-09-19, 21:02:47
Nö glaub ich net, ich verdiene 2 Braune im Monat und wenn ne Graka 1000 Kostet ist mir doch egal, wird trotzdem gekauft.

Gerade wollte ich schreiben "Wie schön für Dich". Da fiel mir aber ein, daß es seit den seeligen DM-Zeiten (1000er) gar keine braunen Scheine mehr gibt, welche bei uns als Zahlungsmittel akzeptiert sind. http://www.manager-magazin.de/unternehmen/euro/0,2828,149789,00.html
Deshalb frage ich mich, wovon Du redest? Denn wenn Du noch nach o.g. Währung argumentierst, dann wäre eher ein "Mein Beileid" angebracht und noch mein Respekt, die Hälfte Deines Verdienstes für eine Grafikkarte auszugeben.:wink:

Gast
2006-09-19, 21:13:52
Und das was NV bietet ist einfach nur unter aller Sau.Und wieso haste dann einen G71 Chip?

Gast
2006-09-19, 21:17:17
ich verdiene 2 Braune im Monat und wenn ne Graka 1000 Kostet ist mir doch egal, wird trotzdem gekauft.Und wieso dann eine 7900 GX2 und nicht die 7950 GX2? kann Dir doch egal sein oder.

Metalmaniac
2006-09-19, 21:34:57
Und wieso dann eine 7900 GX2 und nicht die 7950 GX2? kann Dir doch egal sein oder.

Er will, daß nVidia pleite geht, deshalb ist Dein Tipp wohl nicht angebracht.

ShadowXX
2006-09-19, 21:36:11
Es gibt vermutlich genauso viele Entwickler die sich über den NV support beschweren,wie welche die sich über ATI beschweren.

Nein, das sind definitiv weniger.

Der nV-Support wird von den Devs als (wesentlich) besser eingestuft.


Hohoho,das hätte bei NV natürlich nicht passieren können. :rolleyes:
Woher weisst du das? Bist du Entwickler?

Ja, das ist er.
Er arbeitet in der Computergrafik-Forschung einer Universität.

Anders gesagt: Er weiß ich gegenteil zu dir, durchaus von was er redet.

@Topic:
Ich glaube nicht, das da viel rüberkommt:

1) das Patent ist von 2005 - wurde also erst zu einem Zeitpunkt
gefilet, als die Gehäusetechnik zur BGA-assemblierung bereits weit
fortgeschritten war
2) NVidia baut gar keine Chips, sondern beauftragt damit fremde Fabs
(meist TSMC).
3a) Der Assemblierungsprozeß innerhalb der Produzenten ist für
gewöhnlich deren Know-How und wird nicht an Auftraggeber wie NVidia
weitergegeben.
3b) Die Verpackung selbst kommt von (z.B.) ASE, Amkor, KYEC, SPIL und STATS ChipPAC. Auch da hat nV keine Aktien drinne.

Zocker_28
2006-09-19, 23:36:11
Eine NV Treiber installation ist einfach was Rundes.
SLI ist nahezu ausgereift und supported jede Menge Games,
Eine Installation von SLI ist problemlos möglich!

tzzzzz ist klar Problemlos möglich ;D ;D ;D ;D

Und wieso haste dann einen G71 Chip?

Weil ich langeweile hab(und sie geil aussieht), und ich kann sagen das die Karte Mist ist.
Und warum soll ich für 10 cm kürzer 130 € mehr Zahlen ?

Und das mit den 2 Braunen ist nur son Sprichwort aber sind schon mehr wie 2x50 xD

tokugawa
2006-09-19, 23:39:53
Es gibt vermutlich genauso viele Entwickler die sich über den NV support beschweren,wie welche die sich über ATI beschweren.


Ich kann natürlich nicht für alle Entwickler auf der ganzen Welt reden, aber nachdem ich doch eine große Zahl an Forschern und Entwicklern kenne, kenne ich den Grundkanon bei zumindest diesen. Ich sag ja auch nicht dass ATI-Karten unbrauchbar wären.


Hohoho,das hätte bei NV natürlich nicht passieren können. :rolleyes:
Woher weisst du das? Bist du Entwickler?


Ja bin ich. Und klar, auch NV hat Treiberbugs, keine Frage. Trotzdem fallen den meisten Entwicklern die ich kenne (inklusive mir selbst) gerade auf ATI einige sehr unverständliche Merkmürdigkeiten auf im Treiber, in der Anzahl deutlich mehr als auf NVIDIA.

Wenn du so viele Merkwürdigkeiten bei den ATI-Treibern miterlebt hast wie ich und einige meiner Kollegen, und dann passiert einer renommierten ATI-Researcherin (die Natalya Tatarchuk macht ziemlich tolle Sachen) praktisch dasselbe, dann kommt einem halt das Schmunzeln. Nicht zu vergessen dass bei dem Vorfall bei ihrem Vortrag bei der Eurographics ein gewisses Raunen durch den Saal ging - ich denke da saßen viele Entwickler und Forscher drin, die auch Geschichten von ATI-Treibern zu erzählen hatten.



Sorry,das ist hohles FanBoy Gequatsche auf dem Niveau der Mitarbeiter von NV die sich wie Ghetto Assis prügeln mussten (wobei ich es den ATI Leuten auch zutrauen würde).


Ist es nicht, es ist eher Klatsch und Tratsch aus der Welt der Forscher und Entwickler der Computergrafik.


JEDER der beiden hat schon mal Treiberprobleme gehabt...nämlich JEDEN Monat aufs neue.


Natürlich, ich behaupte ja nichts anderes. Trotzdem gibt es tendenziell bei ATI die seltsameren... Singularitäten. Dass man den Rechner mit einem falschen Parameter bei DrawPrimitive() rebooten kann, ist etwa ein gutes Beispiel dafür.


Wer keine findet,spielt/nutzt seinen Rechner nur nicht genug oder hat schlichtweg nur 1 Karte eines Herstellers.


Naja, ich denke dass ich den Rechner und gerade die Grafikkarten ziemlich beanspruche beim Entwickeln... kenn also Treiber beider Hersteller ziemlich gut (und weiß sie teilweise zu hassen, das gilt für bestimmte Versionen von beiden Herstellern). Trotzdem ist ATI tendenziell schlechter, aber natürlich hat auch NV keine reine Weste.

Apropos, ich hab am Primärrechner eine X1900XT, und am Sekundärrechner eine X1600 (also auf beiden Desktopmaschinen ATI). Am Laptop hab ich eine GeForce Go 6600.

Gerade deswegen weil sich ATI-Treiber manchmal ziemlich merkwürdig verhalten, muß ich als seriöser Entwickler Karten von BEIDEN besitzen (und das privat!). Wobei der Sekundärrechner demnächst aufgerüstet wird und eine GeForce reinbekommt...


Lustig dass du mein Posting gerade an dem Punkt aufknüpfst, wenn mein Hauptargument einfach war dass NVIDIA so viel für die Forschung und Entwicklung tut, dass es schade wäre, wenn sie - wie einige in diesem Thread meinten - verschwinden würden. Das gleiche gilt natürlich für ATI auch. Dass du nur diesen einen Punkt wo ich bei ATI-Treibern eine gewisse Tendenz zur Merkwürdigkeit sehe (eine Meinung die von vielen Entwicklern die ich kenne geteilt wird) aufgreifst und dich scheinbar persönlich beleidigt fühlst, bringt mich dazu, dir dein Argument, ich sei ein "Fanboy", direkt wieder zurückzugeben. Ein Fanboy würde wohl nicht rund 300 Euro ausgeben für eine Grafikkarte des "anderen" Herstellers.

aths
2006-09-20, 03:52:01
Der "Fanboy"-Vorwurf ist grundsätzlich dermaßen dumm, dass man darauf am besten gar nicht eingehen sollte.


Das sind alles Dinge die auch für Zocker wichtig sind (wer soll sonst die Zocker mit Zockerfutter versorgen?), aber leider für Zocker meistens unsichtbar und unbekannt bleibt.Eben. Da geht es einigen nur darum, was man hier und jetzt in Spielen sehen würde. Dabei sollte man fragen, worauf denn die neuen Engines und Grafikeffekte programmiert und getestet werden sollen. "GPU Gems" fiele mir da als Beispiel ein, wie ein IVH eigene Algorithmen und Vorschläge von außenstehenden dem interessierten Leser vorstellt. Besonders gut gefällt mir, dass die meisten Kapitel auch Alternativen und weniger gute Ansätze diskutieren, und man so einen Überblick über die Forschung gewinnt, und nicht nur mit fertigen Shadern abgespeist wird. Ich verstehe von den meisten GPU-Gem-Kapiteln und ähnlichen Werken nur sehr wenig, bin aber immer wieder fasziniert von Ausführungen, wie man möglichst billig interessante Effekte faken kann.

Jeder, der ein wenig Interesse an der Sache zeigt, sieht, dass du tokugawa und andere Leute wissen, wovon sie schreiben. Ich fände es schade, wenn ihr eure Zeit mit Leuten verschwendet, die ihre Scheuklappen gar nicht abnehmen wollen.

malle
2006-09-20, 05:03:19
Wären den NV Grakas von dem Verkaufsstop betroffen oder die Chipsätze oder was ganz anderes? Hat ATI auch solche Patente verletzt?

Gastt
2006-09-20, 05:36:46
Weil ich langeweile hab(und sie geil aussieht), und ich kann sagen das die Karte Mist ist.Verstehe ich nicht warum haste den die Karte gekauft wenn sie Mist ist

slack
2006-09-20, 09:08:05
Zitat:
"Hohoho,das hätte bei NV natürlich nicht passieren können.
Woher weisst du das? Bist du Entwickler?"

Ja, das ist er.
Er arbeitet in der Computergrafik-Forschung einer Universität.

Danke für diesen herrlichen Lacher :lol:

Aber zurück zum Thema:
Aus einem Kommentar aus dem Heise-Forum war zu entnehmen, dass die Firma 14 Mitarbeiter hat, wovon drei Entwickler sind. Bei einem Umsatz von 1.6 Millionen Dollar und einem Verlust von 1.9 Millionen Dollar in 2005. Also bei allem Respekt für "Scanner Technologies", es fällt mir sehr schwer zu glauben, dass eine Firma wie Nvidia ausgerechnet bei dieser Klitsche geklaut haben soll um ihre BGAs zu produzieren.
Nun ist so etwas ja nicht auszuschließen und das gute Recht der kleinen Firma, Nvidia daraufhin zu verklagen. Doch vor Gericht einen Verkaufsstop für die betroffenen Produkte (und dürften quasi alle sein) erwirken zu wollen, dass erinnert mich doch stark an SCO und fällt wohl eher unter die Rubrik "Stilblüten des Patentwahnsinns". Zumindest oberflächlich betrachtet, wirkt es wie einer der zahlreichen Versuche sich wenigstens durch einen Vergleich zu sanieren. Der Börsenkurs von Nvidia hat an der Nasdaq auch prompt 2,6% nachgegeben, vermutlich mehr Verlust als "Scanner Technologies" in den nächsten 20 Jahren erwirtschaften wird.

Marc-
2006-09-20, 09:19:54
Ich hoffe die Scheiss Firma geht Pleite, das was sie herstellen ist eh nur Schrott.

Mit der Scheiss Firma meinst du vermutlich Nvidia nehme ich an? denn ich denke über das portfolio der anderen genannten firma bist du vermutlich noch weitaus schlechter informiert als das du das beurteilen könntest.
Stimmungsmache ohne kenntnisse rules.

Simon
2006-09-20, 09:20:00
Wären den NV Grakas von dem Verkaufsstop betroffen oder die Chipsätze oder was ganz anderes?
Laut dem Heise-Artikel geht es "nur" um einen Verkaufsstopp in USA. Also wäre ja Europa (erstmal) nicht davon betroffen (weil die Jungs von Scanner Technologies hier kein Patent haben). Aber um die eigentliche Frage geht es hier ja schon nicht mehr :| *sigh*

Gast_
2006-09-20, 09:43:32
Nicht auf Multitexturing generell, sondern auf eine bestimmte Multitexturing-Technologie: http://www.freepatentsonline.com/6392655.html

Das ist scheiß normales Single-Pass-Mulittexturing ohne Multipass. Das ist ein absolutes Trivialpatent.

malle
2006-09-20, 09:45:48
Danke für diesen herrlichen Lacher :lol:

Aber zurück zum Thema:
Aus einem Kommentar aus dem Heise-Forum war zu entnehmen, dass die Firma 14 Mitarbeiter hat, wovon drei Entwickler sind. Bei einem Umsatz von 1.6 Millionen Dollar und einem Verlust von 1.9 Millionen Dollar in 2005. Also bei allem Respekt für "Scanner Technologies", es fällt mir sehr schwer zu glauben, dass eine Firma wie Nvidia ausgerechnet bei dieser Klitsche geklaut haben soll um ihre BGAs zu produzieren.
Nun ist so etwas ja nicht auszuschließen und das gute Recht der kleinen Firma, Nvidia daraufhin zu verklagen. Doch vor Gericht einen Verkaufsstop für die betroffenen Produkte (und dürften quasi alle sein) erwirken zu wollen, dass erinnert mich doch stark an SCO und fällt wohl eher unter die Rubrik "Stilblüten des Patentwahnsinns". Zumindest oberflächlich betrachtet, wirkt es wie einer der zahlreichen Versuche sich wenigstens durch einen Vergleich zu sanieren. Der Börsenkurs von Nvidia hat an der Nasdaq auch prompt 2,6% nachgegeben, vermutlich mehr Verlust als "Scanner Technologies" in den nächsten 20 Jahren erwirtschaften wird.
Eine Idee, ein Patent lässt sich nicht an Umsatz messen. Ganz besonders nicht, wenn eine so kleine Firma auch noch bestohlen wird. Dann ist es kein Wunder, dass Sie Miese amcht. Es wird sich kräftig an dieser Firma bedient ohne zu blechen... sollte NV das gemacht haben, sollen Sie bluten. Wie jede andere Firma die Geistiges Eigentum klaut auch...

Mr. Lolman
2006-09-20, 09:47:32
Jetzt ists ein Trivialpatent. Damals wars keins.

Gast_
2006-09-20, 09:49:50
Nööö überhaupt nicht, wer sollte auch auf die Idee kommen 2 Texturen in einem Pass auf ein Triangle zu pappen anstatt Framebuffer-Blending zu machen.

Lolman jetzt wirds wirklich lächerlich.

Zapat.
2006-09-20, 10:07:53
Also irgend wie lese ich heraus das das kräfte verhältnis hier und in anderen Foren 80% für Ati ist und 20% für Nvidia.Das errinnert mich irgend wie an die 9800 gala Zeit wo auch fast jeder Ati in denn Himmel gehypt hat.Ist Ati wirklich soviel besser Zurzeit wie damals bei der 9800 Serie und 9700 Serie?

Mr. Lolman
2006-09-20, 10:08:50
Nööö überhaupt nicht, wer sollte auch auf die Idee kommen 2 Texturen in einem Pass auf ein Triangle zu pappen anstatt Framebuffer-Blending zu machen.

Lolman jetzt wirds wirklich lächerlich.
.

The fine-grain multi-pass technique for rendering multiple textures on a primitive is faster than a coarse grain multi-pass technique because the geometry does not need to be sent multiple times from a geometry engine to a raster subsystem. In addition, the fine-grain multi-pass technique is cheaper and more efficient than a parallel approach because it does not require permanent multiple texture units in a hardware connected together by texture blending units.

Mr. Lolman
2006-09-20, 10:10:29
Also irgend wie lese ich heraus das das kräfte verhältnis hier und in anderen Foren 80% für Ati ist und 20% für Nvidia.Das errinnert mich irgend wie an die 9800 gala Zeit wo auch fast jeder Ati in denn Himmel gehypt hat.Ist Ati wirklich soviel besser Zurzeit wie damals bei der 9800 Serie und 9700 Serie?

Nein bei der 9800 wurde nicht ATi in den Himmel gehyped, sondern vor der 9800 Nvidia. (Da wurde den Leuten tw, ernsthaft eine Ti4600 anstatt ner 9700pro empfohlen. Oder man sollte gleich auf die 5800 warten, die dann wegen CineFX und so auch fleissig gekauft wurde.)

Gast_
2006-09-20, 10:18:17
.

Ja und? Was da steht beschreibt genau ein Single-Pass-Loop-Multitexturing wie es jeder Depp wenn er 5 Minuten drüber nachdenkt "erfinden" kann. Ich verwette sonst was drauf dass nVIDIA das Patent gar nicht gekannt hat als sie sowas implementiert haben in der TNT.

Das "trilinear dithering" lass ich noch eher gelten, aber auch da braucht man nun wirklich nicht das Genie zu sein um drauf zu kommen.

slack
2006-09-20, 10:20:13
@Malle
Das ist schon richtig, ich habe selbst mal in einer kleinen High-Tech Firma gearbeitet und "unsere" Neuentwicklung war damals einzigartig auf dem Markt und wurde schamlos von einer sehr viel größeren Firma kopiert. Und das, kurz nachdem ein Kaufangebot abgelehnt wurde. Leider war weder das Geld, noch das Know-How vorhanden gewesen um diese Idee zu schützen. Insofern betrachte ich die Klage von "Scanner Technologies" durchaus mit dem nötigen Respekt, es wäre nicht das erste Mal, dass von einer kleinen Firma schamlos geklaut würde.
Sollten die Vorwürfe zutreffen, ist es vollkommen legitim, dass die Firma ihre Ansprüche stellt, bzw. gerichtlich durchzusetzen versucht. Doch ein Verkaufsstop zu fordern, dass ist imho vollkommen überzogen. Da stimmen die Relationen nicht mehr, selbst wenn sie im Recht wären.

Mr. Lolman
2006-09-20, 10:30:37
Ja und? Was da steht beschreibt genau ein Single-Pass-Loop-Multitexturing wie es jeder Depp wenn er 5 Minuten drüber nachdenkt "erfinden" kann. Ich verwette sonst was drauf dass nVIDIA das Patent gar nicht gekannt hat als sie sowas implementiert haben in der TNT.

Das "trilinear dithering" lass ich noch eher gelten, aber auch da braucht man nun wirklich nicht das Genie zu sein um drauf zu kommen.

Imo kommt da nicht jeder Depp in 5 min drauf. Sonst hätte NV damit auch nicht bis zum TNT gebraucht ;)

Gast121
2006-09-20, 10:31:12
Zur Abwechslung mal was zum Topic.

1. Die Patente wurden Anfang 2005 eingereicht, als es BGA Chips schon jahrelang gab. Also braucht man die Patente wohl nicht, um BGA Chips herzustellen.

2. Nvidia stellt ja keine Chips her, also können sie die Patente nicht verletzen.

HOT
2006-09-20, 10:33:49
Nutzt NV noch überhaupt BGA Gehäuse?

seahawk
2006-09-20, 10:37:22
Hmm, NV baut doch gar keine Chips ? Das PAchaging usw. dürfte ja primär von den eingentlichen Produzenten und deren Technologiebasis abhängen.

Und da ATI und NV ja bei z.B. bei TSMC bauen lassen, dürfte ATI ebenso betroffen sein.

Aber wahrscheinlich ist das sowieso heisse Luft.

san.salvador
2006-09-20, 10:40:19
Zur Abwechslung mal was zum Topic.

1. Die Patente wurden Anfang 2005 eingereicht, als es BGA Chips schon jahrelang gab. Also braucht man die Patente wohl nicht, um BGA Chips herzustellen.

2. Nvidia stellt ja keine Chips her, also können sie die Patente nicht verletzen.
2. Im Vertrag mit dem Hersteller der GPUs wird wohl drinstehn, dass in genau so einem Fall Nvidia für den Salat geradesteht.

1. Ist es nicht so, dass es manchmal reicht nachzuweisen, dass man irgendwas erfunden hat und dann nachträglich ein Patent bekommt? Ich kann mich auch täuschen, aber ich glaube mich erinnern zu können dass es da was in die Richtung gibt... :|

Gast_
2006-09-20, 10:42:40
Imo kommt da nicht jeder Depp in 5 min drauf. Sonst hätte NV damit auch nicht bis zum TNT gebraucht ;)

Man braucht auch Transistoren dafür. Und ja da kommt jeder Depp drauf, so einen Horizont hat noch jeder der Engineers von den IHVs spielend.

Gast`_
2006-09-20, 10:43:04
Nutzt NV noch überhaupt BGA Gehäuse?

Selbstverständlich, was denn sonst?

Botcruscher
2006-09-20, 10:53:58
Leute könnt ihr mal eure Abneigungsbekundungen/Lobeshymnen auf NV,ATI,3df usw. einstellen.

Als Kunde ist es doch nur wichtig das es genug Wettbewerb giebt, damit die Preise OK sind.

Tomi
2006-09-20, 10:57:01
Infineon und Quimonda mussten als 1. Rate 50 Millionen Dollar abdrücken, danach 20-30 Millionen Lizenzgebühren pro Jahr. Das dürfte auch Nvidia leicht schmerzen, wenn es dazu kommt?

Gast2
2006-09-20, 11:01:24
Also irgend wie lese ich heraus das das kräfte verhältnis hier und in anderen Foren 80% für Ati ist und 20% für Nvidia.Das errinnert mich irgend wie an die 9800 gala Zeit wo auch fast jeder Ati in denn Himmel gehypt hat.Ist Ati wirklich soviel besser Zurzeit wie damals bei der 9800 Serie und 9700 Serie?

Ich sag dir ganz erlich ich finde beide bieten nur mangelhafte lösungen am
Markt an was Inovation betrift. Da schenken die sich nicht viel

Das war zu 3DFX & Powervr zeiten noch anders da wurden noch wirklich sinvolle featchers entwickelt. Heutzutage wird da eher mehr wert auf Chiptakt, Pipelines und Shadereinheiten gelegt. (Rohpower is alles) und wenn das nicht ausreicht werden gleich 4 Grakas zusammengeschaltet. Stomverbrauch und Hitzeentwiklung scheint da niemanden zu interesieren.
Wen ich da lese das die neuen Direct3D10-Grafikchips bis zu 250 Watt benötigen sollen kan ich nur mit dem Kopf schütteln.
Die scheinen wohl nix aus dem Debakel das Intel mit ihrem P4's erlitten hat gelernt zu haben.

Ich persänlich stand vor einigen Wochen auch vor der Entscheidung ATI oder NV da meine alte Powervr-Graka leider keinen 64Bit Treibersupport hat.
Meine Wahl fiel dann auf eine NV Graka da die
1. Noch recht flotte AGP Grakas bauen
2. Der Linux Treiber von NV um Welten besser is als der von ATI

Ich würde aber nicht behaupten das die ein oder andere Firma bessere Grakas wie die jeweils andere baut. Nur in meinem spezielen Fall erschien mir eine NV Lösung als die bessere wahl.

Mr. Lolman
2006-09-20, 11:02:31
Man braucht auch Transistoren dafür. Und ja da kommt jeder Depp drauf, so einen Horizont hat noch jeder der Engineers von den IHVs spielend.

Na wenn du meinst. Trotzdem seltsam, dass die braven Leute von NV nun schon zum 2. Mal wegen Patentrechtsverletzungen angeklagt worden sind.

Gast_
2006-09-20, 11:11:34
Das sind Patenttrolle. Erstens gibts BGA schon ewig und zweitens haben die das Patent ganz sicher eingekauft um Geld damit zu machen. Ich wär mir noch nicht so sicher ob ATI und andere Halbleiterfirmen von denen nicht auch noch verklagt werden, schließlich macht das Packaging TSMC und nicht nVIDIA selber.

Und zudem gabs schon bestimmt mehr als 2 Patentstreitigkeiten in die nVIDIA, ATI oder sonst auch wer immer der IHVs verwickelt war. In den USA ist das total bescheuert.

Aber bitte polier dein Weltbild ruhig weiter vom ach so schönen untergegangen Reich des großen 3Dfx, das überhaupt nix dafür konnte vom bösen bösen kapitalistischen nVIDIA aufgekauft zu werden :(

M_B
2006-09-20, 11:21:50
Ich persänlich stand vor einigen Wochen auch vor der Entscheidung ATI oder NV da meine alte Powervr-Graka leider keinen 64Bit Treibersupport hat.
Meine Wahl fiel dann auf eine NV Graka da die
1. Noch recht flotte AGP Grakas bauen
2. Der Linux Treiber von NV um Welten besser is als der von ATI
1. Das juckt eh keinen mehr, da man sich für den Mehrpreis gegenüber PCI-E schon fast ein PCI-E-Mainboard leisten kann.

2. Spielst du unter Linux?
Denn beim normalen Arbeiten (Office, Internet & Co) komme ich mit den ATI-Treibern unter Linux bestens klar.

Ich würde aber nicht behaupten das die ein oder andere Firma bessere Grakas wie die jeweils andere baut.
Das ist klar. Das kann man höchtens, wenn man die entsprechenden Graka-Generationen vergleicht.
Wie man z.B. behaupten kann, dass die FX-Serie (zumindest für den Spieler) der letzte Schrott war.

Nur in meinem spezielen Fall erschien mir eine NV Lösung als die bessere wahl.
Das ist auch korrekt so.
Man sollte sich im Klaren, was man braucht.
Ich z.B. komme an ATI nicht vorbei.
Hauptsächlich wegen der besseren BQ (Spiele und Heimkino).

Wobei ich auch ehrlich zugebe, dass ich Nvidia für die Verarschungsaktion (TWIMTBP) mit der FX-Serie nicht sonderlich mag.
Da wurde die tolle Theorie angepriesen, ja selbst einigen Gurus hier hat man wohl die Birne weichgeredet. Anders kann ich mir das nicht erklären, warum aths behauptet hat, dass es schon nicht so schlimm werden würde, obwohl die Shadermark-Werte eindeutig waren.

Gruß M_B

Gast121
2006-09-20, 11:25:14
2. Im Vertrag mit dem Hersteller der GPUs wird wohl drinstehn, dass in genau so einem Fall Nvidia für den Salat geradesteht.


Das glaubst du soch selber nicht, dass in irgendeinem Vertrag Dinge drinstehen, die sich auf zukünftige Patentverletzungen beziehen.


1. Ist es nicht so, dass es manchmal reicht nachzuweisen, dass man irgendwas erfunden hat und dann nachträglich ein Patent bekommt? Ich kann mich auch täuschen, aber ich glaube mich erinnern zu können dass es da was in die Richtung gibt... :|

Nein, das ist nicht so. Ein Patent erlangt Gültigkeit ab dem Tag an dem es eingereicht wurde (sofern das Patent erteilt wird). Und das Patent ist nichtig, falls nachgewiesen wird, dass das darin beschriebene Verfahren schon vor der Patenteinreichung von anderen genutzt wurde.

HOT
2006-09-20, 11:25:24
Selbstverständlich, was denn sonst?

FCPGA? Sogar die NForce Chipsätze, bis auf die Notebookvarianten, sind doch nicht mehr BGA, sondern haben ein FlipChip Gehäuse.

Mr. Lolman
2006-09-20, 11:43:32
Ich wär mir noch nicht so sicher ob ATI und andere Halbleiterfirmen von denen nicht auch noch verklagt werden, schließlich macht das Packaging TSMC und nicht nVIDIA selber.

Konsequent wäre es; v.A. wenn NV wirklich nix dafür kann. Genausogut wie 3dfx damals dann auch ATi verklagen hätte müssen. (Die Loser von Rendition, Intel, S3 und Matrox haben es ja 1998 nicht auf die Reihe gebracht, Karten mit Single-Pass Multitexturing auf den Markt zu bringen :rolleyes: )

Gast-141
2006-09-20, 11:45:35
FCPGA? Sogar die NForce Chipsätze, bis auf die Notebookvarianten, sind doch nicht mehr BGA, sondern haben ein FlipChip Gehäuse.

Die GPUs haben BGA Gehäuse. Ist so.

san.salvador
2006-09-20, 11:46:42
Das glaubst du soch selber nicht, dass in irgendeinem Vertrag Dinge drinstehen, die sich auf zukünftige Patentverletzungen beziehen.



Nein, das ist nicht so. Ein Patent erlangt Gültigkeit ab dem Tag an dem es eingereicht wurde (sofern das Patent erteilt wird). Und das Patent ist nichtig, falls nachgewiesen wird, dass das darin beschriebene Verfahren schon vor der Patenteinreichung von anderen genutzt wurde.
Da steht sicher etwas in Richtung "Für eventuell auftrende rechtliche Konflikte, die auf dem GPU-Design beruhen, ist der Auftraggeber Nvidia verantwortlich".
100% pro.

Gast543
2006-09-20, 11:56:18
Das erinnert mich an die Firma Rambus die quasi alle wichtigen Patente auf Ramspeicher haben.
Ich weiss noch gut als die damals beim erscheinen der ersten Intel P4 die allein ausrüster dieser Boards waren (Rims). Als Intel das dann zu teuer wurde und sie auf die wesentlich günstigeren DDR-Ram umgestiegen sind.
Daraufhin hat Rambus ihre Speicherfertigung komplett eingestellt und erst ma alle DDR-Ram Hersteller auf Patentverlezungen verklagt.
Mitlerweile lebt die Firma nur noch von Lizenzvergaben und einklagungen.
Da man Speicher einfach nicht an deren grundlegenden Patenten vorbeientwickeln kan.

The_Invisible
2006-09-20, 12:17:30
1. Das juckt eh keinen mehr, da man sich für den Mehrpreis gegenüber PCI-E schon fast ein PCI-E-Mainboard leisten kann.

2. Spielst du unter Linux?
Denn beim normalen Arbeiten (Office, Internet & Co) komme ich mit den ATI-Treibern unter Linux bestens klar.

Das ist klar. Das kann man höchtens, wenn man die entsprechenden Graka-Generationen vergleicht.
Wie man z.B. behaupten kann, dass die FX-Serie (zumindest für den Spieler) der letzte Schrott war.

Das ist auch korrekt so.
Man sollte sich im Klaren, was man braucht.
Ich z.B. komme an ATI nicht vorbei.
Hauptsächlich wegen der besseren BQ (Spiele und Heimkino).

Wobei ich auch ehrlich zugebe, dass ich Nvidia für die Verarschungsaktion (TWIMTBP) mit der FX-Serie nicht sonderlich mag.
Da wurde die tolle Theorie angepriesen, ja selbst einigen Gurus hier hat man wohl die Birne weichgeredet. Anders kann ich mir das nicht erklären, warum aths behauptet hat, dass es schon nicht so schlimm werden würde, obwohl die Shadermark-Werte eindeutig waren.

Gruß M_B

ich spiele unter linux liebend gern spiele, vor allem emulatoren die halt schon ne gewissen beschleunigung brauchen, aber auch "normale" opengl spiele gibts zuhauf. da sacken ati karten halt mächtig ab.

ich kaufe halt nicht gern eine graka die für mainstream ausgelegt ist. letztens erst wieder nen opengl bench gesehn wo noch keiner "optimieren" konnte, die gtx war doppelt so schnell als ne xtx (unter windows mit proprietären treibern), da hat man mal die wahre opengl treiberqualität gesehen.

mfg

Gast_
2006-09-20, 12:18:32
FCPGA? Sogar die NForce Chipsätze, bis auf die Notebookvarianten, sind doch nicht mehr BGA, sondern haben ein FlipChip Gehäuse.

FCPGA? Das ist ein Sockel. Flip Chips haben alle BGA.

Die Loser von Rendition, Intel, S3 und Matrox haben es ja 1998 nicht auf die Reihe gebracht, Karten mit Single-Pass Multitexturing auf den Markt zu bringen

Die Chips waren auch alle deutlich kleiner als TNT.

M_B
2006-09-20, 12:27:59
ich spiele unter linux liebend gern spiele, vor allem emulatoren die halt schon ne gewissen beschleunigung brauchen, aber auch "normale" opengl spiele gibts zuhauf. da sacken ati karten halt mächtig ab.
Normale OGL-Spiele gibt´s zuhauf?
Ist nicht dein Ernst.
Der Anteil an OGL-Spielen dürfte im Vergleich zu Dierct3D unter 1% liegen.
Sind also eine krasse Ausnahme.
Bei den Emulatoren gebe ich dir natürlich recht.

ich kaufe halt nicht gern eine graka die für mainstream ausgelegt ist. letztens erst wieder nen opengl bench gesehn wo noch keiner "optimieren" konnte, die gtx war doppelt so schnell als ne xtx (unter windows mit proprietären treibern), da hat man mal die wahre opengl treiberqualität gesehen.

mfg
Link? Quelle?
Wobei wie gesagt OGL nicht wirklich interessiert. Dürfte bei PC-Games eh bald aussterben.

Gruß M_B

Gast820
2006-09-20, 12:44:12
Link? Quelle?
Wobei wie gesagt OGL nicht wirklich interessiert. Dürfte bei PC-Games eh bald aussterben.

Gruß M_B

Sehe ich nicht so
Sollte sich Direct3D10 wegen
1. fehlender Abwertskompatibilität
2. Direct3D10-Grafikchips sollen eine satte Leistungsaufnahme von 250 Watt aufweisen.
zu einem Eigentor für M$ erweisen.
Könnte das OpenGL neu beflügeln.
Auch im Lager der Spieleentwickler is man nicht überal begeistert über die neue Direct3D10 Lösung.
Man darf gespannt sein wie sich das entwickelt

Gast_
2006-09-20, 12:46:28
1. fehlender Abwertskompatibilität

Oh gott, ihr raffts nich oder? Die GPUs sind natürlich abwärtskompatibel, es geht um das Interface. Das ist nur für Entwickler relevant die sich dann auch noch um D3D9 kümmern müssen.

2. Direct3D10-Grafikchips sollen eine satte Leistungsaufnahme von 250 Watt aufweisen.

Erstens sind das Gerüchte die sich erst noch als wahr herrausstellen müssen. Zweitens ist das High-End, das Mainstream wird auf keinen Fall so viel verbrauchen und drittens werden die D3D10-Features auch von OpenGL unterstützt werden und haben zudem auch gar nichts mit der Leistungsaufnahme zu tun.

Auch im Lager der Spieleentwickler is man nicht überal begeistert über die neue Direct3D10 Lösung.

Soso. Quelle?

HOT
2006-09-20, 12:48:14
Die GPUs haben BGA Gehäuse. Ist so.

Ist die Frage. Sind auch die FlipChips mit Balls oder wieder mit Pins mit der Platine verbunden. Wenn es Balls sind, wäre das quasi ein FCBGA ;).

Gast_
2006-09-20, 12:50:16
Ist die Frage. Sind auch die FlipChips mit Balls oder wieder mit Pins mit der Platine verbunden.

Balls.

Wenn es Balls sind, wäre das quasi ein FCBGA ;).

Richtig. Aber FC oder nicht spielt glaube ich hier gerade keine Rolle, es geht nur um die Unterseite des Substrats.

StefanV
2006-09-20, 12:52:49
Die Penner haben damals auch schon von http://666kb.com/i/afdp57w0hbxmx3epi.gif geklaut :mad:
Och, wer uns 3x das gleiche verkauft und beim 4. mal nur geringe Änderungen ändern tut, hats nicht besser verdient :P

Ganz ab davon:
Zeigt mal weider wie dämlich einige Patente sind :mad:

AnarchX
2006-09-20, 12:53:29
Das ist scheiß normales Single-Pass-Mulittexturing ohne Multipass. Das ist ein absolutes Trivialpatent.
Das war auch mein Gedanke zu diesem Patent, danke für die Bestätigung.

Patente sind aber schon nützlich, aber auf der anderen Seite stehen unsinnige Trivialpatente und Missbrauch bestimmter Patente.:rolleyes:

The_Invisible
2006-09-20, 12:56:58
Normale OGL-Spiele gibt´s zuhauf?
Ist nicht dein Ernst.
Der Anteil an OGL-Spielen dürfte im Vergleich zu Dierct3D unter 1% liegen.
Sind also eine krasse Ausnahme.
Bei den Emulatoren gebe ich dir natürlich recht.

schon klar, ich meinte da natürlich linux. unter windows gibts trotzdem auch viele freeware/hobby spiele die auf opengl basieren.


Link? Quelle?
Wobei wie gesagt OGL nicht wirklich interessiert. Dürfte bei PC-Games eh bald aussterben.

Gruß M_B

kann ich nachreichen wenn ich feierabend habe.

btw genau deswegen juckt es ati ja anscheinend nicht den opengl treiber zu verbessern, für die großen spiele optimiert man halt fleißig, aber mir kommts vor als wolle man ja nicht zu viel arbeitszeit damit "vergeuden".

mfg

StefanV
2006-09-20, 13:00:04
Nutzt NV noch überhaupt BGA Gehäuse?
Ja, die MCP410 und 430 sind BGA, ebenso die SBs der Intel Chipsätze.

StefanV
2006-09-20, 13:01:13
Zur Abwechslung mal was zum Topic.

1. Die Patente wurden Anfang 2005 eingereicht, als es BGA Chips schon jahrelang gab. Also braucht man die Patente wohl nicht, um BGA Chips herzustellen.

2. Nvidia stellt ja keine Chips her, also können sie die Patente nicht verletzen.
Da hofft man doch, das das Patent unwirksam ist und man mit 'ner Gegenklage kontert...

So eine Scheiße zum abzocken ist absolut nicht schön, da könnt man ja betrügerische Absicht vermuten...

Mr. Lolman
2006-09-20, 13:10:03
Och, wer uns 3x das gleiche verkauft und beim 4. mal nur geringe Änderungen ändern tut, hats nicht besser verdient :P


Die Voodoo2 war bis 4x so flott wie die Voodoo Graphics. Die Voodoo3 nochmal doppelt so schnell und die Voodoo5 insgesamt fast 16x flotter als die Voodoo1. D.h. innerhalb von ~3 Jahren haben die die Leistung fast versechzehnfacht!

Trotzdem haben die Leut damals schon angefangen den überhypten TNT Rotz zu kaufen. Und mit HWTnL hatte NV dann einen dermaßen starken Marketingbonus, dass die Voodoos nur so in den Regalen liegen blieben. Und dass, obwohl die Voodoo5 5500 damals günstiger war als die GF2 GTS und durchschnittlich ne bessere BQ bot (bei ähnlicher Leistung)...

StefanV
2006-09-20, 13:11:10
Das erinnert mich an die Firma Rambus die quasi alle wichtigen Patente auf Ramspeicher haben.
Ich weiss noch gut als die damals beim erscheinen der ersten Intel P4 die allein ausrüster dieser Boards waren (Rims). Als Intel das dann zu teuer wurde und sie auf die wesentlich günstigeren DDR-Ram umgestiegen sind.
Daraufhin hat Rambus ihre Speicherfertigung komplett eingestellt und erst ma alle DDR-Ram Hersteller auf Patentverlezungen verklagt.
Mitlerweile lebt die Firma nur noch von Lizenzvergaben und einklagungen.
Da man Speicher einfach nicht an deren grundlegenden Patenten vorbeientwickeln kan.
1. DDR-RAM ist auch RAMBUS und alle DDR-RAM Hersteller habens nicht verklagt, nur DDR-SDRAM Hersteller.
DDR-RAM ist einfach nur ein Oberbegriff, der _ALLE ARTEN_ von Speichern zusammen, die Datne zwischen Controllern und sich selbst im DDR-Verfahren übertragen...

2. war das ein wenig anders...
Intel war vertraglich an RAMBUS gebunden, sie durften keine Chipsätze mit anderen Technologien die mehr als 1GB/Sec zwischen Chipsatz und RAM übertragen können, basteln.
Wenns 'nur' dringestanden wär, das es DDR-SDRAM betrifft, hätten wir damals schon Dual Chan SDR-SDRAM Chipsätze gehabt ;)

Alles in allem hat sich Intel damals selbst 'nen Ei gelegt, das RDRAM nicht von den Speicherherstellern angenommen werden würde, hätte Intel wissen _MÜSSEN_, denn die Unterschiede zwischen RDRAM und SDRAM sind gewaltig, auch was das Packaging betrifft!!

z.B. bei RDRAM wurd einfach das DIE, ohne Packung, aufs PCB gelötet, während die SDRAM Dies noch in ein TSOP Gehäuse gepackt wurden...
Auch die Maschinen zum Testen der RAM Zellen waren andere, kurz: die Kosten für die Umstellung von SDRAM auf RDRAM waren enorm...

PS: das es RDRAM nicht geworden ist, darüber können wir glücklich sein, denn erstens ist die Latenz unterirdisch, zweitens sinds ganz schön warme Bürschchen...

Gast_
2006-09-20, 13:14:28
Die Voodoo2 war bis 4x so flott wie die Voodoo Graphics. Die Voodoo3 nochmal doppelt so schnell und die Voodoo5 insgesamt fast 16x flotter als die Voodoo1. D.h. innerhalb von ~3 Jahren haben die die Leistung fast versechzehnfacht!

Alles über Taktsteigerung und Multichip. Da brauchst natürlich übel viel Entwicklungsresourcen...

Und man sollte das "bis zu" nicht überlesen.

Lolman lass es ruhen. Es sind ganz einfache primitive Rasterizer die am Ende noch um SSAA erweitert wurden indem man ihnen nen Register verpasst hat die die Vertex-Inputs um nen Bias verschieben und den RAMDAC ermöglicht hat die Werte zu mischen (ohne Gamma-Downsampling). Das ist bestimmt nix besonderes...

StefanV
2006-09-20, 13:15:51
Die Voodoo2 war bis 4x so flott wie die Voodoo Graphics. Die Voodoo3 nochmal doppelt so schnell und die Voodoo5 insgesamt fast 16x flotter als die Voodoo1. D.h. innerhalb von ~3 Jahren haben die die Leistung fast versechzehnfacht!
1. Voodoo2 war ein höhergetakteter, leicht modifizierter V1, Voodoo3 war 'ne V2 mit 2D Grafikkern, dann gabs auch noch 'ne Banshee, Voodoo2 mit einer TMU + 2D Grafik, bis hierhin sind alle identisch, mehr oder minder...
Keiner kann wirklich mehr als die V1 konnte, erst der VSA100 bot mehr Funktionen als eine V1.


Trotzdem haben die Leut damals schon angefangen den überhypten TNT Rotz zu kaufen. Und mit HWTnL hatte NV dann einen dermaßen starken Marketingbonus, dass die Voodoos nur so in den Regalen liegen blieben. Und dass, obwohl die Voodoo5 5500 damals günstiger war als die GF2 GTS und durchschnittlich ne bessere BQ bot (bei ähnlicher Leistung)...
Das einige Dinge damals etwas arg gehypt wurden, obwohls nichts brachte, da hast durchaus Recht, nur hätte 3DFX die entsprechenden Funktionen anbieten können, das sie kein 32bit konnten, damals als es alle anderen schon konnten, teilweise in der 2. Generation, war schon arg dämlich...

Wobei ATi allen anderen damals weit überlegen war, waren die einzigen, die damals keine Bratpfannen bzw Heizplatten hergestellt haben...

DrFreaK666
2006-09-20, 13:24:05
1. Voodoo2 war ein höhergetakteter, leicht modifizierter V1, Voodoo3 war 'ne V2 mit 2D Grafikkern, dann gabs auch noch 'ne Banshee, Voodoo2 mit einer TMU + 2D Grafik, bis hierhin sind alle identisch, mehr oder minder...
Keiner kann wirklich mehr als die V1 konnte, erst der VSA100 bot mehr Funktionen als eine V1.
...

Naja, die Voodoo 2 bot Bump-Mapping, die V3 und Banshee den 22bit-Filter.
Trotzdem hääte man einen grösseren Schritt erwarten können - das stimmt.
Trotzdem war das meine Reihenfolge: V1 - V2 - GF2Pro - V5-5500

Gast_
2006-09-20, 13:26:41
Naja, die Voodoo 2 bot Bump-Mapping

Emboss. Das kann jede Grafikkarte die einfachstes Framebuffer-Blending hat. Auch Voodoo 1.

die V3 und Banshee den 22bit-Filter.

Ok, sinnvolles Feature, das muss man 3Dfx lassen.

Überlegt mal, 3Dfx hat über 4 Generationen immer wieder das gleiche Ding etwas verbessert und hat es dann immer noch nicht auf die Reihe gebracht Rampage zeitig auf den Markt zu bringen. Imho hats da ganz gewaltig an Entwicklungsresourcen gemangelt bzw. an Fehlmanagement dass das nicht bemerkt hat.

Mr. Lolman
2006-09-20, 13:34:27
Lolman lass es ruhen. Es sind ganz einfache primitive Rasterizer die am Ende noch um SSAA erweitert wurden indem man ihnen nen Register verpasst hat die die Vertex-Inputs um nen Bias verschieben und den RAMDAC ermöglicht hat die Werte zu mischen (ohne Gamma-Downsampling). Das ist bestimmt nix besonderes...

Primitive Rasterizer die arg flott waren, dank Postfiltering (und später SGSSAA) überlegene BQ boten und (z.T. deutlich) preiswerter waren, als die Angebote der Konkurrenz...

1. Voodoo2 war ein höhergetakteter, leicht modifizierter V1, Voodoo3 war 'ne V2 mit 2D Grafikkern, dann gabs auch noch 'ne Banshee, Voodoo2 mit einer TMU + 2D Grafik, bis hierhin sind alle identisch, mehr oder minder...
Keiner kann wirklich mehr als die V1 konnte, erst der VSA100 bot mehr Funktionen als eine V1.

Scheiss drauf. Die Funktionen wurden selbst lange Zeit nach dem Ableben von 3dfx nicht benötigt. Ich zahl halt nicht gerne für Features die die Lebzeit der Karte brach liegen bleiben...


Das einige Dinge damals etwas arg gehypt wurden, obwohls nichts brachte, da hast durchaus Recht, nur hätte 3DFX die entsprechenden Funktionen anbieten können, das sie kein 32bit konnten, damals als es alle anderen schon konnten, teilweise in der 2. Generation, war schon arg dämlich...

Ärgerlich, aber in der Praxis kein Beimbruch, da 32bit Rendering ohnehin erst in der 3. Generation brauchbar wurde. Bis dahin dürfte man sich bei der Konkurrenz mit (vgl. mit 3dfx) miesen 16bit Rendering herumschlagen.


Wobei ATi allen anderen damals weit überlegen war, waren die einzigen, die damals keine Bratpfannen bzw Heizplatten hergestellt haben...

Dafür konnten sie leistungmässig nicht mithalten...

Überlegt mal, 3Dfx hat über 4 Generationen immer wieder das gleiche Ding etwas verbessert und hat es dann immer noch nicht auf die Reihe gebracht Rampage zeitig auf den Markt zu bringen. Imho hats da ganz gewaltig an Entwicklungsresourcen gemangelt bzw. an Fehlmanagement dass das nicht bemerkt hat.

Andererseits zeigt es auch, wie gut dieses "Ding" war...

Gast_
2006-09-20, 13:36:48
Primitive Rasterizer die arg flott waren, dank Postfiltering (und später SGSSAA) überlegene BQ boten und (z.T. deutlich) preiswerter waren, als die Angebote der Konkurrenz...

Mag sein, aber lange wäre das nicht mehr gut gegangen und ob Rampage geholfen hätte? Ich bin da skeptisch.

3Dfx hätte die Features sicher auch gerne gebracht, es fehlte wohl schlicht und einfach an den Leuten.

Mr. Lolman
2006-09-20, 13:41:55
Mag sein, aber lange wäre das nicht mehr gut gegangen und ob Rampage geholfen hätte? Ich bin da skeptisch.

3Dfx hätte die Features sicher auch gerne gebracht, es fehlte wohl schlicht und einfach an den Leuten.

Absolut ACK. Leider ists ab der Voodoo3 mit 3dfx bergab gegangen. Wegen fehlendem 32bit Rendering - und bei der Voodoo5 wegen fehlendem HW-TnL - waren die Karten einfach nichtmehr "zukunftssicher" :ulol: :usad:

Gast_
2006-09-20, 13:49:14
Glaubst du nVIDIA würds heute noch geben wenn sie statt NV30 damals NV28 gebracht hätten und als Refresh nochmal das gleiche und dann NV40 nicht fertiggebracht hätten?

M_B
2006-09-20, 13:50:11
btw genau deswegen juckt es ati ja anscheinend nicht den opengl treiber zu verbessern, für die großen spiele optimiert man halt fleißig, aber mir kommts vor als wolle man ja nicht zu viel arbeitszeit damit "vergeuden".

mfg
So sieht´s aus.

Ich habe noch eine Aussage von einem ATI-Mitarbeiter im Hinterkopf, der meinte, dass es sich nicht lohne Leute für OGL abzustellen, da einfach zu wenige Spiele auf den Markt kommen und man lieber den Direct3D-Part optimieren will.

Könnte sich halt ändern, wenn mehr OGL-Spiele auf den Markt kommen würden.

Gruß M_B

Mr. Lolman
2006-09-20, 13:58:12
Glaubst du nVIDIA würds heute noch geben wenn sie statt NV30 damals NV28 gebracht hätten und als Refresh nochmal das gleiche und dann NV40 nicht fertiggebracht hätten?

Wenn das Ding flott genug gewesen wäre, höchstwahrscheinlich. Ich sag ja nicht, dass 3dfx keine Schuld an ihrem Ableben trifft, aber neben der nicht immer fein agierenden Konkurrenz, haben ihnen wohl die miesen Reviews den Rest gegeben.

Da hat man halt einfach frech 32bit gebencht und 3dfx rote Balken mit 0 fps aufs Aug gedrückt und gleichzeitig davor gewarnt 3dfx zu kaufen, wenn man in eine zukunftssichere Karte investieren will. Man hat tw auch völlig kontrastarme Szenen für AA Vergleiche hergezogen. Oder 3dfx-Kartenmit D3D gebencht, obwohl das Spiel Glide unterstüzt hat,...

Eine derartige Testphilosophie bei NVidia in Bezug auf HDR+AA an den Tag zu legen ist heutzutage unvorstelltbar, gell? Damals waren verfpuschte Reviews Gang und Gäbe. Wohl nicht zuletzt deswegen weil NV mehr finanzielle Ressourcen für Marketingpapiere locker gemacht hat, welche, bei technischen Erklärungen, dem überforderten Tester oftmals ne große Hilfe waren...

Gast
2006-09-20, 14:45:27
Andererseits zeigt es auch, wie gut dieses "Ding" war...

Nein, es zeigt nur, dass sich eine Firma in den Ruin treibt, wenn sie nicht innovativ ist.
Hätte 3dfx nicht solange von ihrem Ruhm als erster Spiele-3D-Chiphersteller zehren können, dann wären sie schon vorher pleite gegangen.

Raff
2006-09-20, 14:53:27
Uah, jedes Mal die selbe Diskussion. Ich schüttel da nur den Kopf ... Was würdet ihr denn heute kaufen? Eine Grafikkarte, die ab und zu mal schneller ist ... oder doch eine, die neben fast genauso guter Geschwindigkeit (manchmal besser) FSAA völlig außer Konkurrenz bietet? Ich verstehe die Leute nicht, die ernsthaft dem letzten Frame pro Sekunde nachrennen ... denn genau wegen denen gibt es die lieben "Optimierungen".

MfG,
Raff

Mr. Lolman
2006-09-20, 14:56:44
Nein, es zeigt nur, dass sich eine Firma in den Ruin treibt, wenn sie nicht innovativ ist.
Hätte 3dfx nicht solange von ihrem Ruhm als erster Spiele-3D-Chiphersteller zehren können, dann wären sie schon vorher pleite gegangen.

3dfx wäre nicht einfach so pleite gegangen, wenn die Medienakzeptanz höher gewesen wäre. Hat ja schon damit angefangen, dass man bei 3D-Beschleuniger Tests die Voodookarten tw. garnicht antreten lassen hat, weil sie damals keinen 2D Kern hatten.

Oder die Banshee - wurde im Vorfeld verrissen, weil sie in Multitexturingspielen nicht mit ner Voodoo2 mithalten konnte. Dass man damit trotzdem ~TNT Performance hatte, und dass das Ding nichtmal 130€ gekostet hat war ja auch uninteressant...

robbitop@work
2006-09-20, 15:07:58
So ist das nunmal in der Marktwirtschaft. Ein Unternehmen muss sich nach dem Markt und den Kunden ausrichten. 3dfx tat dies nicht. Selbst schuld. Der Markt verlangt nunmal im GPU Bereich Features neben der Performance. 3dfx hat die Rampage Entwicklung verschlafen und ist damit am eigenen Untergang selbst schuld und nicht die bösen Medien oder die dämlichen Kunden. Wieviele Respins hatte Rampage nochmal? 4x?
Das Teil hätte 1999 fertig sein sollen. Man verschlief es, das Engineering aufzustocken und neue Tools zu kaufen. Dankt dem Missmanagement und nicht der Presse.
Was die Entwickler von 3dfx technisch draufgehabt hätten, hätte Rampage zeigen können und man zeigte es in der Entwicklung der CineFX Architektur. Die Voodoo Architektur war, wie Gast_ erwähnte, bis zum Schluss immer nur aufgebohrt. Das kann auf Dauer nicht gutgehen.

P.S. Irgendwann ist's mit den Fan-Gesängen auch mal wieder gut, Jungs ;-)

aths
2006-09-20, 15:23:09
Die Voodoo2 war bis 4x so flott wie die Voodoo Graphics. Die Voodoo3 nochmal doppelt so schnell und die Voodoo5 insgesamt fast 16x flotter als die Voodoo1. D.h. innerhalb von ~3 Jahren haben die die Leistung fast versechzehnfacht!Nana. Voodoo 1 kam 1995 glaube ich, Voodoo 5 kam iiirc erst 2000. Das sind 4-5 Jahre.

Trotzdem haben die Leut damals schon angefangen den überhypten TNT Rotz zu kaufen. Und mit HWTnL hatte NV dann einen dermaßen starken Marketingbonus, dass die Voodoos nur so in den Regalen liegen blieben. Und dass, obwohl die Voodoo5 5500 damals günstiger war als die GF2 GTS und durchschnittlich ne bessere BQ bot (bei ähnlicher Leistung)...Die TNT war kein Rotz. Featuremäßig auf vielen (nicht allen) Feldern fortschrittlicher als die damalige Voodoo.

Die Voodoo 5 blieb nicht in den Regalen liegen, die Nachfrage war so groß, dass nicht genügend Chips geliefert werden konnten – weil eine der Fabriken ihre Fertigungsstraße angesichts der langen Wartezeit inzwischen anderweitig ausgelastet hatte. Infolgedessen blieben auch die Preise für die VSA-100-Karten hoch, und erreichten kaum ein konkurrenzfähiges Preisniveau.

Ich rate zu differenzierter Betrachtungsweise. Damals kaufte ich z. B. die Voodoo 4 4500, und keine GeForce 2 MX – und fuhr angesichts meines Spiele-Portfolios damit auch besser. Otto Normalverbraucher wäre wahrscheinlich mit einer GeForce 2 MX besser bedient gewesen.


Scheiss drauf. Die Funktionen wurden selbst lange Zeit nach dem Ableben von 3dfx nicht benötigt. Ich zahl halt nicht gerne für Features die die Lebzeit der Karte brach liegen bleiben...... und worauf sollen die Entwickler entwickeln? Wie lange soll die Devise tragen, nur das einzubauen was der Spieler here and now nutzen kann? Damit übersteht man – siehe ATI – durchaus mal eine Generation. Auf Dauer ist das aber kein erfolgversprechendes Modell.

Nicht, dass ich missverstanden werde. Ich halte die 3dfx-Produkte schon für den Gamer brauchbar, solange er tatsächlich spielt und nicht nur auf den 3DMark-Score guckt. Wer mit Voodoos groß geworden ist, erlebte die ersten 3D-beschleunigten Spiele in Glide. Auch später war Glide einfach bequem: Glide nutzen, und man hat alle Effekte und sehr gute Performance. Das ist mit D3D oder OpenGL nicht so, da muss man schon mal wegen Grafikfehlern einen anderen Treiber installieren oder an der Config-Datei des Spieles rumfummeln. Dieses "einbauen – funzt"-Gefühl hatte man so nur bei der Voodoo.

Nvidia hingegen hat einen zwar mit Techdemos heiß gemacht, aber in den Spielen kämpfte man mit Grafikfehlern. Einziger Trost: Durch neue Treiber ständige "Leistungssteigerungen" in Benchmarks und in Q3A (teilweise echte Steigerung, teilweise nur Timedemo-Gecheate.)

Tigerchen
2006-09-20, 15:25:44
Die Penner haben damals auch schon von http://666kb.com/i/afdp57w0hbxmx3epi.gif geklaut :mad:

Ich bin eher gegen diese Vielzahl von Minipatenten die sich manche Firmen gewähren lassen. Die sind nur dazu da um wie die Spinne im Netz zu hocken um dann bei einer Patentverletzung zuzuschlagen. Ist ja kaum noch möglich im IT-Bereich was ohne eine Bande von Patentanwälten zu entwicklen weil es ja viel zu viele Patente gibt.

Grestorn
2006-09-20, 15:32:44
Wobei ich auch ehrlich zugebe, dass ich Nvidia für die Verarschungsaktion (TWIMTBP) mit der FX-Serie nicht sonderlich mag.

Du hättest es wohl lieber gehabt, wenn sie ehrlich in ihrer Werbung gesagt hätten: "Wir sind zwar viel langsamer als die Konkurenz, aber wenigstens haben wir das bessere AF!".

Get real. Werbung ist immer gleich. Es ist zwar auch mein Motto, dass unverschämte Werbung das Produkt unsympathisch macht, aber die Aussage "nimm mich, ich bin besser für Dich" (und nichts anderes sagt TWIWMTBP) ist nicht unverschämt, sondern Inhalt einer jeden Werbung.

Mr. Lolman
2006-09-20, 15:40:08
Nana. Voodoo 1 kam 1995 glaube ich, Voodoo 5 kam iiirc erst 2000. Das sind 4-5 Jahre.

Im Q4 1996 kam sie raus. Die Voodoo5 kam im Q1 2000.


Die TNT war kein Rotz. Featuremäßig auf vielen (nicht allen) Feldern fortschrittlicher als die damalige Voodoo.

Wenn ne 130€ Banshee in quasi allen D3D Spielen genauso flott war, dann imo schon.


Die Voodoo 5 blieb nicht in den Regalen liegen, die Nachfrage war so groß, dass nicht genügend Chips geliefert werden konnten – weil eine der Fabriken ihre Fertigungsstraße angesichts der langen Wartezeit inzwischen anderweitig ausgelastet hatte. Infolgedessen blieben auch die Preise für die VSA-100-Karten hoch, und erreichten kaum ein konkurrenzfähiges Preisniveau.

IIRC warens nichtmal 5% der ct' Leser die ne Voodoo5 wollten. (Und ~75% ne GF2)


Ich rate zu differenzierter Betrachtungsweise. Damals kaufte ich z. B. die Voodoo 4 4500, und keine GeForce 2 MX – und fuhr angesichts meines Spiele-Portfolios damit auch besser. Otto Normalverbraucher wäre wahrscheinlich mit einer GeForce 2 MX besser bedient gewesen.

In dem Fall schon. Aber wie siehts mit GF2 GTS vs. Voodoo5 aus?


... und worauf sollen die Entwickler entwickeln? Wie lange soll die Devise tragen, nur das einzubauen was der Spieler here and now nutzen kann? Damit übersteht man – siehe ATI – durchaus mal eine Generation. Auf Dauer ist das aber kein erfolgversprechendes Modell.

Die Entwickler können auch Software programmieren, solang die HW dazu noch nicht exisitiert. In Realtime läufts dann halt erst auf der passenden HW. (GLQuake war ja auch von anfang an TnL fähig) Ich bins einfach leid, Features in HW herumzuschleppen und zu bezahlen, die ich nicht nutzen kann.

Zwar hat mein R580 >100Mio Transistoren mehr als ein G71, dafür kann ich HDR+AA nutzen (und hab bis jetzt >100 Stunden Oblivion damit gespielt; wahrscheinlich sogar 200, wenn man die Tweakerei und das Austesten mitzählt). Gäbs dieses Feature nicht, wären das für mich 100Mio Transistoren Ballast, die die leicht bessere BQ auch nur sehr schwer aufwiegen könnte.

Mr. Lolman
2006-09-20, 15:42:40
Ich bin eher gegen diese Vielzahl von Minipatenten die sich manche Firmen gewähren lassen. Die sind nur dazu da um wie die Spinne im Netz zu hocken um dann bei einer Patentverletzung zuzuschlagen. Ist ja kaum noch möglich im IT-Bereich was ohne eine Bande von Patentanwälten zu entwicklen weil es ja viel zu viele Patente gibt.


Entweder Open Source und keine Patente oder Closed Source inkl. Patentkacke. Wenn sich die IHVs nicht in die Karten schauen lassen wollen, ists ihr gutes Recht ihre Erfindungen zu patentieren.

robbitop@work
2006-09-20, 15:44:02
IIRC warens nichtmal 5% der ct' Leser die ne Voodoo5 wollten. (Und ~75% ne GF2)
Das ist nicht wirklich aussagekräftig, ähnlich wie eine Umfrage in den Foren.
Dass 3dfx enorme Lieferschwierigkeiten aufgrund der Foundry hatte sollte ja ein Faktum sein. Die V5 wurde gekauft.



Zwar hat mein R580 >100Mio Transistoren mehr als ein G71, dafür kann ich HDR+AA nutzen (und hab >100 Stunden Oblivion damit gespielt; wahrscheinlich sogar 200, wenn man die Tweakerei und das Austesten mitzählt). Gäbs dieses Feature nicht, wären das für mich 100Mio Transistoren Ballast, die die leicht bessere BQ auch nur sehr schwer aufwiegen könnte.
Vergiss das Area AF und die brachiale Shaderleistung nicht. ;-)

AtTheDriveIn
2006-09-20, 15:48:32
Wenn ich das jetzt richtig verstanden habe, geht es im Streit nicht in erster Linie um die Bauform BGA, sondern um Techniken im Herstellungsprozess eben dieser.

Was mich nun verwundert ist: Warum wird nvidia verklagt und nicht die Chiphersteller, schließlich besitzt Nv keine eigenen Fabriken oder doch?

Heißt wohl das Nvidia sich den erstandenen Schaden möglicherweise von seinen Partnern zurückholen wird...?

M_B
2006-09-20, 15:54:45
Du hättest es wohl lieber gehabt, wenn sie ehrlich in ihrer Werbung gesagt hätten: "Wir sind zwar viel langsamer als die Konkurenz, aber wenigstens haben wir das bessere AF!".

Get real. Werbung ist immer gleich. Es ist zwar auch mein Motto, dass unverschämte Werbung das Produkt unsympathisch macht, aber die Aussage "nimm mich, ich bin besser für Dich" (und nichts anderes sagt TWIWMTBP) ist nicht unverschämt, sondern Inhalt einer jeden Werbung.
Du verstehst nicht ganz, was ich meine. :)

Die Leute von Nvidia sind ja nicht dumm. Die wissen am besten wie gut oder schlecht ihr Produkt ist.
Da sie gemerkt haben, dass die FX-Serie eine Krücke wird, haben sie wenigstens versucht zu retten, was es noch zu retten gab.
Deshalb auch dieses TWIMTBP-Programm. Klar bietet NV dabei auch Support an die Spielehersteller, allerdings ziehen sie auch Vorteile dadurch (z.B. durch pp_hints).

Oder warum kam TWIMTBP zufällig zu FX Zeiten? hehe.

Werbung ok. Aber das ist imo schon grobe Verarsche oder man könnte es auch einen Täuschungsversuch nennen.

Gruß M_B

M_B
2006-09-20, 15:58:56
Uah, jedes Mal die selbe Diskussion. Ich schüttel da nur den Kopf ... Was würdet ihr denn heute kaufen? Eine Grafikkarte, die ab und zu mal schneller ist ... oder doch eine, die neben fast genauso guter Geschwindigkeit (manchmal besser) FSAA völlig außer Konkurrenz bietet? Ich verstehe die Leute nicht, die ernsthaft dem letzten Frame pro Sekunde nachrennen ... denn genau wegen denen gibt es die lieben "Optimierungen".

MfG,
Raff
Full Ack.

Wenn ich sehe, dass manche Leute sich über ein paar Frames streiten, da kann ich auch nur müde lächeln.
Für mich ist die BQ entscheidend.

Gruß M_B

Mr. Lolman
2006-09-20, 16:03:13
Vergiss das Area AF und die brachiale Shaderleistung nicht. ;-)

Area AF = nice to have aber für mich kein muss feature. Ich war auch schon mit der R300 AF Qualität sehr zufrieden. Und von der brachialen Shaderleistung hab ich momentan auch nur bei einigen wenigen Spielen was.

Wenn NV ein besseres AF hätte (mir gefällt die partielle Flimmeranfälligkeit nicht), einem dem Performance AAA äquivalenten Modus anbieten würde und ne 7900GTX günstiger wäre als ne X1900XTX würde mich meine X1900XTX kaum so begeistern können.

Natürlich ist man durch die hohe Shaderleistung wahrscheinlich besser für die Zukunft gerüstet, aber wär die Grundleistung und die BQ nicht so überzeugend würd ich wirklich nicht auf ATi setzen wollen. Denn für die Zukunft gerüstet sein heisst in der GraKasparte, die nächsten 6-9 Monate nicht aufrüsten zu müssen. Und bevor die ISVs dazu kommen, Spiele zu veröffentlichen, die die aktuell vorhandenen Features ausreizen, gibts schon meist die nächst schnellere GraKa-Generation.


Wie auch bei TnL: Zu Zeiten der GF256 total gehyped, bei der GF2 GTS immernoch bloß ein nettes Goodie. (Da wussten die Reviewer aber schon, dass es nun wirklich Zeit wird für TnL - und tatsächlich gabs dann ein paar DX7 HW-TnL only Spiele). Zu DX8 Zeiten wars schon wieder wurscht. Da ists imo auch bezeichnend, dass sich der Feature Mangel der Voodoo5 ohnehin erst bei DX8 Spielen grafisch offenbart hat. Blöderweise sieht ne GF2 bei DX8 Spielen nicht viel besser aus.

Gast
2006-09-20, 16:06:25
Wenn NV ein besseres AF hätte (mir gefällt die partielle Flimmeranfälligkeit nicht), einem dem Performance AAA äquivalenten Modus anbieten würde und ne 7900GTX günstiger wäre als ne X1900XTX würde mich meine X1900XTX kaum so begeistern können.

Die Kehrseite der Medallie ist dass ATI die Käufer praktisch mit der besseren BQ verarscht, weil sie ohne AI nicht vorhanden ist.

Der krankeste Ausdruck dessen ist dass Crossfire nur mit A.I. High konfigurierbar ist. Das ist so zynisch, das man nicht weiß ob man lachen oder weinen soll.

robbitop@work
2006-09-20, 16:07:42
Area AF = nice to have aber für mich kein muss feature. Ich war auch schon mit der R300 AF Qualität sehr zufrieden.
Bei Oblivion ist Area AF dank der Levelgeometrie ein Muss (IMO). Die Winkelabhängigkeit sieht auf ner RV360 furchtbar aus. Auf der R580 mit AreaAF ist alles gleichmäßig gefiltert. Das ist deutlich angenehmer.

P.S: Deine Oblivion ini, die du mal online gestellt hast, läßt mein Obli beim Start immer crashen :(
schick mir mal deine aktuelle (falls die funkt)

Mr. Lolman
2006-09-20, 16:10:16
Die Kehrseite der Medallie ist dass ATI die Käufer praktisch mit der besseren BQ verarscht, weil sie ohne AI nicht vorhanden ist.

Der krankeste Ausdruck dessen ist dass Crossfire nur mit A.I. High konfigurierbar ist. Das ist so zynisch, das man nicht weiß ob man lachen oder weinen soll.

AI ist seit dem 6.6 eindeutig schöner geworden. Mittlerweile kann man auch mit AIhigh, tw. kaum noch einen Unterschied zu AIoff ausmachen (bzw würd ich gerne ne Situation wissen, wo das doch der Fall ist)

Das ist nicht wirklich aussagekräftig, ähnlich wie eine Umfrage in den Foren.
Dass 3dfx enorme Lieferschwierigkeiten aufgrund der Foundry hatte sollte ja ein Faktum sein. Die V5 wurde gekauft.

Mag sein, dass es Lieferprobleme gab, bei uns waren die Regale jedenfalls voll mit Voodoo5s.

P.S: Deine Oblivion ini, die du mal online gestellt hast, läßt mein Obli beim Start immer crashen :(
schick mir mal deine aktuelle (falls die funkt)

Mach ich, sobald ich wieder zuhause bin...

AtTheDriveIn
2006-09-20, 16:11:09
Ist seid furchtbar OT. Bildquali hat hier genausowenig verloren wie die Diskussion um die Leistungen der Voodoo-Generationen.

Gast
2006-09-20, 16:12:52
Zum eigentlichen Thema, das wohl ein Troll erstellt hat gibts halt nicht viel zu melden ;)

robbitop@work
2006-09-20, 16:18:02
Ist seid furchtbar OT. Bildquali hat hier genausowenig verloren wie die Diskussion um die Leistungen der Voodoo-Generationen.
Das Thema ist abgegrast. So what?

AI ist seit dem 6.6 eindeutig schöner geworden. Mittlerweile kann man auch mit AIhigh, tw. kaum noch einen Unterschied zu AIoff ausmachen (bzw würd ich gerne ne Situation wissen, wo das doch der Fall ist)
Das Flimmern ist dir nicht aufgefallen? Hast du dich darüber mal mit dem guten Raff unterhalten, der einen feinen "Hetzartikel" dazu verfasst?


Mag sein, dass es Lieferprobleme gab, bei uns waren die Regale jedenfalls voll mit Voodoo5s.
*gg* Na dann bin ich ja beruhigt, dass eure Lieferregale ein wesentlicher Indikator für die Verkäufe von Grafikkarten ist... ;)

Gast
2006-09-20, 16:21:14
Lolman hör auf hier rumzuflammen!

aths
2006-09-20, 16:26:15
Area AF = nice to have aber für mich kein muss feature. Ich war auch schon mit der R300 AF Qualität sehr zufrieden. Und von der brachialen Shaderleistung hab ich momentan auch nur bei einigen wenigen Spielen was.

Wenn NV ein besseres AF hätte (mir gefällt die partielle Flimmeranfälligkeit nicht), einem dem Performance AAA äquivalenten Modus anbieten würde und ne 7900GTX günstiger wäre als ne X1900XTX würde mich meine X1900XTX kaum so begeistern können.

Natürlich ist man durch die hohe Shaderleistung wahrscheinlich besser für die Zukunft gerüstet, aber wär die Grundleistung und die BQ nicht so überzeugend würd ich wirklich nicht auf ATi setzen wollen. Denn für die Zukunft gerüstet sein heisst in der GraKasparte, die nächsten 6-9 Monate nicht aufrüsten zu müssen. Und bevor die ISVs dazu kommen, Spiele zu veröffentlichen, die die aktuell vorhandenen Features ausreizen, gibts schon meist die nächst schnellere GraKa-Generation.


Wie auch bei TnL: Zu Zeiten der GF256 total gehyped, bei der GF2 GTS immernoch bloß ein nettes Goodie. (Da wussten die Reviewer aber schon, dass es nun wirklich Zeit wird für TnL - und tatsächlich gabs dann ein paar DX7 HW-TnL only Spiele). Zu DX8 Zeiten wars schon wieder wurscht. Da ists imo auch bezeichnend, dass sich der Feature Mangel der Voodoo5 ohnehin erst bei DX8 Spielen grafisch offenbart hat. Blöderweise sieht ne GF2 bei DX8 Spielen nicht viel besser aus."Heißt" bitte mit ß, "gehypt" nicht mit "ed".

Natürlich gibt es die nächste Generation schon, wenn die Features endlich benutzt werden. Doch worauf sind diese entwickelt? Siehe DX9-Spiele – warum performten die auf den Radeons so gut, und auf der FX so traurig? Wie hätte es ausgesehen, wenn die FX sagen wir 8 Monate vor der 9700 erschienen wäre?

Das Standard-AF bei ATI finde ich keineswegs gut. Die starke Winkelabhängigkeit bei meiner 7600 GT stört mich deutlich mehr, als die grenzwertige AF-Texturschärfe.

Was T&L angeht, hatte Nvidia sicher nicht damit gerechnet, dass AMD mit dem Athlon so viel Schwung (also FP-Rechenpower) in den CPU-Markt bringt, womit die T&L-Unit in der GPU nicht mehr ganz so wichtig war. Die Spiele, die dann auf T&L setzen, könnten z. B. auch Vertexbuffer nutzen und somit den Verkehr über den Bus erheblich entlasten. Da ist es bei der Voodoo 5 6000 völlig wurscht, wie schnell die CPU ist, wenn der auf 1x AGP limitierte Busverkehr zum Flaschenhals wird.

M_B
2006-09-20, 16:29:39
Die Kehrseite der Medallie ist dass ATI die Käufer praktisch mit der besseren BQ verarscht, weil sie ohne AI nicht vorhanden ist.
Wie meinen?
Die beste Qualität hat man ohne AI oder sagen wir besser mit AI-off.
Generell sollte man, wenn man optimale BQ haben will, AI ausschalten.
Bisher habe ich nur bei Doom3-Engine-Spielen einen nennenswerten Unterschied gemessen.

Sonst keine Unterschiede.

Der krankeste Ausdruck dessen ist dass Crossfire nur mit A.I. High konfigurierbar ist. Das ist so zynisch, das man nicht weiß ob man lachen oder weinen soll.
Zustimmung.

Gruß M_B

AtTheDriveIn
2006-09-20, 16:39:22
Das Thema ist abgegrast. So what?

Ähm...die News ist von gestern und das Thema sicherlich noch nicht aus der Welt. :|

tokugawa
2006-09-20, 16:48:40
Danke für diesen herrlichen Lacher :lol:


Wie darf ich das verstehen?

1. Das juckt eh keinen mehr, da man sich für den Mehrpreis gegenüber PCI-E schon fast ein PCI-E-Mainboard leisten kann.

2. Spielst du unter Linux?
Denn beim normalen Arbeiten (Office, Internet & Co) komme ich mit den ATI-Treibern unter Linux bestens klar.

Das ist klar. Das kann man höchtens, wenn man die entsprechenden Graka-Generationen vergleicht.
Wie man z.B. behaupten kann, dass die FX-Serie (zumindest für den Spieler) der letzte Schrott war.

Das ist auch korrekt so.
Man sollte sich im Klaren, was man braucht.
Ich z.B. komme an ATI nicht vorbei.
Hauptsächlich wegen der besseren BQ (Spiele und Heimkino).

Wobei ich auch ehrlich zugebe, dass ich Nvidia für die Verarschungsaktion (TWIMTBP) mit der FX-Serie nicht sonderlich mag.
Da wurde die tolle Theorie angepriesen, ja selbst einigen Gurus hier hat man wohl die Birne weichgeredet. Anders kann ich mir das nicht erklären, warum aths behauptet hat, dass es schon nicht so schlimm werden würde, obwohl die Shadermark-Werte eindeutig waren.

Gruß M_B

Ich hatte selbst eine FX5900XT. In Spielen tatsächlich kein Spaß, aber Shader hast damit schon herrlich entwickeln können. Sogar der Leiter der Realtime-Rendering-Gruppe auf unserem Institut arbeitet immer noch mit einer FX 5950 Ultra.

Als "letzten Schrott" tät ich eher sowas wie XGI Volari bezeichnen bevor ich die FX so bezeichne.

Normale OGL-Spiele gibt´s zuhauf?
Ist nicht dein Ernst.
Der Anteil an OGL-Spielen dürfte im Vergleich zu Dierct3D unter 1% liegen.
Sind also eine krasse Ausnahme.
Bei den Emulatoren gebe ich dir natürlich recht.

Link? Quelle?
Wobei wie gesagt OGL nicht wirklich interessiert. Dürfte bei PC-Games eh bald aussterben.

Gruß M_B

OpenGL-Spiele und Anwendungen gibt's tatsächlich zuhauf abseits des Mainstreams. Viele "Homebrew"-Spiele etwa. Natürlich ist das kein "Mainstream", aber genau hier zeigt sich dann die Treiberqualität. Und das ist dann auch das, wo dann Entwickler die nicht an AAA-Titel arbeiten, reinfallen (und dazu zählen natürlich auch Forscher).


Zwar hat mein R580 >100Mio Transistoren mehr als ein G71, dafür kann ich HDR+AA nutzen (und hab bis jetzt >100 Stunden Oblivion damit gespielt; wahrscheinlich sogar 200, wenn man die Tweakerei und das Austesten mitzählt). Gäbs dieses Feature nicht, wären das für mich 100Mio Transistoren Ballast, die die leicht bessere BQ auch nur sehr schwer aufwiegen könnte.


Vergiss das Area AF und die brachiale Shaderleistung nicht. ;-)

Das stimmt alles, aber man kann das Spiel auch noch viel weiter führen in beide Richtungen:
- ATI hat eine nette Performance bei dynamic Branching
- dafür hat ATI kein vertex texture fetch, und die Art wie Render-to-Vertexbuffer unter DirectX implementiert wird (und als Alternative zu VTF vorgeschlagen wird), ist einfach nur eine Frechheit (obwohl R2VB prinzipiell eine gute Sache ist)
- NV unterstützt kein FP+AA (ich vermeide den Begriff "HDR+AA", da HDR für mich ein Algorithmus ist, und kein Grafikkartenfeature das "zu unterstützen" wäre), dafür gibt's auch bei ATI einige Dinge die bei FP-Texturen nicht funktionieren (soweit ich weiß, FP-Filtering). Bei NV funktioniert hier auch nicht alles, vor allem ist es abhängig von FP16 oder FP32, bei FP32 funktioniert nicht alles was bei FP16 funktioniert, und soweit ich mich erinnern kann, unterstützen ATI und NV beide bei FP-Texturen/Buffern das ganze Zeugs ziemlich diametral gegensätzlich. Ich würde also heutzutage noch sagen dass das, was man mit FP-Texturen machen kann, noch relativ lückenhaft ist, was wohl erst mit der nächsten Generation vollständig(er) gelöst ist.


Die Leute von Nvidia sind ja nicht dumm. Die wissen am besten wie gut oder schlecht ihr Produkt ist.
Da sie gemerkt haben, dass die FX-Serie eine Krücke wird, haben sie wenigstens versucht zu retten, was es noch zu retten gab.
Deshalb auch dieses TWIMTBP-Programm. Klar bietet NV dabei auch Support an die Spielehersteller, allerdings ziehen sie auch Vorteile dadurch (z.B. durch pp_hints).

Oder warum kam TWIMTBP zufällig zu FX Zeiten? hehe.

Werbung ok. Aber das ist imo schon grobe Verarsche oder man könnte es auch einen Täuschungsversuch nennen.


Du hast zwar wohl recht dass die NV-Engineers genau wußten was die FX kann und was nicht (Krücke würd ich sie nicht nennen, sie war schon gut in manchen Bereichen, und von Schrott weit weit entfernt).

Der Rest war halt normales Marketing, wenn du das Verarsche nennst, gibt's da auf der Welt noch viel mehr Werbung, die eher noch Verarsche wäre - darüber solltest dich aufregen.

Außerdem bezweifle ich die Wirkung von TWIMTBP - ich persönlich hab zum Beispiel nie darauf geachtet beim Kauf eines Spiels. Erst beim Start des Spiels ist mir halt das Logo am Anfang aufgefallen, das war's aber auch schon.

Gast
2006-09-20, 16:58:24
FP16-Texturen werden von NV40 vollständig unterstützt inkl. non-power-of-2 und AF.

ATI kann nichtmal Mipmaps bei den Teilen wenn ich mich nicht irre.

Gast-124
2006-09-20, 17:02:45
Zum eigentlichen Thema, das wohl ein Troll erstellt hat gibts halt nicht viel zu melden ;)

Wieso Troll? Das Thema ist durchaus interessant, leider wurde der Thread durch das ganze Off-Topic Fanboygelaber total zerstört.

M_B
2006-09-20, 17:38:54
Ich hatte selbst eine FX5900XT. In Spielen tatsächlich kein Spaß, aber Shader hast damit schon herrlich entwickeln können.
Deswegen habe ich auch in Klammern für Gamer geschrieben.
Für Entwickler wie dich ist die FX vielleicht sogar sinnvoller als eine entsprechende ATI-Karte.

Als "letzten Schrott" tät ich eher sowas wie XGI Volari bezeichnen bevor ich die FX so bezeichne.
Wenn man mit XGI vergleicht, dann hast du sicherlich recht.


OpenGL-Spiele und Anwendungen gibt's tatsächlich zuhauf abseits des Mainstreams. Viele "Homebrew"-Spiele etwa. Natürlich ist das kein "Mainstream", aber genau hier zeigt sich dann die Treiberqualität. Und das ist dann auch das, wo dann Entwickler die nicht an AAA-Titel arbeiten, reinfallen (und dazu zählen natürlich auch Forscher).
Klar. Wie schon erwähnt hat ein Mitarbeiter von ATI selbst gesagt, dass an OGL nicht so viel Interesse besteht.
Als OGL-Entwickler sollte man doch eher zu einer NV-Karte greifen.


Du hast zwar wohl recht dass die NV-Engineers genau wußten was die FX kann und was nicht (Krücke würd ich sie nicht nennen, sie war schon gut in manchen Bereichen, und von Schrott weit weit entfernt).

Der Rest war halt normales Marketing, wenn du das Verarsche nennst, gibt's da auf der Welt noch viel mehr Werbung, die eher noch Verarsche wäre - darüber solltest dich aufregen.
Klar ist Werbung sehr oft übertrieben, aber meistens geht es um Sachen, wo ein durchschnittlich intelligenter Mensch weiß, dass da Blödsinn erzählt wird.
Hier ist es aber nicht so. Da muss man schon ein wenig Ahnung von der Materie haben.

Außerdem bezweifle ich die Wirkung von TWIMTBP - ich persönlich hab zum Beispiel nie darauf geachtet beim Kauf eines Spiels.
Das ist klar. ;)
Wenn man Ahnung hat, ist es ja auch kein Thema.
Die Daus achten darauf, sogar welche aus meiner Familie.
Das beste ist, dass sie sich auch nicht davon überzeugen lassen wollen, dass dieses TWIMTBP nur Marketing ist.
Die denken, dass wenn das NV-Logo kommt, sie mit einer NV-Karte besser fahren.
Hatte deswegen auch mal eine Unterhaltung mit einem Arbeitskollegen. Es ging glaube ich um Far Cry.
Er wollte mir nicht glauben, dass eine 9800PRO schneller als seine FX5900Ultra ist, weil das Logo von NV kommt.
Dabei kennt sich der Typ sogar recht brauchbar mit PCs (Technik) aus.

Gruß M_B

Tigerchen
2006-09-20, 17:46:54
Entweder Open Source und keine Patente oder Closed Source inkl. Patentkacke. Wenn sich die IHVs nicht in die Karten schauen lassen wollen, ists ihr gutes Recht ihre Erfindungen zu patentieren.

Du bist also für diese Patentlawine die seit einigen Jahren über uns hinwegrollt. Ich sag nur 1 Klick Patent......

deekey777
2006-09-20, 18:02:54
Das stimmt alles, aber man kann das Spiel auch noch viel weiter führen in beide Richtungen:
- ATI hat eine nette Performance bei dynamic Branching


Auf der Pixel-Ebene, nicht auf der Vertex-Ebene, die Dynamic-Branching-Performance der VS ist schlechter als die der Konkurrenz. Oder geht sie auch als "nett" durch?

Auch wenn ihr schon längst OT seid, unterlasst ähnlich Kommentare wie "Scheiß-nVidia" oder "Penner". Bleibt sachlich.

The_Invisible
2006-09-20, 18:10:52
Link? Quelle?
Wobei wie gesagt OGL nicht wirklich interessiert. Dürfte bei PC-Games eh bald aussterben.

Gruß M_B

hier der link -> http://www.anandtech.com/printarticle.aspx?i=2828

irgendwie beängstigend...

mfg

Gast
2006-09-20, 18:30:23
hier der link -> http://www.anandtech.com/printarticle.aspx?i=2828

irgendwie beängstigend...

mfg

Du bist beänstigend mit dein geflamme.;)Wenn das was du verlinkt hast zum Trend wird hat Ati denn passenden treiber parat.;):rolleyes:

The_Invisible
2006-09-20, 18:39:13
Du bist beänstigend mit dein geflamme.;)Wenn das was du verlinkt hast zum Trend wird hat Ati denn passenden treiber parat.;):rolleyes:

jetzt schon zum x-ten mal das ich so blöd angemacht werde...

ich habe ja bei meinem vorigen post 2 seiten davor extra geschrieben das man ati quasi abschreiben kann wenn es um non mainstream zeugs geht, was ich hiermit belegt habe, nicht mehr und nicht weniger

auch habe ich geschrieben das ati für opengl mainstream games eh optimiert bis zum "geht nicht mehr", ich bin aber kein mainstream mensch in diesem sowie anderen bereichen, darum kann ich micht damit nicht anfreunden

mfg

Mr. Lolman
2006-09-20, 18:50:12
Du bist also für diese Patentlawine die seit einigen Jahren über uns hinwegrollt. Ich sag nur 1 Klick Patent......


Nein, ich bin für Open Source. Die Patentlawine ist nur der Effekt einer verfehlten Weltwirtschaftspolitik

Gast
2006-09-20, 18:52:51
jetzt schon zum x-ten mal das ich so blöd angemacht werde...

ich habe ja bei meinem vorigen post 2 seiten davor extra geschrieben das man ati quasi abschreiben kann wenn es um non mainstream zeugs geht, was ich hiermit belegt habe, nicht mehr und nicht weniger

auch habe ich geschrieben das ati für opengl mainstream games eh optimiert bis zum "geht nicht mehr", ich bin aber kein mainstream mensch in diesem sowie anderen bereichen, darum kann ich micht damit nicht anfreunden

mfg

Zeig mall bitte genau so unnötige Dynamic Bracnhcing Benchmarks.;);)Joa was Jetzt ?

M_B
2006-09-20, 18:55:25
hier der link -> http://www.anandtech.com/printarticle.aspx?i=2828

irgendwie beängstigend...

mfg
Danke. Werde ich mir mal genauer ansehen.

PS den Gast einfach nicht beachten. :)

Gruß M_B

Grestorn
2006-09-20, 19:00:41
Werbung ok. Aber das ist imo schon grobe Verarsche oder man könnte es auch einen Täuschungsversuch nennen.

Du hättest es sicher ganz genauso an deren Stelle gemacht. Andernfalls wärst Du abgesägt worden, von Deinen Chefs oder den Aktionären.

Tigerchen
2006-09-20, 19:05:55
Nein, ich bin für Open Source. Die Patentlawine ist nur der Effekt einer verfehlten Weltwirtschaftspolitik

Eben. Und jetzt hat es eben nVidia getroffen. Aber anstatt sich mit genau diesem Problem zu beschäftigen wird wieder so ein nV vs. ATI Krieg raus gemacht.

Gast
2006-09-20, 19:07:33
Eine NV Treiber installation ist einfach was Rundes.
SLI ist nahezu ausgereift und supported jede Menge Games,
Eine Installation von SLI ist problemlos möglich!

ATi hat seit dem Cat 6.5 einen Bug im Treiber drinn,
der von einem immer verlangt bei Crossfire erstmal den alten Treiber
restlos zu entfernen(beide karten bleiben drinn, und dann wird neu Installiert)
Leider funktioniert diese Methode auch nicht, obwohl sie in jeder Dokumentation von ATi so zu finden ist!:rolleyes:

Außerdem verursacht der erzwungene AFR Modus bei vielen Games Crashes oder greift erst gar nicht!
ne, wie stiefmütterlich ATI sein CF behandelt ist unter aller Sau.
An was fehlts? an guten Mitarbeitern? oder am zu knapp kalkulierten
Budget,der Markt wäre da! es gibt genug Spinner die sich ein SLi oder CF System kaufen bzw von NV überlaufen wurden!

Für NV hat SLI eine hohe Priorität, für mich ein Zeichen der Entwicklerfreundschaft und guter Disziplin!

was hat dieser spam mit dem thema zu tun???

heinerbub
2006-09-20, 19:38:01
seid doch froh, daß es nvidia gibt, es wäre doch super shice, wenn es nur ati oder sonstwen geben würde. dann gäbe es ja gar keine endscheidungsmöglichkeit mehr :-) jeder klaut von jedem, das war so und wird immer so sein......

StefanV
2006-09-20, 20:57:56
Zur FX/NV3x Diskussion:
Wir sollten nicht vergessen, das die nV30/35 ein ein Quad Design ist und dafür ists nicht soo übel, die Performance ist genau da, wo sie sein müsste -> in der Gegend der 9600 PRO.

AnarchX
2006-09-20, 21:03:58
Zur FX/NV3x Diskussion:
Wir sollten nicht vergessen, das die nV30/35 ein ein Quad Design ist und dafür ists nicht soo übel, die Performance ist genau da, wo sie sein müsste -> in der Gegend der 9600 PRO.

... und man sollte nicht vergessen, dass am Misserfolg der Geforce FX auch Micro$oft nicht ganz unschuldig war, die über die finalen DX9-Spec, die nicht ganz so zum NV30 passten, sich rächten.;)

rpm8200
2006-09-21, 08:45:46
? nanu ?
Ist OT, aber wofür haben sie gedacht sich rächen zu müssen?

r@w.
2006-09-21, 09:50:34
? nanu ?
Ist OT, aber wofür haben sie gedacht sich rächen zu müssen?

nVidia hat sich erdreistet, auf vertragliche Vereinbarungen zu bestehen, die M$ einseitig ändern wollte. Deswegen ist der XBox-Deal damals für M$ zum Verlustgeschäft und für nVidia zu Erfolg geworden (in wirtschaftlicher Hinsicht natürlich).

Deswegen wurden wohl die ursprünglichen DX9-Specs so angepaßt, dass ATI-Karten, die nur mit 24Bit FloatingPoint-Genaugkeit daher kamen, plötzlich DX9-compliant waren, obwohl hier ursprünglich 32Bit gefordert wurden. Zusätzlich war es plötzlich 'verboten', auf 12Bit Integer-Genaugkeit herunter zu gehen, wenn möglich... und noch so einiges andere.

Die ganze FX-Architektur war auf die ursprünglichen DX9-Anforderungen ausgelegt und als es viel zu spät für Änderungen war, wurden diese geändert... und zwar genaus so, dass es sich katastrophal für nVidia entwickelte und ATI exakt die Mindestanforderungen erfüllte und D3D9 damit auf "wundersame Weise" zu einer ATI-API 'mutierte'.

Aber klar, ein Hardware-Entwickler wie nVidia entwickelt natürlich vollkommen nutzlose und zudem Transitoren-fressende Features, weil es einfach 'schick' ist, Geld im Klo herunter zu spülen und sich so auch noch extreme Nachteile ggü. der Konkurrenz einzuhandeln.

Es kam einfach zuviel "auf einmal":
- XBox(1) Deal verlief nicht zur "Freude" von M$ und nVidia blieb stur
- ATI wurde als neuer Partner für die XBox2 'auserkoren' (mit bei weitem 'ungüstigeren' Konditionen ;-)
- nVidia 'versagte' ganz plötzlich bei DX9
- ATI 'glänzte' ganz plötzlich bei DX9

Schon interessant, wie sich da Zusammenhänge ineinander fügen, gell?
;)

Aber ja, ist vollkommen OT und wurde schon soooooo oft durchgekaut.

Razor

M_B
2006-09-21, 11:48:34
Du hättest es sicher ganz genauso an deren Stelle gemacht.
Danke für die Unterstellung. :mad:
ICH hätte es sicherlich nicht gemacht. Moral ist für mich extrem wichtig.

Andernfalls wärst Du abgesägt worden, von Deinen Chefs oder den Aktionären.
Dann hätte ich mir einen neuen Job suchen müssen.
Mag ja sein, dass es Leute ohne Moral gibt, ja sogar welche, die über Leichen gehen. Mit solchem Gesocks will ich aber nichts zu tun haben, klar?

Vielleicht verstehst du jetzt meine Einstellung zu diesem Thema.

Zur FX/NV3x Diskussion:
Wir sollten nicht vergessen, das die nV30/35 ein ein Quad Design ist und dafür ists nicht soo übel, die Performance ist genau da, wo sie sein müsste -> in der Gegend der 9600 PRO.
Schmeis mal ein modernes Spiel wie Oblivion oder FEAR an. Dann wirst du feststellen, dass eine FX 5900 einer 9600er teilweise deutlich unterlegen ist.

Gruß M_B

Gast
2006-09-21, 12:23:54
Ich glaube auch das es teuer wird für nvidia, aber!!!!!!!!!!

Gerüchten zu folge (Quelle: Retail Vision), wird es ATI künftig sehr schwer haben bei Retailern die sehr Intel-Lastig sind ;)

Gerüchte besagen, das ATI in keinem PC System mehr drin sein wird, die einen Intel Chip drinne haben. Da Intel der unangefochtene Marktführer im OEM-Retail ist, wird es sehr hart werden für ATI.

Das was NVIDIA auf der einen Seite ausgibt wird sie nicht weiter belasten, ich hoffe für nvidia, so schlecht teilweise Ihre Produkte von Microsoft auch unterstützt werden ;) das sie das nicht weiter belastet.

Das Thema DX9 und FP24 hatten wir ja schon hier erwähnt und ich habe die gleiche Meinung dazu.

Die gelbe Eule
2006-09-21, 12:27:23
Wenn NV tot sein sollte, mit wem möchte sich ATi dann vergleichen? Wie wird dann "Qualität" definiert?

Vielleicht hat Scanner auch nur Langeweile und ist nicht gerade so ganz liquide im Quartal. Immerhin sind die Patente gute 1,5 Jahre alt und die VGA Karten sehen schon lange so aus wie sie aussehen.

M_B
2006-09-21, 12:42:48
Wenn NV tot sein sollte, mit wem möchte sich ATi dann vergleichen? Wie wird dann "Qualität" definiert?
Es wäre denkbar schlecht, wenn NV nicht mehr existieren würde. Für uns Kunden natürlich, für ATI wäre es natürlich toll.
Deswegen kann ich solche Kommentare wie "Ich wünsche NV den Tod" oder ähnlich nicht wirklich verstehen.
Problem Nr.1: Deutlich langsamere Entwicklung
Problem Nr.2: hohe Preise

NV soll einfach korrekt arbeiten, dann gibt´s auch keine Probleme.

Vielleicht hat Scanner auch nur Langeweile und ist nicht gerade so ganz liquide im Quartal. Immerhin sind die Patente gute 1,5 Jahre alt und die VGA Karten sehen schon lange so aus wie sie aussehen.
Es geht ja um das BGA-(Ball Grid Array)Gehäuse der GPU, nicht um die Karte selbst.

Gruß M_B

Gast
2006-09-21, 12:47:36
Selbst ne Riva 128 war schon BGA...

AtTheDriveIn
2006-09-21, 12:53:43
Selbst ne Riva 128 war schon BGA...

Es geht auch nicht um BGA sondern um spezielle von Scanner Tech. patentierte Herstellungsprozesse.

Grestorn
2006-09-21, 12:54:59
Danke für die Unterstellung. :mad:
ICH hätte es sicherlich nicht gemacht. Moral ist für mich extrem wichtig.

Nun, dann wärst Du der falsche Mann an einem solchen Posten. Nicht, dass ich es schön finde, aber den Firmen ist nun mal die eigene Existenz wichtiger, als absolute Prinzipientreue. Das selbe gilt im übrigen für fast alle Einzelpersonen auch.

Das bedeutet nicht, dass man ohne Moral ist. Seine eigene Familie zu erhalten, bzw. die eigene Firma und damit die dortigen Arbeitsplätze zu erhalten, ist genauso ein moralischer Anspruch.

Du machst es Dir etwas zu einfach.

Mr.Fency Pants
2006-09-21, 13:19:19
Du dir ebenfalls. Es gibt durchaus noch Firmen, die eine soziale Verantwortung tragen und diese auch wahrnehmen.

The_Invisible
2006-09-21, 13:20:56
Du dir ebenfalls. Es gibt durchaus noch Firmen, die eine soziale Verantwortung tragen und diese auch wahrnehmen.

wovon sicher keine eine AG ist...

mfg

AnarchX
2006-09-21, 13:23:14
Du dir ebenfalls. Es gibt durchaus noch Firmen, die eine soziale Verantwortung tragen und diese auch wahrnehmen.

3Dfx tat dies(bis zu 50k $ im Monat für Veranstalltungen für die Mitarbeiter), was daraus geworden ist weiss ja jeder.:biggrin:

Gast
2006-09-21, 13:35:15
wovon sicher keine eine AG ist...

mfg
Dynamic Branching.;D

Grestorn
2006-09-21, 13:39:49
Du dir ebenfalls. Es gibt durchaus noch Firmen, die eine soziale Verantwortung tragen und diese auch wahrnehmen.

Eben WEIL sie eine soziale Verantwortung haben, müssen sie auch so agieren, dass der Bestand der Firma nicht gefährdet wird.

Mr.Fency Pants
2006-09-21, 13:47:55
Da gibts aber auch solche und solche. Einmal die wirklich so handeln und welche, die dies unter dem Deckmäntelchen der soz. verantwortung tun.

Grestorn
2006-09-21, 13:58:06
Da gibts aber auch solche und solche. Einmal die wirklich so handeln und welche, die dies unter dem Deckmäntelchen der soz. verantwortung tun.

Jetzt schweifen wir ein wenig in das Thema Firmenpolitik, Globalisierung usw. ab.

Meine Aussage war doch, dass es sich eine Firma nicht leisten kann, in einem solch harten Konkurenzkampf wie zwischen ATI und nVidia öffentlich zuzugeben, dass man das schwächere Produkt hat.

Eben auch WEIL sie eine soziale Verantwortung ihren MA und den Aktionären ggü. haben (in USA ist die Altervorsorge praktisch ausschließlich über Aktien abgedeckt).

Also ist die Aussage von m_b, die Werbung von nV wäre moralisch verwerflich, völlig fehl am Platz. Vewrwerflich wäre gewesen, wenn sie behauptet hätten, ihre Produkte wären in allen Situationen schneller als die der Konkurenz. Das wäre glatt gelogen gewesen, aber das haben sie ja auch nicht behauptet.

Welche Karte das beste "Spielerlebnis" liefert, ist absolut subjektiv und damit als "Argument" gut für die Werbung geeignet. Und keinesfalls moralisch verwerflich. Der eine findet eben FPS als einzig wichtiges für das Spielerlebnis, der andere eher Schattendarstellung und AF.

Mr.Fency Pants
2006-09-21, 14:41:28
Ok, jetzt hammers. Hast schon Recht, wir sind wirklich schon etwas offtopic.

The_Invisible
2006-09-21, 14:57:04
Dynamic Branching.;D

unsinnger vergleich...

mfg

rpm8200
2006-09-21, 18:43:37
@ r@w: Danke für die Erklärung (ich hab das noch nicht gewusst).

Black-Scorpion
2006-09-21, 19:22:15
Wenn du diese Erklärung glaubst bist du selber Schuld.

Gast
2006-09-22, 15:23:00
Wenn du diese Erklärung glaubst bist du selber Schuld.Wenn du es besser weißt, lass uns doch an deinem Wissen teilhaben. Fass dies bitte nicht als Angriff auf, sondern nur als eine Bitte dein Wissen hier einzubringen.

Ficus
2006-09-22, 18:02:31
Für nen 10.000er, halte ich die Antwort ebenfalls für recht arrogant…
…ein Link, oder besser, eine Begründung hätte schon genügt.

Coda
2006-09-22, 18:04:41
Das was Razer hier von sich gibt ist reine Spekulation - das ist das Problem.

Es könnte zwar möglich sein, aber solche Verschwörungstheorien sind für mich ohne verlässliche Quelle eine Sache für den Kindergarten.

Black-Scorpion
2006-09-22, 22:09:13
Das hat mit Arroganz nichts zu tun.
Das war ein Wink mit dem Zaunpfahl.
Diese Verschwörungstheorie wird schon seit dem erscheinen von DX9 (R300 und nV30) im Forum breitgetreten.
Beweisen konnte es noch keiner und wird es auch bestimmt nicht können.
Auch sollte man daran denken das M$ auf die Hersteller und diese auf M$ angewiesen sind.
Die Hersteller (es gibt ja nicht nur ATI und nVidia) sind auch in den Prozess beim finden einer neuen DX Version eingebunden und machen ihre Vorschläge dazu.
Dann bastelt M$ die fertige Version und legt Specs auf einen gemeinsamen Nenner.
Afaik werden diese sogar nochnal den Herstellern vorgelegt um endgültig zuzustimmen.

Sowas klingt z.B. deutlich neutraler.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1207625&postcount=28

AnarchX
2006-09-22, 22:16:08
Sowas klingt z.B. deutlich neutraler.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1207625&postcount=28
Neutraler?:|
Die Wahrheit wird wohl irgendwo dazwischen liegen und dass M$ und Nvidia nicht ganz so gute Beziehungen hatten ist imo kein Geheimnis.

StefanV
2006-09-22, 23:09:47
Die Wahrheit ist, das nVidia auf die geniale Idee kam, man bräuchte ja garkeine Floatpoint Berechnung.

Dummmerweise war M$ da anderer Meinung und hat auf Floatpoint bestanden.
Das ganze ist einfach nur nVidias Dummheit/Arroganz, drauf zu hoffen, das M$ das so macht, wies gern hätten...

Am Ende:
Warum ist das Teil unter OGL auch nicht schneller?!
Schließlich kann man unter OGL ja machen was man will!!

Gast
2006-09-23, 00:55:35
Die Wahrheit ist, das nVidia auf die geniale Idee kam, man bräuchte ja garkeine Floatpoint Berechnung.

Dummmerweise war M$ da anderer Meinung und hat auf Floatpoint bestanden.
Das ganze ist einfach nur nVidias Dummheit/Arroganz, drauf zu hoffen, das M$ das so macht, wies gern hätten...

Am Ende:
Warum ist das Teil unter OGL auch nicht schneller?!
Schließlich kann man unter OGL ja machen was man will!!

Diese zusammgestückelten Sätze versteht man einfach nicht ...

tokugawa
2006-09-23, 00:59:35
Die Wahrheit ist, das nVidia auf die geniale Idee kam, man bräuchte ja garkeine Floatpoint Berechnung.


Klingt nach Blödsinn.

Erstens: was meinst du mit "Floatpoint Berechnung"? Etwa Floating-Point-Texturen? Oder generell Floating-Point-Berechnung im Shader?

Beim ersteren hast du vergessen dass der NV40 einen vorbildlichen Floating-Point-Texture-Support geliefert hat, mit ATI-Vendor-Extensions unter OpenGL - sprich Software, die für die ATI-OpenGL-Implementation geschrieben wurden (und eben eigentlich ATI-Extensions - GL_ATI_texture_float - verwenden und somit nur auf ATI laufen müssten), liefen mit dem NV40 auch auf dem NV40. Kann mich erinnern dass das einen Kollegen von mir der damals gerade Raycasting auf der GPU (für Visualisierung) implementiert hatte, ziemlich begeistert davon war, dass sein eigentlich für ATI-GPUs geschriebener GPU-Raycaster auch auf NV40 lief.

Und das letztere, generell Floating-Point-Berechnungen im Shader zu - wie denn? - "nicht zu erlauben"? Das klingt irgendwie absurd.

Aber als gut informierter 3DCenter-Forumsbesucher kannst du sicher eine verläßliche Quelle nennen.


Am Ende:
Warum ist das Teil unter OGL auch nicht schneller?!
Schließlich kann man unter OGL ja machen was man will!!

Was zum Geier soll das heißen? Natürlich kann man nicht unter OpenGL machen "was man will"!

Tut mir leid, du klingst als hättest du Schlüsselwörter irgendwo aufgeschnappt, und jetzt reproduzierst du sie in einer Art, wo deine Sätze einfach falsche Aussagen werden.


PS: Da du "Floatpoint" schreibst... weißt du überhaupt, was "Floating Point" bedeutet?

StefanV
2006-09-23, 02:35:17
Erstens: was meinst du mit "Floatpoint Berechnung"? Etwa Floating-Point-Texturen? Oder generell Floating-Point-Berechnung im Shader?

Genau das meinte ich...

M$ war in diesem Punkt halt anderer Meinung als nV, da der nV3x beides konnte, hat man sich am Ende auf FP24 geeinigt, statt der von nV Präferierten FX12...
Nur:
Unter PS1.4 sind die nV3x auch nicht soo besonders schnell, trotz FX12...


Natürlich kann man nicht unter OpenGL machen "was man will"!
Eigentlich schon, schließlich kann der Hersteller die Extensions nach eigenem Gedünken zusammenbasteln...

tokugawa
2006-09-23, 03:19:37
Genau das meinte ich...

M$ war in diesem Punkt halt anderer Meinung als nV, da der nV3x beides konnte, hat man sich am Ende auf FP24 geeinigt, statt der von nV Präferierten FX12...


Du bist konfus.

NVIDIA war niemals gegen Floating-Point-Berechnungen im Shader. Der NV30 konnte FP16 und FP32, ATI R300 konnte FP24.

"Geeinigt" hat man sich also mitnichten auf FP24 (wie denn, DirectX9 spezifiziert hier kein "so muß das sein", FP16, FP24, FP32 sind alles valide Floating-Point-Formate unter DirectX9) - und schon gar nicht "statt FX12".


Nur:
Unter PS1.4 sind die nV3x auch nicht soo besonders schnell, trotz FX12...


Doch, da war's ganz annehmbar schnell. Aber PS 1.4 ist halt schon ziemlich limitiert.



Eigentlich schon, schließlich kann der Hersteller die Extensions nach eigenem Gedünken zusammenbasteln...

Und was hat das damit zu tun, dass "das Teil" unter OpenGL dadurch "schneller" sein soll wie du hier erwähnt hast:


Warum ist das Teil unter OGL auch nicht schneller?!
Schließlich kann man unter OGL ja machen was man will!!

Das hat nichts mit "herstellereigenen Extensions" zu tun, die kaum ein Spieleentwickler anrührt (Ausnahme-Renderpfade gibt's manchmal), weil Vendor-Extensions eben die Anzahl der unterstützten GPUs reduzieren.

Gast
2006-09-24, 23:36:56
Ich hoffe die Scheiss Firma geht Pleite, das was sie herstellen ist eh nur Schrott.

Früher, in der guten alten Zeit der Mailboxen, brauchte man noch einen IQ höher als einen Backstein, um seine Beiträge ins weite Datennetz abzuschicken. Heutzutage ist das ja nicht mehr notwendig.