PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATIs PCI-E auch nicht nativ?


CrazyIvan
2004-06-18, 11:52:11
Da ich weder im Speku Forum noch hier was zu dem Thema gefunden habe, mach' ich halt nen neuen Thread auf:

http://www.theinquirer.net/?article=16332

http://www.theinquirer.net/?article=16651

Vor allem letzter Link scheint zu belegen, dass ATi kein natives PCI-E Interface hat, sondern ne On-Die Bridge. Dies läuft angeblich nur mit AGP x8 und ist damit sogar langsamer als nVs HSI Chip mit intern AGP x16.

IMHO schon ein starkes Stück von Ati, wenn es denn wahr ist. Schließlich haben die lange genug auf dem HSI rumgehackt und ihre Lösung als das allein seeligmachende dargestellt. Peinlich, peinlich...

Quasar
2004-06-18, 11:56:16
Naja, erstens :cop: FUAD :cop: und zweitens werden wir's dann ja sehen, wenn Alderwood und Grantsdale da sind, ob dieser ganze Hokuspokus wirklich eine Rolle spielt.

CrazyIvan
2004-06-18, 12:05:57
:cop: FUAD :cop: hin oder her. Ich bin schon der Meinung, dass die Leutz von nV nen "internal Buffer" von ner AGP-to-PCI-E Bridge unterscheiden können. Und an Peinlichkeit wäre das ganze Szenario nur schwer zu überbieten.

Winter[Raven]
2004-06-18, 12:26:33
Whahahaha ... wenn das stimmt, dann spielt sich ATI derzeit selbst aus, erst die "lüge" mit der Filterung, jetzt die PCI-E "Lüge".

Ich frage mich wie ich ATI trauen und ihre Produkte kaufen soll wenn bei den eine Lüge nach der Anderen kommt?

Meine Mutti sagt ja so schön: Du kannst soviel Lügen wie du kannst, die Wahrheit wird irgendwann trotzdem auftauschen und diese könnte dann Schmerzlicher sein als wenn man nicht lügen würde.

Exxtreme
2004-06-18, 12:41:15
Junge Junge... die Welt geht jetzt unter weil ATi eine On-Die-Bridge in der GPU hat. Ist ja voll das Kaufargument!

Vergesst Shader, vergesst Antialiasing... nur ein natives PCI-E-Interface ist das einzig Wahre!!!!111

Quasar
2004-06-18, 12:43:48
Frag' dazu mal aths - was ATi dazu an einem bestimmten Donnerstag in München meinte. ;)

CrazyIvan
2004-06-18, 12:45:14
@ Exxtreme

Darum gings mir nicht. Sehe derzeit eh keinen Sinn in PCI-E und denke nichtmal im Traum daran, deswegen upzugraden.

Ich finde es nur etwas dreist, auf der Lösung der Konkurrenz herumzutrampeln, wenn man selbst ne noch schlechtere Variante im Portfolio hat!

Exxtreme
2004-06-18, 13:30:30
Original geschrieben von CrazyIvan
@ Exxtreme
Ich finde es nur etwas dreist, auf der Lösung der Konkurrenz herumzutrampeln, wenn man selbst ne noch schlechtere Variante im Portfolio hat!
Ja, OK. Daß ATi auf Nvidias Lösung richtig rumgehakt hat, wusste ich nicht. =) Der Thread machte auf mich eher den Eindruck als ob es richtig schlimm wäre kein natives PCI-E-Interface anzubieten.

aths
2004-06-18, 13:33:36
Original geschrieben von Quasar
Frag' dazu mal aths - was ATi dazu an einem bestimmten Donnerstag in München meinte. ;) ATI findet ein natives Interface natürlich vieeel besser, gibt aber zu dass man PCI-E noch nicht brauchen wird (aber besser sei es) vor allem da man nur so die Bandbreite ausnutzen könnte. Darauf angesprochen, dass die entsprechenden GF-Karten intern mit AGPx16 laufen, meinte ATI ihre Chips würden mit "AGPx32" laufen.

Quasar
2004-06-18, 13:37:26
Original geschrieben von Exxtreme
[...] als ob es richtig schlimm wäre kein natives PCI-E-Interface anzubieten.

Von mir aus können die Karten des nächsten Jahres "intern" noch mit AGPx4 laufen, solange sie irgendwie in einem PCI-e Steckplatz laufen... ;)

Gast
2004-06-18, 13:44:49
ist doch alles völlig wurscht.
PCI Express hin oder her.
Tatsache ist ATI hakt auf Nvidias Lösung rum und prollt, was für eine tolle native Lösung sie haben.
Tatsache ist auch, dass ATI auf Nvidias Filtering seit über einem Jahr rumhakt und selber noch eine sehr viel hässlichere Variante verbaut aber keinem etwas gepfiffen hat.
Das ist schlicht und ergreifend dreiste Lügerei und Irreführung von Testern und Kunden.
Das muss bestraft werden. Wenn sich das als wahr rausstellt sind Artikel über dieses Verhalten genauso Pflicht wie die Artikel über ATIs Filtercheats bei computerbase.

Es wird zunehmend mehr deutlich, dass sie kein Stück besser sind. Der selbe hinterlistige Verein wie andere auch. Deshalb darf es auch für die Kanadier keinen Bonus irgendwo geben.
Der ist schlichtweg nicht zu rechtfertigen.

Ihre Produkte sind momentan nicht besser übern Schnitt aber hinten in der Technologie und mit ihrem Marketing tapsen sie ein ums andere mal in den Fettnapf.
Ich denke da wirds Zeit für einen Dämpfer, der sich in weniger Dollars aufm Konto wiederspiegelt.
Das sollten sich vor allem die ganzen Fanboys mal überlegen. Es macht keinen Sinn so eine Firma zu verteidigen. Es macht lediglich Sinn so etwas abzustrafen, damit ganz schnell klar wird, dass es nicht angeht die Leute so zu verschaukeln.

x-dragon
2004-06-18, 13:53:06
Original geschrieben von Gast
... Tatsache ist ATI hakt auf Nvidias Lösung rum und prollt, was für eine tolle native Lösung sie haben. ... Hab bisher noch nichts offizielles diesbez. gelesen, aber aths Posting zumindest würde ich eher anders interpretieren ...


Bin auf jeden Fall mal gespannt was es nun wirklich mit dem nativ oder nicht und 16x, 32x ... wirklich auf sich hat und was die ersten Vergleichs-Benchmarks dazu sagen werden ...

-error-
2004-06-18, 13:58:46
So ein Quatsch:zzz:

Die X600XT ist schon erhältlich.


http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=110&osCsid=95fa1cf17cfbd35ee61a5ff4227e6685

Gast
2004-06-18, 13:59:42
Original geschrieben von Gast
Tatsache ist auch, dass ATI auf Nvidias Filtering seit über einem Jahr rumhakt und selber noch eine sehr viel hässlichere Variante verbaut aber keinem etwas gepfiffen hat.


naja Nvidia bescheisst damit seit über einem Jahr und keiner sagt was, ATI hat erst jetzt damit angefangen ( mal abgesehen von der 9600 ).

Aber dass die eine Lösung "hässlicher" als die andere ist Stimmt schonmal überhaupt nicht.

x-dragon
2004-06-18, 13:59:58
Original geschrieben von Desire
So ein Quatsch:zzz:

Die X600XT ist schon erhältlich.


http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=110&osCsid=95fa1cf17cfbd35ee61a5ff4227e6685 Bist du sicher?
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=149579

-error-
2004-06-18, 14:01:04
-256MB höchster Leistung 128-bit DDR Speicher unterstützt all Ihre 3D Anwendungen
-x16 Lane PCI Express Schnittstelle
-4 Pixel Pipelines
-2 progammierbare Vertex Shader Pipelines
-Doppelt soviel Bandbreite wieAGP 8x
-Volle Bandbreite, sowohl beim Downloaden als auch beim Uploaden
-Volle Floating point Shaders
-Volle Untestützung für DirectX® 9.0 und die neueste OpenGL® Version
-SMARTSHADER™ 2.0 Technologie unterstützt Microsoft® DirectX® 9.0 mit Shader
-SMOOTHVISION™ 2.1 Technologie verspricht erweiterte Bildqualität, durch bessere Kantenglättung und Ausarbeitung kleiner Oberflächendetails, ohne Leistungseinbußen
-Der einzigartige VIDEOSHADER™ benutzt programmierbare Pixel Shaders um Videobearbeitung noch zu beschleunigen und noch bessere visuelle Effekte zu erzeugen
-HYPER Z™ III optimiert Hardware Leistung durch Löschen irrelevanter Daten die für den User nicht sichtbar sind, und schafft neue Möglichkeiten für noch mehr Rendering- Freude
-VIVO : Video-In/Video-Out

[dzp]Viper
2004-06-18, 14:03:18
Original geschrieben von Gast
Es wird zunehmend mehr deutlich, dass sie kein Stück besser sind. Der selbe hinterlistige Verein wie andere auch. Deshalb darf es auch für die Kanadier keinen Bonus irgendwo geben.
Der ist schlichtweg nicht zu rechtfertigen.

Ihre Produkte sind momentan nicht besser übern Schnitt aber hinten in der Technologie und mit ihrem Marketing tapsen sie ein ums andere mal in den Fettnapf.
Ich denke da wirds Zeit für einen Dämpfer, der sich in weniger Dollars aufm Konto wiederspiegelt.
Das sollten sich vor allem die ganzen Fanboys mal überlegen. Es macht keinen Sinn so eine Firma zu verteidigen. Es macht lediglich Sinn so etwas abzustrafen, damit ganz schnell klar wird, dass es nicht angeht die Leute so zu verschaukeln.

hm ok - dann kauf dir halt ne graka von der Firma *grübel*.......... ähm.... (welche firma macht kein marketing?) *grübel*.....
Wenn du ne antwort weisst, dann immer her damit :D

Ich dachte es war schon seit längere Zeit klar, dass ATI bei ihrer PCI-E lösung intern mit AGP32x arbeitet :???:
Hab das jedenfals schon vor ein paar wochen gelesen...

Tjell
2004-06-18, 14:04:45
In Zeiten von Silikonbrüsten, Schönheits-OP und Werbe-Blah-Blah, dürfen da nicht auch Ati und nVidia ihre Kunden blenden und für dumm verkaufen? :)

Bei der (Bild-)Qualität der Grafikkarten ist es nunmehr genauso wie mit Kindern, die man mit einer schönheitsoperierten Frau bekommt: man sieht das häßliche Ergebnis nämlich erst dann wenn es zu spät ist! :D

Jesus
2004-06-18, 14:05:00
jo steht auch auf der ATI homepage so X600:

RADEON X600 Technology Specifications
World’s first PCI Express™Graphics Chip
Native x16 lane PCI Express
Double the bandwidth of AGP 8X
Increased memory bandwidth to 12 Gigabytes/sec.
Four extreme parallel 3D rendering pixel pipelines
Two programmable vertex shader pipelines
128-bit memory interface supporting 128MB or 256MB DDR1 memory configurations
Full DirectX® 9 support

LovesuckZ
2004-06-18, 14:07:52
Original geschrieben von Jesus
jo steht auch auf der ATI homepage so X600:
Native x16 lane PCI Express


Oho, mal sehen wie Haendler die Nachbesserungen machen.
Wobei, meine 6800NU soll auch 16 pipelines haben...

x-dragon
2004-06-18, 14:08:07
Original geschrieben von Desire
...
-x16 Lane PCI Express Schnittstelle
... Hier ging es aber um die bisherige interne Anbindung der neuen Karten (also wenn keine native-Unterstützung, sondern per AGP-/PCI-E-Bridge) und nicht um die externe :).

Endorphine
2004-06-18, 14:27:29
PCI-Express per Bridge (egal, wie nahe die nun an der AGP-GPU sitzt) ist genau so sinnbefreit wie SATA per Bridge. Das kann man sich schenken.

Netterweise benötigt man für Hochleistungs PCIe-Grafikkarten auch noch den neuen Powerstecker, so dass auch dafür neue Adapter fällig sein werden.

Mal sehen, was S3 im GammaChrome bringen wird :)

Ranz0r
2004-06-18, 15:10:46
Meiner Meinung nach ist es eh wurscht ob man AGP8x hat oder PCIe... Zumindest bei aktuellen Grafikkarten... ICh meine mal bei THG nen Test bezüglich AGP4x und 8x auf ner 9800XT gelesen zu haben und dort war der Utnerschied nur marginal (1-2fps) und da will mir nen Marketingfritze erzählen PCIe würde alles nun ohne Ende boosten? ;D

Naja wers glaubt...

Sphinx
2004-06-18, 15:40:22
Definiert "native" PCI-E....

Ich glaube Nvidia verkauft euch allen ein DAU-Error bezogen auf den x800,x600,x300...
Das was auf dem Bild zu sehen ist - ist das PCI Express Bus Interface - und soll native PCI-E bieten heist : Downstream 4GB/sec | Upstream 4GB/sec

ATIs Native PCI-E Definition :
http://www.next3d.de/em/ati_pcie.jpg


Quelle (Page2): http://www.ati.com/products/PCIexpress/PCIEWP.pdf


So long Sphinx

Winter[Raven]
2004-06-18, 16:04:26
@ Sphinx

die PDF's kannst du stecken lassen! :P Wir wissen was diese Wert sind und das ATI so zimmlich jeden Bullshit reinschreibt: ich sagt nur "Full Tri", gelle? :P

MadMan2k
2004-06-18, 16:43:00
Original geschrieben von Winter[Raven]
@ Sphinx

die PDF's kannst du stecken lassen! :P Wir wissen was diese Wert sind und das ATI so zimmlich jeden Bullshit reinschreibt:
ebenso wissen wir, dass du selbiges bezogen auf Ati in Foren tust.
Also erklär mal bitte, was an dem pdf falsch sein soll... :???:

Winter[Raven]
2004-06-18, 16:50:24
Wir wissen derzeit nicht ob es wahr ist oder wieder eine nur eine "Lüge".

Nvidia ingeneure können sicherlich unterscheiden was was ist, odeR?

Quasar
2004-06-18, 16:54:54
Original geschrieben von Sphinx
Definiert "native" PCI-E....

Ich glaube Nvidia verkauft euch allen ein DAU-Error bezogen auf den x800,x600,x300...
Das was auf dem Bild zu sehen ist - ist das PCI Express Bus Interface - und soll native PCI-E bieten heist : Downstream 4GB/sec | Upstream 4GB/sec

ATIs Native PCI-E Definition :
http://www.next3d.de/em/ati_pcie.jpg


Quelle (Page2): http://www.ati.com/products/PCIexpress/PCIEWP.pdf


So long Sphinx

Ist doch auch alles schön und gut und in wunderbarer Ordnung. :)
Noch ist nichts bewiesen, alles nur FUD.

Native-PCI-e bedeutet für mich abseits aller Brücken und sonstigen Geschichten, daß die GPU als solches (also nicht nur ein I/O-Buffer) mit ~3,2 GB/s hoch- und runterstreamen kann, im konstruierten Idealfall einen sehr hohen Prozentsatz dieser Werte also erreichen kann.

Es besser macht, als aktuelle Treiber es bei AGP8X zulassen, dass man ~10% der Bandbreite bsw. auch wieder zum Upstream in den Hauptspeicher nutzen kann.

Endorphine
2004-06-18, 16:55:36
Abwarten. Auch für ATI bringt es derzeit mittelfristig mehr Flexibilität und damit höhere gesicherte Profite, wenn sie Bridges statt native PCIe-Controller bauen.

Im PDF steht übrigens nichts von "wir werden definitiv einen nativen Controller im R423 bauen" :)

Endorphine
2004-06-18, 16:57:09
Original geschrieben von Quasar
Native-PCI-e bedeutet für mich abseits aller Brücken und sonstigen Geschichten, daß die GPU als solches (also nicht nur ein I/O-Buffer) mit ~3,2 GB/s hoch- und runterstreamen kann, im konstruierten Idealfall einen sehr hohen Prozentsatz dieser Werte also erreichen kann. Natives PCIe-Interface senkt auch die Latenz als zweite Größe der I/O-Leistung ggü PCI/AGP um Größenordnungen.

Quasar
2004-06-18, 17:06:23
Original geschrieben von Endorphine
Im PDF steht übrigens nichts von "wir werden definitiv einen nativen Controller im R423 bauen" :)

In _dem_ PDF nicht, im Launch-PDF zur X600/X300 dagegen schon.
"ATi will offer Top-To-Bottom Solutions with native PCI-Express"

BTW, das PDF von Sphinx ist aber schon lustig....
Erst soll ich via USB/FireWire (~50MB/s] einen Video-Stream in den Rechner bekommen.
Dabei bremst AGP mit 200MB/s Upstream natürlich gewaltig.

Dann soll ich das auf die Festplatte (wahrscheinlich ein RAID0 aus vier WD Raptoren oder so) speichern, wobei die 150MB/s/2 (Ich schreibe ja gleichzeitig auch wieder zurück) für das SATA-Interface limitieren - aber AGP8X mit min. 200MB/s ist der begrenzende Faktor.

Und dann noch die lustigen Testplattformen, i865 als PCI-e Plattform, Grantsdale als AGP-Rechner... :freak:
Mit Copy'n'Paste hat's ATi wirklich nicht im Moment...

Quasar
2004-06-18, 17:06:59
Original geschrieben von Endorphine
Natives PCIe-Interface senkt auch die Latenz als zweite Größe der I/O-Leistung ggü PCI/AGP um Größenordnungen.

Um wieviel? Theoretisch und praktisch bitte... ;)

seahawk
2004-06-18, 17:49:28
Der R423 hat mehr Transistoren als der R420. Braucht ein natives PCI-Express-Interface mehr Transistoren ?? Ich denke nicht.

Beim X300 und X600 war das spätestens mit der Ankündigung der AGP-Versionen sonnenklar.

MadMan2k
2004-06-18, 19:03:53
Original geschrieben von seahawk
Der R423 hat mehr Transistoren als der R420. Braucht ein natives PCI-Express-Interface mehr Transistoren ?? Ich denke nicht.

Beim X300 und X600 war das spätestens mit der Ankündigung der AGP-Versionen sonnenklar.
es könnte ja sein, dass sie Teile des AGP-Interfaces deaktivieren, mit den "angebauten" PCI-E Interface Teilen ersetzen und so ein aufwendiges Redesign sparen...

Im grunde genommen ist die Frage wie auch irrelevant solange man 3,2GB up & down hat.

CrazyIvan
2004-06-18, 19:10:49
@ MadMan2K

Das ist ja gerade die große Preisfrage. ATi kann das ja behaupten, denn vom PCI-E Interface bis zum Rest des Systems mag das ja sein. Wenn aber vom Interface bis zur eigentlichen GPU nur AGP x8 existiert, dann nützt Dir das nur wenig. Und genau das behauptet ja der Inq. Obs war ist, werden wir sehen. Aber wenn, dann hat sich ATi schon was krasses geleistet, IMHO.

zeckensack
2004-06-18, 19:11:05
Original geschrieben von MadMan2k
ebenso wissen wir, dass du selbiges bezogen auf Ati in Foren tust.
Also erklär mal bitte, was an dem pdf falsch sein soll... :???: Geh' doch bitte auf den Müll garnicht erst ein. Indem du ihn quotest, wird er für mich lesbar :igitt:

Sphinx
2004-06-18, 19:16:30
Original geschrieben von zeckensack
Geh' doch bitte auf den Müll garnicht erst ein. Indem du ihn quotest, wird er für mich lesbar :igitt:

Das habe ich auch gedacht - und bin aber sturr zu antworten...

aths
2004-06-18, 19:23:31
ATI hat ein natives PCI-E-Interface. Was man im Bild sieht, sind zusätzliche Register für das PCI-E-Interface.

StefanV
2004-06-18, 19:50:58
Original geschrieben von seahawk
Der R423 hat mehr Transistoren als der R420. Braucht ein natives PCI-Express-Interface mehr Transistoren ?? Ich denke nicht.

Ich gehe mal davon aus, daß ein PCI-E Interface aufwendiger ist als ein AGP Interface.

RDRAM schluckt ja auch mehr Transis als SDR-SDRAM ;)

zeckensack
2004-06-18, 19:55:38
Ich finde dieses Foto als "Beweis" auch irgendwie schwach. Da muss man schon glauben wollen, um daraus irgendwas deuten zu können.

Quasar
2004-06-18, 20:19:43
Vor allem, wenn man sich mal den Namen des Bildes bei INQ anschaut... :|

reunion
2004-06-18, 20:21:46
Original geschrieben von Quasar
Vor allem, wenn man sich mal den Namen des Bildes bei INQ anschaut... :|


http://www.theinquirer.net/images/articles/nvidia_fud.JPG

:lolaway:

r@h
2004-06-19, 04:42:18
Original geschrieben von Sphinx
Definiert "native" PCI-E....

Ich glaube Nvidia verkauft euch allen ein DAU-Error bezogen auf den x800,x600,x300...
Das was auf dem Bild zu sehen ist - ist das PCI Express Bus Interface - und soll native PCI-E bieten heist : Downstream 4GB/sec | Upstream 4GB/sec

ATIs Native PCI-E Definition :
http://www.next3d.de/em/ati_pcie.jpg


Quelle (Page2): http://www.ati.com/products/PCIexpress/PCIEWP.pdfNur, um mal wieder die Kirche ins Dorf zu bringen...

Eine 'Bridge'-Lösung unterscheidet sich von einer 'native'-Lösung insofern, als dass bei einer 'native-Lösung die Schnittstelle in das Chip-Layout integriert ist (also im großen Block, in dem sich auch die vielen Transi für die netten Shader etc. befinden ;-). Bei einer 'Bridge'-Lösung ist dem nicht so, da 'native'-AGP (ist wieder im Chip-Layout fest integriert) dann über einen 'chipnahen' Baustein übersetzt wird.

Hoffe, dass ich es so einfach formuliert habe, dass auch Du das verstanden hast, denn das Schaubild (PDF) hat mit dem internen Aufbau eines Chips nur wenig gemein... will sagen, dass Du Dir eine 'native'-PCI-Express-Lösung bitte nicht so vorstellen magst, wie es sich Dir auf dem Scahubildchen von ATI darstellt, da dieses schematischer Natur ist.

-

Und was ich hier auch nochmal los werden will: mir ist es völlig wurscht, ob jetzt irgendwas 'native' ist, oder nicht... hauptsache es funzt (und im Sinne von PCIe möglichst spät ;-).

Das einzige, wofür man ATI wirklich rügen muss, ist, wie bei der verschwiegenen Filter-'Optimierung' zuvor auch, dass sie schlicht und dreist lügen. Und damit meine ich nicht das Verdrehen irgendwelcher Wahrheiten oder das Übertreiben bei der Angabe bestimmter Spezifikationen, sondern schlichte, dreiste Lügen.

So frei nach dem Motto:

- unsere Filterlösung ist IMMER full Tri... das der Konkurrenz natürlich nicht
- unser Karten sind die ersten 'native'-PCI-Lösungen... die der Konkurrenz natürlich nicht

Wirklich 'nett'...
... und sie sollten schleunigst damit aufhören.

Bin ja mal gespannt, was nunmehr aus dem 'letzten' exklusiv-'Feature' 3DC der Xn00'er Reihe wird.
Vielleicht existiert es ja gar nicht ?
;D

Razor

r@h
2004-06-19, 04:56:23
Zuvor gesagtes selbstredend nur, wenn es sich als Fakt heraus stellen sollte...
:D

Razor

P.S.: Hoffe damit den satirischen Charakter des 2. Teils meines Posts heraus gestellt zu haben...
...obwohl... wer weiß ?
;D

Sphinx
2004-06-19, 05:41:19
@ R@H -

Eine 'Bridge'-Lösung unterscheidet sich von einer 'native'-Lösung insofern, als dass bei einer 'native-Lösung die Schnittstelle in das Chip-Layout integriert ist (also im großen Block, in dem sich auch die vielen Transi für die netten Shader etc. befinden ;-). Bei einer 'Bridge'-Lösung ist dem nicht so, da 'native'-AGP (ist wieder im Chip-Layout fest integriert) dann über einen 'chipnahen' Baustein übersetzt wird.

Hoffe, dass ich es so einfach formuliert habe, dass auch Du das verstanden hast, denn das Schaubild (PDF) hat mit dem internen Aufbau eines Chips nur wenig gemein... will sagen, dass Du Dir eine 'native'-PCI-Express-Lösung bitte nicht so vorstellen magst, wie es sich Dir auf dem Scahubildchen von ATI darstellt, da dieses schematischer Natur ist.


1. Habe ich einen Punkt genannt um solche Misstände an Postings auszuschließen....

2. ...eine native PCI-E Lösung ist 4GB UPSTREAM <-> 4GB DOWNSTREAM der Daten... Nicht mehr Nicht weniger.

r@h
2004-06-19, 06:15:08
Original geschrieben von Sphinx
1. Habe ich einen Punkt genannt um solche Misstände an Postings auszuschließen....:???:Original geschrieben von Sphinx
2. ...eine native PCI-E Lösung ist 4GB UPSTREAM <-> 4GB DOWNSTREAM der Daten... Nicht mehr Nicht weniger. Falsch.

Eine 'native' PCI-Express-Lösung ist ein Chip-internes, 'reines' PCIe-Interface.
Ob dies nun 1x oder 16x ausgelegt ist (oder 4x, 8x im x16-Slot ;-), spielt hier überhaupt keine Rolle.

Wie gesagt: erkundige Dich doch einfach mal ein bissel in dieser Richtung.

Razor

Quasar
2004-06-19, 08:40:12
Original geschrieben von Sphinx
2. ...eine native PCI-E Lösung ist 4GB UPSTREAM <-> 4GB DOWNSTREAM der Daten... Nicht mehr Nicht weniger.

In ein paar Minuten kann ich dir gern auch einen Link geben, aber dann hat auch ATi laut deiner Definition kein natives PCI-e anzubieten...

Gast
2004-06-19, 09:09:57
Meinst sicher diesen feinen Artikel.
http://www.computerbase.de/artikel/hardware/mainboards/pci_express_die_grundlagen/

Quasar
2004-06-19, 09:12:32
Nope.

edit:
Das (http://www.computerbase.de/artikel/hardware/prozessoren/intels_zukunftsplattform/10/#pci_expess_for_graphics_gegen_agp), da es nur 366MB/s Sekunde sind, ist Sphinx' "natives PCI-e" wohl nicht drin.
(Wer Ironie findet, darf sie behalten.)

Gast
2004-06-19, 09:30:14
Sieht nach "viel Wind um nichts" aus, wie damals als AGP eingeführt wurde und der nutzen bis heute eher im einstelligen Prozentbereich zu messen ist (auf Spiele bezogen).

Quasar
2004-06-19, 09:32:44
Natürlich, aber das hat nichts mit nativ oder nicht-nativ zu tun - das können wir vielleicht besser im Tech-Forum erörtern.

StefanV
2004-06-19, 14:12:11
Original geschrieben von Quasar
Nope.

edit:
Das (http://www.computerbase.de/artikel/hardware/prozessoren/intels_zukunftsplattform/10/#pci_expess_for_graphics_gegen_agp), da es nur 366MB/s Sekunde sind, ist Sphinx' "natives PCI-e" wohl nicht drin.
(Wer Ironie findet, darf sie behalten.)

Naja, vielleicht misst auch das Programm Mist und/oder der/die Treiber sind noch nicht wirklich auf die PCI-E Varianten angepasst.

Schade, daß ihr nicht immer eine 9600XT mitgetestet habt...

Auch interessant sind die Ergebnisse von Spec Viewperf 7.1 ugs-03...

Gast
2004-06-19, 14:59:58
Original geschrieben von Quasar
Nope.

edit:
Das (http://www.computerbase.de/artikel/hardware/prozessoren/intels_zukunftsplattform/10/#pci_expess_for_graphics_gegen_agp), da es nur 366MB/s Sekunde sind, ist Sphinx' "natives PCI-e" wohl nicht drin.
(Wer Ironie findet, darf sie behalten.)


Das Fazit zu UGS-03 ist teilweise falsch. Die GF6800 ist hier daudrch limitiert, dass es keine Quadro-Version ist dun somit die AA-Lines nicht in HW berechnet. Hier limitiert keinesfalls das Interface.

Sphinx
2004-06-19, 18:17:53
Original geschrieben von Quasar
Nope.

edit:
Das (http://www.computerbase.de/artikel/hardware/prozessoren/intels_zukunftsplattform/10/#pci_expess_for_graphics_gegen_agp), da es nur 366MB/s Sekunde sind, ist Sphinx' "natives PCI-e" wohl nicht drin.
(Wer Ironie findet, darf sie behalten.)

Entschuldige das ich nicht PCI-E von 16x gesprochen habe auf die theoretisch mögliche Bandbreite.

PCIe version------AGP---------Bandwidth
PCIe x1---------AGP 1X---------264 Mbps
PCIe x4---------AGP 4X---------1 Gbps
PCIe x8---------AGP 8X---------2 Gbps
PCIe x16--------2x AGP 8X------4 Gbps

Und unter "Native" verstehe ich das die volle Bandbreite in beiden Richtungen existent sind sprich "full bandwidth in both upstream and downstream directions" wie ein Hersteller dieses erreicht Chipintern oder Bridged sollte wohl klar sein nur Nvidia´s Bridged Lösung bietet per Bridge Lösung AGP<->PCI-E nicht in beide Richtungen die volle Bandbreite nachdem was ich über ihre BridgeLösung weiß.

r@h
2004-06-19, 19:05:42
Duch Wiederholung wird's auch nicht richtiger...

Razor

Endorphine
2004-06-19, 20:12:19
Eben. PCI-Express bietet nur als Nebenfeature eine gesteigerte Bandbreite. Da hilft es nicht, Bridges schönzureden.

Quasar
2004-06-19, 21:01:48
Original geschrieben von Sphinx
Entschuldige das ich nicht PCI-E von 16x gesprochen habe auf die theoretisch mögliche Bandbreite.

PCIe version------AGP---------Bandwidth
PCIe x1---------AGP 1X---------264 Mbps
PCIe x4---------AGP 4X---------1 Gbps
PCIe x8---------AGP 8X---------2 Gbps
PCIe x16--------2x AGP 8X------4 Gbps

Und unter "Native" verstehe ich das die volle Bandbreite in beiden Richtungen existent sind sprich "full bandwidth in both upstream and downstream directions" wie ein Hersteller dieses erreicht Chipintern oder Bridged sollte wohl klar sein nur Nvidia´s Bridged Lösung bietet per Bridge Lösung AGP<->PCI-E nicht in beide Richtungen die volle Bandbreite nachdem was ich über ihre BridgeLösung weiß.

Ich entschuldige natürlich gern, auch wenn ich den entsprechenden Satz nicht ganz verstehe - hast du in großer Eile geschrieben oder ist Deutsch nicht deine Muttersprache?
edit: Das ist nicht negativ oder böse gemeint - bitte nicht falsch verstehen.

Wie dem auch sei, ich kann mich Endorphine nur anschließen - die Bandbreite ist zwar schön und gut, wichtiger sind aber die "restlichen Features".
Ein "natives PCI-Interface" hat IMO nur den Vorteil, günstiger in der Fertigung zu sein, wenn man sicher entsprechend große Mengen der Chips abzusetzen. Wenn man sich alle Türchen offenhalten will, nimmt man eben eine Bridge - solange diese den Sinn von PCI-e nicht ad absurdum führt, ist's mir eigentlich egal.

Wenn nun aber die Bridge alles ausbremst oder gar fehlerhaft sein sollte, ist's natürlich Scheisse für den jeweiligen IHV. Andererseits kann man auch ein herkömmliches Interface on-die vermurksen - das ist im Endeffekt genauso übel.

Also, von mir aus Bridge, egal wer, egal wo, solange ich dadurch keinen Nachteil habe.

Endorphine
2004-06-19, 21:14:43
Original geschrieben von Quasar
Um wieviel? Theoretisch und praktisch bitte... ;) Bei AGP kann man wegen 66 MHz Basistakt (AGP = aufgebohrter PCI 2.x Bus mit 32 Datenleitungen und 66 MHz als Punkt zu Punkt Verbindung zw. Chipsatz/Hauptspeicher und GPU) nie auf eine geringere Latenz als eben 1/f = 15 * 10^-9 s = 15 ns kommen. PCI-Express hat schon durch eine etwas (;)) größere Taktfrequenz bei gleichzeitig höherer Bandbreite trotz Overhead das Potenzial für eine deutlich niedrigere real erzielbare Latenz.

Wie viel genau theoretisch: müsste ich erst mein PCIe-Material wälzen.

Wichtiger ist aber die Praxis. Und auch dort wird PCIe in Zukunft endlich eine brauchbare Latenz bieten. Ich erinnere nur mal an die "save the nanosecond" Präsentation von ATI dazu (siehe Anhang). Das wird auch Programmierer freuen, wenn diese altertümliche I/O-Leistungscharakteristik von extremer Bandbreite und gleichzeitig gigantisch grosser Latenz endlich entschärft wird.

Quasar
2004-06-19, 23:01:55
Schon klar, daß man da AGP nicht als Heilsbringer feiert.

Wenn nun aber der Rückkanal aufgebohrt wird, muss man entweder die CPU reads weiterhin vermeiden, da im Verhältnis zur "onboard" Geschwindigkeit der Grafikkarte auch PCI-e um Dimensionen langsamer ist (mal von der X300SE abgesehen, die eine höhere Busbandbreite haben wird, als lokale Memorybandbreite...) oder man geht zu den Entwicklern mit einer neuen Präsentation "Waste the nanosecond" und sagt ihnen "Vergeßt den BS, den wir gestern erzählt haben - CPU-reads sind was tolles".
:|


Dilemma, Dilemma. ;)

Und dann noch die Geschichte, daß man für Echtzeit-Anwendungen nach Möglichkeit die Lokalität versucht zu maximieren. Das ist wohl auch der Grund, warum uns mit vier simultanen HDTV-Videostreams, die in Echtzeit editiert und mit Spezialeffekten aufgepeppt werden, PCI-e schmackhaft gemacht werden soll. :|

tokugawa
2004-06-20, 01:41:52
Original geschrieben von Sphinx
Das habe ich auch gedacht - und bin aber sturr zu antworten...

Du bist da gar nicht besser... nur halt mit anderem Vorzeichen.

Bitte Leute: geht gar keine sachliche Diskussion mehr?

Quasar
2004-06-20, 16:54:50
Original geschrieben von Gast
Das Fazit zu UGS-03 ist teilweise falsch. Die GF6800 ist hier daudrch limitiert, dass es keine Quadro-Version ist dun somit die AA-Lines nicht in HW berechnet. Hier limitiert keinesfalls das Interface.

Danke, ist behoben! :)

Gast
2004-06-21, 11:09:06
Original geschrieben von Quasar
Nope.

edit:
Das (http://www.computerbase.de/artikel/hardware/prozessoren/intels_zukunftsplattform/10/#pci_expess_for_graphics_gegen_agp), da es nur 366MB/s Sekunde sind, ist Sphinx' "natives PCI-e" wohl nicht drin.
(Wer Ironie findet, darf sie behalten.)

Welcher Benchmark wurde denn da benutzt? Finde da nix. Was nutzen Zahlen, wenn niemand weiss wie und was da gemessen wurde?

q@w
2004-06-21, 11:17:10
3D-Download-Benchmark, url muss ich nachschauen -> heute abend.

Müsste aber auch mit Pete's FB-Read reproduzierbar sein, den gibt's irgendwo im Matroxusers- oder B3D-Forum.

sry
;(

Quasar
2004-06-21, 18:49:14
http://www.seriousmagic.com

Da sollte es das Ding noch geben. Es wird einfach eine Scena simpla maxima gerendert und das Ergebnis via Rückkanal ausgelesen.

edit
direkt: http://www.seriousmagic.com/3D-DloadBenchmark.zip
~84k

Tarkin
2004-06-22, 13:11:44
http://www.theinquirer.net/?article=16735

"...

We assure you it's not, though. It's actually PCIE buffers - part of our native PCIE solution.

We demonstrated the power of our native solution at CeBIT this year using an HDTV demo that delivered frame rates impossible with any kind of PCIE bridge. That's why most OEMs have opted for the ATI PCIE solution.

If you have any further questions let me know.

Cheers!!
Chris Hook
ATI PR

..."

Xmas
2004-06-22, 17:25:12
"frame rates impossible with any kind of PCIE bridge."

Naja, man muss halt was werbewirksames sagen, auch wenn es dadurch keinen Deut richtiger wird.

Gast
2004-06-22, 21:41:21
Original geschrieben von Quasar
http://www.seriousmagic.com

Da sollte es das Ding noch geben. Es wird einfach eine Scena simpla maxima gerendert und das Ergebnis via Rückkanal ausgelesen.

edit
direkt: http://www.seriousmagic.com/3D-DloadBenchmark.zip
~84k

Danke!

Gast
2004-06-23, 08:54:06
Original geschrieben von CrazyIvan
:cop: FUAD :cop: hin oder her. Ich bin schon der Meinung, dass die Leutz von nV nen "internal Buffer" von ner AGP-to-PCI-E Bridge unterscheiden können. Und an Peinlichkeit wäre das ganze Szenario nur schwer zu überbieten.

Ich denke damit hat sich nv sehr weit aus dem Fenster gelegt, es def., ATI verwendet bei der X300-X800 keine Bridgelösung.

Das ist billiges ANTI-Marketing von nv, die gezeigten Röntgenaufnahmen belegen rein gar nix.

Gast
2004-06-23, 08:58:55
Original geschrieben von Gast
ist doch alles völlig wurscht.
PCI Express hin oder her.
Tatsache ist ATI hakt auf Nvidias Lösung rum und prollt, was für eine tolle native Lösung sie haben.
Tatsache ist auch, dass ATI auf Nvidias Filtering seit über einem Jahr rumhakt und selber noch eine sehr viel hässlichere Variante verbaut aber keinem etwas gepfiffen hat.
Das ist schlicht und ergreifend dreiste Lügerei und Irreführung von Testern und Kunden.
Das muss bestraft werden. Wenn sich das als wahr rausstellt sind Artikel über dieses Verhalten genauso Pflicht wie die Artikel über ATIs Filtercheats bei computerbase.

Es wird zunehmend mehr deutlich, dass sie kein Stück besser sind. Der selbe hinterlistige Verein wie andere auch. Deshalb darf es auch für die Kanadier keinen Bonus irgendwo geben.
Der ist schlichtweg nicht zu rechtfertigen.

Ihre Produkte sind momentan nicht besser übern Schnitt aber hinten in der Technologie und mit ihrem Marketing tapsen sie ein ums andere mal in den Fettnapf.
Ich denke da wirds Zeit für einen Dämpfer, der sich in weniger Dollars aufm Konto wiederspiegelt.
Das sollten sich vor allem die ganzen Fanboys mal überlegen. Es macht keinen Sinn so eine Firma zu verteidigen. Es macht lediglich Sinn so etwas abzustrafen, damit ganz schnell klar wird, dass es nicht angeht die Leute so zu verschaukeln.

Der größte Fanboy bist wohl du !!!!

ATI ist sachlich gesehen mit Ihrer derzeitigen Highendserie um längen besser als nv, bezogen auf : Stromverbrauch, Leistungsverlust, Abwärme, Native PCI Express etc. pepe.

Grestorn
2004-06-23, 09:41:29
Original geschrieben von Gast
Der größte Fanboy bist wohl du !!!!

ATI ist sachlich gesehen mit Ihrer derzeitigen Highendserie um längen besser als nv, bezogen auf : Stromverbrauch, Leistungsverlust, Abwärme, Native PCI Express etc. pepe.
Ja, alles seeeehr sachlich... aber nur durch eine Fanboy-Brille.

Stromverbrauch/Leistungsverlust: Widerlegt (Testberichte)
Abwärme: Bisher nicht gemessen (Nur die lauteren Lüfter, aber die hat nicht unbedingt was mit dem Chip zu tun, sondern können einfach schlechte Lüfter sein...)
Native PCI-Express: Selbst wenn da ein Unterschied ist, hat er praktisch keine Auswirkungen (was auch schon sehr oft belegt wurde).

Was bleibt also von dem "um Längen besser"? Lass doch einfach mal solche Aussagen.

Ich meine, keine der beiden Serien ist "um Längen besser" als die andere. Die eine hat leichte Vorteile im einen Punkt, die andere im anderen Punkt. Welche Punkte für den einzelnen wichtiger sind, muss er selbst wissen und daran seine Entscheidung festmachen.

Wenn jemand meint sein Urteil durch unfundierte Pauschalaussagen trüben zu müssen, dann ist derjenige auch der einzige der den Schaden davonträgt. Aber lasst bitte die Allgeimeinheit davon verschont!

MB@W
2004-06-23, 09:57:49
Original geschrieben von grestorn
Ich meine, keine der beiden Serien ist "um Längen besser" als die andere. Die eine hat leichte Vorteile im einen Punkt, die andere im anderen Punkt. Welche Punkte für den einzelnen wichtiger sind, muss er selbst wissen und daran seine Entscheidung festmachen.
:up:
So ist es.

ShadowXX
2004-06-23, 10:13:30
Original geschrieben von grestorn
Ich meine, keine der beiden Serien ist "um Längen besser" als die andere. Die eine hat leichte Vorteile im einen Punkt, die andere im anderen Punkt. Welche Punkte für den einzelnen wichtiger sind, muss er selbst wissen und daran seine Entscheidung festmachen.

Wenn jemand meint sein Urteil durch unfundierte Pauschalaussagen trüben zu müssen, dann ist derjenige auch der einzige der den Schaden davonträgt. Aber lasst bitte die Allgeimeinheit davon verschont!

Weise Sätze...full ack!!

Crushinator
2004-06-25, 10:59:16
*unnötige, flamehaltige Postings und die darauf eingehenden entfernt*

Liebe Gäste, benehmt Euch bitte!

Coda
2004-06-25, 11:00:36
Original geschrieben von Gast
Sieht nach "viel Wind um nichts" aus, wie damals als AGP eingeführt wurde und der nutzen bis heute eher im einstelligen Prozentbereich zu messen ist (auf Spiele bezogen).
Schalt mal deine Grafikkarte in den PCI Modus, du wirst dich wundern. AGP ist auf jeden Fall sinnvoll. PCI Express auf lange Zeit betrachtet auch.

Tjell
2004-06-25, 12:10:50
Original geschrieben von Coda
Schalt mal deine Grafikkarte in den PCI Modus, du wirst dich wundern. AGP ist auf jeden Fall sinnvoll. PCI Express auf lange Zeit betrachtet auch.

Exakt. Derzeitige Grafikkarten können keinen Nutzen aus der Bandbreite von PCI-Ex16 ziehen.

Noch eine ganze Weile wird dies rein auf die Leistung(ssteigerung) bezogen eher ein Marketing-Gag sein, so wie auch schon der "schnellere AGP8x-Port".

r@h
2004-06-27, 11:08:56
Original geschrieben von Gast
Ich denke damit hat sich nv sehr weit aus dem Fenster gelegt, es def., ATI verwendet bei der X300-X800 keine Bridgelösung.

Das ist billiges ANTI-Marketing von nv, die gezeigten Röntgenaufnahmen belegen rein gar nix. Die Marketing-Aussagen von ATI stehen natürlich für die absolute Wahrheit.
Genau so übrigens, wie mit ihren 'perfekten' Filtern...
(wie man ja mit entsprechenden Tools nachprüfen kann ;-)

Oh mann.
Original geschrieben von Gast
ATI ist sachlich gesehen mit Ihrer derzeitigen Highendserie um längen besser als nv, bezogen auf : Stromverbrauch, Leistungsverlust, Abwärme, Native PCI Express etc. pepe. Und noch mehr Marketing-Bla-Bla...
Sag mal, ignorierst Du egentlich alle verfügbaren Testberichte ?
:???:

Razor

P.S.: Es ist gefählich, die Marketing-Aussagen eines IHV als bare Münzu zu nehmen... ganz egal, um welchen es sich dabei handelt.

Jesus
2004-06-27, 12:13:20
Original geschrieben von r@h
Oh mann.
Und noch mehr Marketing-Bla-Bla...
Sag mal, ignorierst Du egentlich alle verfügbaren Testberichte ?
:???:


wieso? lt. aller verfügbarer Testberichte sind ATI´s Stromverbrauch, Leistungsverlust und Abwärme niedriger :)

tokugawa
2004-06-27, 13:34:34
Original geschrieben von Gast
Der größte Fanboy bist wohl du !!!!

ATI ist sachlich gesehen mit Ihrer derzeitigen Highendserie um längen besser als nv, bezogen auf : Stromverbrauch, Leistungsverlust, Abwärme, Native PCI Express etc. pepe.

SACHLICH gesehen ist eine Aussage wie "ATI ist um Längen besser" nicht vertretbar.

Ich sehe persönlich einen Gleichstand.

Es sprechen klare Argumente für NV, es sprechen auch klare Argumente für ATI.

Dank dieser Tatsache kann sich jeder so entscheiden, dass es seinen Prioritäten entspricht.

Aber "um Längen besser" ist keiner der Hersteller gegenüber dem anderen, sachlich und objektiv gesehen. Für jemanden persönlich schon, aber das ist dann eine MEINUNG, und nicht sachlich.

tokugawa
2004-06-27, 13:35:22
Original geschrieben von grestorn
Ja, alles seeeehr sachlich... aber nur durch eine Fanboy-Brille.

Stromverbrauch/Leistungsverlust: Widerlegt (Testberichte)
Abwärme: Bisher nicht gemessen (Nur die lauteren Lüfter, aber die hat nicht unbedingt was mit dem Chip zu tun, sondern können einfach schlechte Lüfter sein...)
Native PCI-Express: Selbst wenn da ein Unterschied ist, hat er praktisch keine Auswirkungen (was auch schon sehr oft belegt wurde).

Was bleibt also von dem "um Längen besser"? Lass doch einfach mal solche Aussagen.

Ich meine, keine der beiden Serien ist "um Längen besser" als die andere. Die eine hat leichte Vorteile im einen Punkt, die andere im anderen Punkt. Welche Punkte für den einzelnen wichtiger sind, muss er selbst wissen und daran seine Entscheidung festmachen.

Wenn jemand meint sein Urteil durch unfundierte Pauschalaussagen trüben zu müssen, dann ist derjenige auch der einzige der den Schaden davonträgt. Aber lasst bitte die Allgeimeinheit davon verschont!

Da kann man nur zustimmen!

r@h
2004-06-27, 19:39:32
Original geschrieben von Jesus
wieso? lt. aller verfügbarer Testberichte sind ATI´s Stromverbrauch, Leistungsverlust und Abwärme niedriger :) Und wieviele Testberichte nehmen dazu Stellung und überprüfen die Marketingaussagen ?
Kenne da eigentlich nur den von guru3D, der bei den 6800'ern geringere Temps gemessen haben will.

Also, kannst Du mir mal ein paar Tests zeigen, die andere Ausagen treffen ?
:???:

Razor