Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - SNB-E und das PCI-Express 3.0 Desaster


Hübie
2014-03-02, 00:18:39
Hi Leute.

Ich hab mir vor ein paar Wochen ein Upgrade gegönnt und wollte PCI-Express 3.0 nutzen. Leider kommt in Battlefield 4 nach spätestens 5 Minuten ein schwarzer Bildschirm und nix geht mehr. Also es passiert wirklich nix weiter. Bild schwarz, Ende. Reset hilft. Stelle ich RMPCIELINKSPEED in der registry wieder auf "3" statt "4" geht wieder alles.
Step 1: Update your graphics drivers to the latest version (doesn't matter if you use the WHQL or beta version) and restart your computer.

Step 2: Download the latest version of GPU-Z:
http://www.techpowerup.com/downloads/SysInfo/GPU-Z/

Step 3: Run GPU-Z and verify that the “Graphics Bus interface” value shows PCI-E 2.0 for each card

Step 4: Disable SLI -or- Crossfire (if enabled). If SLI -or- Crossfire are not enabled, skip to Step 5

Step 5: Click on the Windows button (located on the lower left corner of the start bar)

Step 6: In the search index entry window, type in “Regedit” (the Registry Editor window will open)

Step 7: Select the following registry:

HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Control/Video

Step 8: Identify the correct registry folders for each of graphics cards you have installed. There will be one associated folder for each card installed. To identify the correct folder for each card, you will need to review the names of each folder within the “HKEY_LOCAL_MACHINE/SYSTEM/ CurrentControlSet/ Control/Video” registry directory. The folder associated with a graphics card will have three or more subfolders (depending on how many PCI-E slots available on the motherboard). The values listed for each subfolder will be 0000, 0001, 0002, 0003, 0004, and Video. Review only the subfolders labeled as "0000". You will know you have selected the correct "0000" subfolder when you see a registry labeled “DriverDesc” with a value that matches the graphics card you have installed. Example, the value in my “DriverDesc” registry value reads “NVIDIA Geforce GTX 680”.

Step 9: Right click on the folder labeled “0000”. Select “New”, then select “DWORD (32-bit) Value“, then enter “RMPcieLinkSpeed” for the name of the registry.

Step 10: Right click the “RMPcieLinkSpeed” registry you just created, then select “Modify”, then enter “4” as the data value and verify that the “Hexadecimal” option is checked under “Base”, and then select “OK”.

Step 11: Repeat steps 9 and 10 for each graphics card associated folder (named “0000”)

Step 12: Once you have completed creating the RMPcieLinkSpeed registry for each card, close the Registry Editor window and restart your computer.

Step 13: Once your system is back into operating system environment, run GPU-Z and verify that the “Graphics Bus interface” value shows PCI-E 3.0 for each card.

Step 14: Re-enable SLI -or- Crossfire as needed. Quelle (http://forums.evga.com/tm.aspx?m=2063059)
Nun weiß ich gar nicht wer der schuldige ist: Mainboard, CPU oder Graka?



AsRock sagt in den Specs klar:
3 x PCI Express 3.0 x16 slots (PCIE1 @ x16 mode; PCIE3 @ x16 mode; PCIE4 @ x8 mode)
Intel sagt in den CPU-Specs:
PCI Express Revision 2.0
Max # of PCI Express Lanes 40
Obwohl ich sicher bin dass anfangs hier 3.0 stand und beim baugleichen Xeon 26xx auch PCI Express Revision 3.0 steht!
nVidia sagt:
Bus Type PCI-E 3.0


Jetzt könnte man meinen Intels CPU sei Schuld. Jedoch gibt es statements von Intel dass der PCI Express-Controller fähig ist Rev 3.0 zu verarbeiten / zu verstehen. Viele User nutzen das auch jahrelang ohne Fehler. Im EFI kann ich leider nix groß einstellen. Nur Gen1,2,3 und das wars.
Welche Möglichkeiten hätte ich 3.0 zum laufen zu bekommen? Gibt es registry-Einstellungen? In den Energieoptionen ist APSM aus, aber das bringts nicht. Weiter Vorschläge?

Es kotzt mich einfach an dass der schwarze Peter wieder von A nach B geschoben wird um dann einfach C als schuldigen zu deklarieren.:mad:

Edit: Systemspecs:

Prozessor
i7 3930k
Mainboard
AsRock X79 Extreme6
RAM
4x4 GB G.Skill TridentX DDR3 2133
Grafikkarte
MSI TwinFrozr N770 4GB SLi
Soundkarte
Creative X-Fi Titanium
Monitor
BenQ XL2410T
Netzteil
Cougar GX 800 Watt
Sonstiges
Coolermaster HAF X Gehäuse
1x Crucial C300 64 GB SATA III SSD
1x Samsung 830 512 GB SATA III SSD
2x Samsung HD502LJ 500 GB SATA II HDD
1x Samsung HD103SJ 1000 GB SATA II HDD
1x LG DVD-RAM/ROM
Windows 8.1 Professional x64+Updates
GeForce 334.56
Opera 12 / Maxthon

Darkman.X
2014-03-02, 00:40:22
Intel ist schuld. Der Controller auf der CPU ist 3.0-fähig. Aber als der Controller fertig gestellt wurde, gab es noch keine 3.0-Karten zum Testen.

nVidia meinte irgendwann mal (LINK (http://nvidia.custhelp.com/app/answers/detail/a_id/3135/~/geforce-600-series-gen3-support-on-x79-platform)), dass es mit 3.0 auf den SB-E-CPUs / x79-Boards zu Timing-Problemen kommen kann. Deshalb schalten sie, wenn eine SB-E-CPU / x79-Board erkannt wird, per Treiber auf 2.0. Mit IB soll es wohl keine Probleme geben.

Wie ich in verschiedenen Threads hier im Forum gelesen habe, soll 3.0 mit einer einzelnen GraKa wohl ohne Probleme funktionieren. Ich konnte selber mit z.B. 3DMark auch keine Probleme entdecken. Ich lasse es aber lieber doch nur auf 2.0 laufen. Was bringt mir ein Mini-Performance-Gewinn, wenn ich damit Probleme riskiere?!
Probleme soll es erst mit SLI (und wahrscheinlich auch Crossfire) geben. Wenn ich mich richtig erinnere, hatte ich in einem Thread mal etwas von Performance-Problemen gelesen.

Lösung? Keine Ahnung. Außer dem im Link erwähnten nVidia-Tool kenne ich nichts zu diesem Problem.

ndrs
2014-03-02, 00:44:32
Ich kann mich nur noch recht dunkel erinnern, deshalb keine 100%ige Garantie auf das folgende:
Sowohl Intel als auch nV haben damals die PCIe3 Specs nicht vollständig eingehalten. Bei beiden funktionierte es "so gut wie immer" und da es nur um den Consumerbereich ging, wo ein Absturz ja halb so schlimm ist, hat man einfach der Marketingabteilung ihren Spaß gegönnt. Das konnte man, glaube ich, recht gut bei K20 vs Titan beobachten, wo erstere nur mit PCIe2 gelabelt war. (Dass der Xeon mit PCIe3 gespect ist wundert mich grad etwas)
Ich vermute mal, dass sich der eine den Specs von links und der andere von rechts genähert hat, sie sich aber nicht überschnitten haben. In der Summe waren beide irgendwie PCIe3 capable, aber beide zusammen inkompatibel. Deswegen hat es mit AMD meines Wissens immer funktioniert.

Wenn du es genauer wissen willst, solltest du mal Skysnake drauf ansprechen. Der hat damals gekocht bei dem Thema und wird sich mit Sicherheit gut daran erinnern ;) (@Skysnake: den Verweis auf dich bitte nicht in den falschen Hals bekommen, ich bin bei dem Thema deiner Meinung)

Asrock kannst du am wenigsten die Schuld geben, da du dir ja einen Ivy-E hättest kaufen können für PCIe3 :) Die müssen nicht viel machen außer ein paar Leitungsrestriktionen einzuhalten.

Edith behauptet, dass da jemand schneller war. Unerhört!

Hübie
2014-03-02, 01:43:25
Hm. Also schreib ich Intel mal an. Asrock ist doch aber für die Steuerung zuständig. Bei meinem "alten" EVGA-Board konnte ich eine ganze Menge für PCI-E einstellen. Unter anderem Dämpfung und timings :eek: Und es gibt tausende Konfigurationen mit SLi die auf einem SNB-E funktionieren. Dann halt noch der ominöse Xeon welcher baugleich ist (lediglich voll aktiviert). Ich gebe mich nicht einfach damit zufrieden dass "ätschie bätschie geht nich" ausreichend sein soll. Dass muss irgendwie laufen, nur halt nicht mit den settings.
Und zum Thema Ivy: ich habe 390€ für einen original verpackten, boxed SNB-E mit 6 Jahren Garantie gezahlt. Da KONNTE ich nicht nein sagen ;D

S940
2014-03-02, 02:12:39
Also so wie ich mich erinnere ist PCIe bei den Sandys ne kostenlose Dreingabe. Es kann funktionieren, aber es muss es nicht. Garantieren tuts keiner.

Offiziell gibts nur PCIe2:

Expansion Options PCI Express Revision 2.0
http://ark.intel.com/products/63697/Intel-Core-i7-3930K-Processor-12M-Cache-up-to-3_80-GHz?q=i7%203930k

Dem Boardhersteller ist es ziemlich egal, da steht bei PCIe3 im Kleingedruckten immer dabei "falls es die CPU unterstützt".

Wenn Du also nen schwarzen Bildschirm mit PCIe3 bekommst, dann lass es einfach.

Hübie
2014-03-02, 04:23:13
Wie gesagt: Anfangs stand da 3.0. Steht auch in den whitepaper. Erst die aktualisierten haben diese kleine Korrektur drin.
Ich wills nicht einfach lassen ;D Mir fiel im fullscreen-renderer von GPU-Z auf, dass nach ca. 30 Sekunden Karte #2 auf PCI-E 1.1 dropped. Trotz abgeschaltetem APSM in Windows :| Wie kann das sein? Unter 2.0 bleibt die konstant auf 2.0.

StefanV
2014-03-02, 05:21:38
AFAIR wäre die einfachste Lösung:
nVidia Karte raus, AMD Karte rein, damit soll es öfter funktionieren als mit nVidia.

Oder halt mit PCie 2.0 leben...

Hübie
2014-03-02, 05:31:47
Da steht aber AMD drauf. Also geht das nicht.
Aber wenigstens hast du deinen post-counter weiter Richtung 60k getrieben :up:

StefanV
2014-03-02, 06:04:33
Tjo, wie gesagt, Probleme mit PCie 3.0 auf X79 Plattformen gibts vorangig mit Kepler Karten...
War zu Zeiten, als der X79 relativ neu war, hin und wieder zu lesen, einen Link hab ich dafür aber leider gerade nicht parat.

AMD Karten laufen meist ohne Probleme...

HarryHirsch
2014-03-02, 07:01:07
Mit ATi Karten läuft es seit Tahiti ja ohne Probleme. Also ist klar wer der schuldige ist. ;D

Hübie
2014-03-02, 07:59:45
Tjo, wie gesagt, Probleme mit PCie 3.0 auf X79 Plattformen gibts vorangig mit Kepler Karten...
War zu Zeiten, als der X79 relativ neu war, hin und wieder zu lesen, einen Link hab ich dafür aber leider gerade nicht parat.

AMD Karten laufen meist ohne Probleme...

Okay dann drück ich mich deutlicher aus: Deinen Rat kann ich nicht gebrauchen. :rolleyes:

Mark3Dfx
2014-03-02, 08:54:35
Kannst ja mal hier fragen:
http://pctreiber.net/forum/asrock-intel-mainboards-f58/

Die haben einen kurzen Draht zu ASRock.
Aber ohne neues BIOS sehe ich da wenig Chancen.
(Immerhin das letzte ist erst vom Februar, also könnte noch was kommen)

4Fighting
2014-03-02, 08:58:50
Das SNB-E Probleme mit pcie 3.0 hat, ist doch wohl längst bekannt...

Außerdem worüber reden wir? Da du nur 1080p nutzt, dürfte sich der Performancegewinn wohl im Bereich 1-2% bewegen. Da packst ein bisschen mehr OC auf die 770er und gut ist:)

Hübie
2014-03-02, 09:20:20
Ich downsample und nutze SGSSAA wann immer es geht. Und ich will jedes Stückchen Leistung. Der Bus wird auch mal mit 30-40% belastet wenn man dem inspector glauben kann. Da würde sich das halt auch positiv niederschlagen.
@Mark3dfx: Danke das werde ich mal probieren :smile:

Edit: okay PCT ist tot. Steht in den News auf der Hauptseite.

4Fighting
2014-03-02, 09:53:48
Ich downsample und nutze SGSSAA wann immer es geht. Und ich will jedes Stückchen Leistung. Der Bus wird auch mal mit 30-40% belastet wenn man dem inspector glauben kann. Da würde sich das halt auch positiv niederschlagen.
@Mark3dfx: Danke das werde ich mal probieren :smile:

Edit: okay PCT ist tot. Steht in den News auf der Hauptseite.

Absolut verständlich, aber die max. 5% Mehrleistung bringen Dir, wenn eh zu wenig Leistung vorhanden ist durch die 770er, auch nichts mehr:)

Skysnake
2014-03-02, 11:04:08
Tja Hübie, dann schreib doch mal an PCGH, CB und all die anderen Seiten dein Problem. Die haben das nämlich im Großen und Ganzen immer abgestritten.

Das SB-E Xeons PCI-E 3.0 unterstützen ist auch KEIN! Argument. Die Xeons unterstützen auch Dual-Sockel Systeme. Das Binning ist halt für die Xeons strigenter. Daher funktioniert da auch PCI-E 3.0

Wobei mit Kepler gabs halt dennoch Probleme, weshalb die Tesla Kepler-Karten ja auch kein PCI-E 3.0 bekommen haben.

Und bzgl "Es gab noch keine Karten zum Testen usw"

BULLSHIT!

Ich kanns nicht mehr hören... Man macht ErrorRateTests usw mit nem Testsystem, das völlig unabhängig davon ist, ob es schon Produkte gibt oder nicht...

Zur Not hängt man nen Oszi ran und misst die Augendiagramme und gut ist....

fondness
2014-03-02, 11:27:52
Vermutlich erfüllen beide, also Intel und Nvidia die Specs wohl nicht unter allen Umständen oder haben zu geringe Toleranzen eingebaut oder eine zu große Serienstreuung. Die Kombination der beiden kann dann tödlich sein. NV spezifiziert deshalb alle Karten im professionellen Bereich auch nur als PCIe2.0. Mit GK110b wurde dann allerdings gfixed soweit ich weiß. Es nur auf Intel zu schieben wie der Threadtitel suggeriert ist also definitiv nicht korrekt.

Okay dann drück ich mich deutlicher aus: Deinen Rat kann ich nicht gebrauchen. :rolleyes:

Das ist ein Diskussionsforum und kein Hilfe-Forum. Wenn du Rat brauchst bist du hier also falsch.

Hübie
2014-03-02, 12:03:27
Und wo bitte ist die Diskussion wenn einfach gesagt wird "kauf AMD"?
Ich will einerseits ergründen was da quer schießt (wer also Ursache ist) und andererseits ob es Tricks gibt das zu beheben. Mit GK104-425 soll dass PCI-E-Problem auch behoben sein. Sonst würde man ja nicht eindeutig 3.0 deklarieren.

@skysnake: Weißt du denn was die Ursache ist? Sitzt die im Hub? Signalrauschen? Protokollfehler??

kruemelmonster
2014-03-02, 12:08:41
@Hübie:

Als NV den PCIe Link Speed auf X38-Boards von 2.0 auf 1.1 begrenzt hat (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=469691), hat mir und vielen anderen der SLI-Patch geholfen bei dem dem Graka-Treiber eine andere Chipsatz ID vorgetäuscht wurde.
Die aktuelle Version gibts hier (http://www.techpowerup.com/forums/threads/hypersli-enabling-sli-on-non-sli-motherboards.153046/), keine Ahnung ob dir das bei deiner Problematik hilft aber ein Versuch ist es wohl wert.

4Fighting
2014-03-02, 13:58:28
Funzt der nvidia Patch, den Darkman.X gepostet hat, nicht?

Hübie
2014-03-02, 18:11:36
Wad darkman-x gepostet hat ist dass was ich manuell in der registry mache ;) Mal sehen was kruemelmonster mir da gepostet hat. Bin noch nicht am Desktop also melde ich mich später nochmal. Danke schon mal.

StefanV
2014-03-02, 18:27:48
Okay dann drück ich mich deutlicher aus: Deinen Rat kann ich nicht gebrauchen. :rolleyes:
Was willst du denn sonst hören?!

Dass nV irgendwas bei der PCIe Implementierung was verkackt hat, ist bekannt.
Dass Intel irgendwas bei der PCIe Implementierung der LGA2011 Plattform verkackt hat, ist bekannt.
Dass AMD nichts bei der PCIe Implementierung zu verkackt haben scheint, ist bekannt.

Dass (einige??) nV Karten auf LGA2011 Probleme machen können, ist bekannt. Von AMD hat man bisher nichts gehört, in diesem Zusammenhang. Da scheint PCie 3.0 wohl zu funktionieren...

Wenn du jetzt unbedingt PCIe 3.0 haben willst, gibt es keine Alternative als Hardware auszutauschen!!
Und die zwei offensichtlicheren Möglichkeiten habe ich genannt, wenn das stimmt, was Skysnake gesagt hat, dann wäre auch eine 780TI eine Option...

4Fighting
2014-03-02, 18:29:44
Und die zwei offensichtlicheren Möglichkeiten habe ich genannt, wenn das stimmt, was Skysnake gesagt hat, dann wäre auch eine 780TI eine Option...

Oder ein Mobo mit PLX Chip iirc

Skysnake
2014-03-02, 18:30:39
Und wo bitte ist die Diskussion wenn einfach gesagt wird "kauf AMD"?
Ich will einerseits ergründen was da quer schießt (wer also Ursache ist) und andererseits ob es Tricks gibt das zu beheben. Mit GK104-425 soll dass PCI-E-Problem auch behoben sein. Sonst würde man ja nicht eindeutig 3.0 deklarieren.

@skysnake: Weißt du denn was die Ursache ist? Sitzt die im Hub? Signalrauschen? Protokollfehler??
Der physikalische Übertragungslayer passt halt einfach nicht.

Es gibt Spekulationen, dass die PCI-E 3.0 specs nicht 100% eindeutig ausreichend sind/waren. Es war/ist wohl möglich, dass sich alle an die Specs halten, aber durch unterschiedliche Auslegung der Specs bzw "nur" maximale Ausreizung der Specs es eben nicht funktioniert.

Ich hatte ja von der CeBIT 2013 berichtet, wo OEMs ganz klar gesagt haben, das nVidia PCI-E 3.0 bringen wollte, mit den PCI-E 3.0 SB-E Xeons es aber eben eine Lotterie war, ob es geht oder nicht. Deswegen musste nVidia PCI-E 3.0 zurückziehen.

Das ist aber völlig unabhängig von PCI-E 3.0 auf SB-E Desktop CPUs. Die sind schlicht nicht validiert/zertifiziert. Ich weiß nicht, ob die Leute sich dessen wirklich bewusst sind, aber die Übertragungsraten von PCI-E 3.0 auf den normalen Boards sind schon richtig richtig heftig. Das ist ziemlich an die Grenze dessen gegangen, was man technisch machen kann.

Deswegen gab/gibt es auch Probleme....

Ich fand es immer verantwortungslos, dass die Presse die fehlende PCI-E 3.0 Zertifizierung bei den Desktop SB-E runtergespielt hat! Es ist eben so wie bei dir jetzt. Wenn nicht funktioniert, hat man halt einfach PECH! gehabt.

Ist genau wie bei den AMD GPUs, die man teils freischalten kann. Wenns nicht geht, hat man halt einfach PECH! gehabt.

Mich kotzt es noch immer richtig an, das ich damals als Stinkstiefel und Schwarzseher usw usf tituliert wurde.... :mad::down:

Aber hey, was solls... Wenn man nicht die Mainstreammeinung vertritt ist man halt der Depp....

Hübie
2014-03-02, 18:40:11
Ich bin mir sicher dass es auch ohne Tausch geht. Immerhin konnte man bei meinem alten P67 auch PCIE 3.0 aktivieren und noch einiges dran rumspielen. Das geht mit dem neuen Board nicht. Was interessiert mich da also was AMD macht? Die bekommen ne Menge anderer Dinge nicht geschissen die mir wichtig sind. Ich setze mich da mal mit Asrock in Verbindung. Erscheint mir als einzig gangbare Lösung. Kann doch nicht so schwer sein.

Skysnake: Weißt du genauer was da kaputt ist? Das ist doch ein Endpunkt-zu-Endpunkt Protokoll mit kurzen Wegen und einer Kodierung. Könnte das mit der Frequenz zusammen hängen? Signalrauschen? Was konntest du in Erfahrung bringen?

Edit: Okay da haben wir wohl beide getippelt ;D Ich werd mal sehen was sich machen lässt und berichte ggf. hier. Hast du ne Idee wie ich so einen Fehler aufzeichnen kann? Habe VB samt debugger hier. Und natürlich den Windows debugger. Aber ich müsste wahrscheinlich extern ran oder?

Cubitus
2014-03-02, 18:40:43
Den Hack kennst du? Ich hab hier ne BAT, die kannst mal versuchen.. ;)

HisN
2014-03-02, 18:46:53
Absolut verständlich, aber die max. 5% Mehrleistung bringen Dir, wenn eh zu wenig Leistung vorhanden ist durch die 770er, auch nichts mehr:)

Bei zwei Titanen sind es schon gute 10%

http://abload.de/img/avp_pcie2jlc0b.jpg (http://abload.de/image.php?img=avp_pcie2jlc0b.jpg) http://abload.de/img/avp_pcie35hc0w.jpg (http://abload.de/image.php?img=avp_pcie35hc0w.jpg)


Ich persönlich würde ja auf Asrock tippen^^
Auf der anderen Seite nervts Dich irgendwann nach jedem Treiber-Update den Registry-Wert wieder zu ändern.

Hübie
2014-03-02, 18:54:51
Den Hack kennst du? Ich hab hier ne BAT, die kannst mal versuchen.. ;)

Du meinst RMPCIELINKSPEED? Ja das kenne ich. Und ja das kann man auch nach jeder Treiberinstallation fix anklicken ;)

Ich tippe ehrlich gesagt hardwareseitig auf Intel und softwareseitig auf ASRock. nVidia hat mit GK104-425 und GK110b PCIE3.0 im Griff. Jedenfalls wüsste ich von keinem Problem.
Leider ist das EFI vom X79 Extreme6 für B0bs. Da kann man nicht viel einstellen. Hat halt alles seine Schattenseiten ;)

@HisN: Also ein klick auf eine *.reg-Datei ist mir definitiv nicht zuviel. ;)

Skysnake
2014-03-02, 19:04:56
Skysnake: Weißt du genauer was da kaputt ist? Das ist doch ein Endpunkt-zu-Endpunkt Protokoll mit kurzen Wegen und einer Kodierung. Könnte das mit der Frequenz zusammen hängen? Signalrauschen? Was konntest du in Erfahrung bringen?

Edit: Okay da haben wir wohl beide getippelt ;D Ich werd mal sehen was sich machen lässt und berichte ggf. hier. Hast du ne Idee wie ich so einen Fehler aufzeichnen kann? Habe VB samt debugger hier. Und natürlich den Windows debugger. Aber ich müsste wahrscheinlich extern ran oder?
Ja du musst da extern dran.

Entweder direkt mit nem PCI-E 3.0 Testersystem, oder du nimmst ne PCI-E 3.0 Risercard, an der du mit nem Oszi-Kopf dran kannst. Die Dinger sind aber nicht ganz billig. Du musst ja mit mehr las 2 GS/s (GHz) dran wegen dem Nquist-Shennon Abtasttheorem. Besser wäre aber etwas im Bereich 10 GS/s (GHz). Die willst du nicht wirklich bezahlen :freak:

Fazit:
Wenn du PCI-E 3.0 nutzen willst, kauf dir nen PCI-E 3.0 System.

4Fighting
2014-03-02, 19:22:19
Bei zwei Titanen sind es schon gute 10%

[/URL]http://abload.de/img/avp_pcie2jlc0b.jpg (http://abload.de/image.php?img=avp_pcie2jlc0b.jpg) [URL]http://abload.de/img/avp_pcie35hc0w.jpg (http://abload.de/image.php?img=avp_pcie35hc0w.jpg)




Machs mal mit 1080p oder 1660p;)...

Irgendwas stimmt doch da nicht oder? pcie 3.0 x8 müsste doch gleich sein wie pcie 2.0 16x oder irre ich da ?

Hübie
2014-03-02, 19:22:41
Mein Dad hat Ausstattung da träumt manch einer von ;) Leider ist ihm neulich ein sehr teures Oszilloskop kaputt gegangen. Hoffe es ist nicht das große.

Zu letztem Satz: Ich war noch auf Stand zu release des 3930k. Da war noch keine Rede von Problemen mit 3.0. Ist dann irgendwie an mir vorbeigezogen. Dachte dass nur die ersten Kepler-Karten Probleme hatten. Aber offenbar ist das schon weitreichender. Könnte man nicht einfach das Signal verstärken? Oder Frequenz leicht absenken?

HisN
2014-03-02, 19:42:44
Machs mal mit 1080p oder 1660p;)...

Irgendwas stimmt doch da nicht oder? pcie 3.0 x8 müsste doch gleich sein wie pcie 2.0 16x oder irre ich da ?

Das stimmt, dann könnten sogar 20% drinne sein? Wie krass. Dafür baue ich aber nicht alle anderen Karten aus, die ich im Rechner stecken habe.

4Fighting
2014-03-02, 21:00:00
Das stimmt, dann könnten sogar 20% drinne sein? Wie krass. Dafür baue ich aber nicht alle anderen Karten aus, die ich im Rechner stecken habe.

Nein bei 1080p müsste der Unterschied deutlich geringer sein

Schrotti
2014-03-02, 23:16:56
PCIe 3.0 funktioniert mit meinen beiden 680er Karten einwandfrei.

Aber ich nutze eben Ivy Bridge E.

Rente
2014-03-02, 23:39:28
Du hast ja auch einen Ivy-E, das ist nicht sonderlich verwunderlich.

Hübie
2014-03-03, 02:51:15
http://www.abload.de/img/jnj11.jpg

Skysnake
2014-03-03, 09:49:05
Mein Dad hat Ausstattung da träumt manch einer von ;) Leider ist ihm neulich ein sehr teures Oszilloskop kaputt gegangen. Hoffe es ist nicht das große.

Hübie, ich kann mir das schon vorstellen, aber das wird sicherlich nicht derart gut sein, dass du damit die Sachen wirklich messen kannst. Bei so Oszis biste bei 15k€++. Nach oben keine Grenze. Allein son oller Tastkopf für die entsprechenden Frequenzen kostet dich nen vierstelligen Betrag. So 1k€+ halt, wobei eher Richtung 2k+


Zu letztem Satz: Ich war noch auf Stand zu release des 3930k. Da war noch keine Rede von Problemen mit 3.0. Ist dann irgendwie an mir vorbeigezogen. Dachte dass nur die ersten Kepler-Karten Probleme hatten. Aber offenbar ist das schon weitreichender. Könnte man nicht einfach das Signal verstärken? Oder Frequenz leicht absenken?
Naja, genau das machst du ja mit der Reduktion auf PCI-E 2.0. Du halbierst die Frequenzen und änderst das 128/130 Bit Coding zu einem 8/10 Bit coding.

Es gibt die Vermutung, das bei PCI-E 3.0 die Gleichstromsequenzen für SB-E zu groß werden können im Extremfall, und dann der clock Lock verloren geht.

Im Prinzip ist es aber egal was genau passiert. Du kannst dagegen nichts machen, dass das Signalauge zu geht, außer halt PCI-E 3.0 nicht zu verwenden.

StefanV
2014-03-03, 09:54:54
Du kannst dagegen nichts machen, dass das Signalauge zu geht, außer halt PCI-E 3.0 nicht zu verwenden.
Und genau DAS ist ja der Punkt, den Hübie irgendwie nicht so ganz einsehen möchte, dass es mal rein gar keine Möglichkeit gibt, an dem aktuellen Zustand (der ist: PCie 3.0 tut nix, PCie 2.0 aber schon) was zu ändern, ohne Hardware Komponenten zu tauschen. In welche Richtugn auch immer...

Wenn wirklich PCie 3.0 sein muss, dann bleibt nix anderes übrig als 'ne neue CPU zu kaufen...
Alles andere ist einfach nicht zielführend und maximal Pseudostabil...

Dural
2014-03-03, 09:59:16
also mit meinem 3820/X79 hatte ich noch nie PCI-E Probleme, weder mit GK104 noch jetzt mit dem GK110.
einfach den Patch von NV drauf und man hat PCI-E 3.0

Hübie
2014-03-03, 10:28:06
Noch mal: Der Patch ändert nur das in der registry was ich auch einstelle. Single GPU geht bei mir auch mit 3.0.

Und für dich StefanV: erkläre mir warum es mit X anderen Konfigurationen geht (z.B.GK110B, Tahiti) und es meistens nur mit mGPU Komplikationen gibt. Deutet für mich auch aufs BIOS/EFI hin.

@skysnake: Okay das hat er dann wohl nicht ;D

StefanV
2014-03-03, 10:35:08
Und für dich StefanV: erkläre mir warum es mit X anderen Konfigurationen geht (z.B.GK110B, Tahiti) und es meistens nur mit mGPU Komplikationen gibt. Deutet für mich auch aufs BIOS/EFI hin.
Schau dir mal 'nen Diefoto von 'nem GK104 und GK110 an. Dass Tahiti ja ganz anders aufgebaut ist, braucht man wohl nicht sagen...

Aber das ganze hat Skysnake doch schon recht gut erklärt: PCIe 3.0 ist bei Sandy-E recht grenzwertig implementiert und funzt bei einigen Konfigurationen vielleicht, vielleicht aber auch nicht.

Dazu können noch die allgemeinen Fertigungsschwankungen kommen, die eben dazu führen, dass du selbst bei zwei (vermeintlich) gleichen Chips die Situation hast, dass es mit GK104 Karte 1 ohne Probleme geht, mit GK104 Karte 2 aber das ist, was du hier beschrieben hast - passiert halt, wenn etwas grenzwertig implementiert wurde oder außerhalb der Spezifikation betrieben wurde (sowas wie 89MHz AGP Speed, kann gutgehen, muss es aber nicht).

Was ich hier absolut nicht verstehe ist, dass du nicht verstehst bzw verstehen willst, dass es mit deiner vorhandenen Hardware schlicht nicht lauffähig ist und es keine Möglichkeit gibt, das zum Laufne zu bringen - ohne Komponenten auszutauschen!

Es kann sein, dass schon ein neues Board dazu führt, dass PCIe 3.0 bei dir funktionieren kann, muss es aber nicht.
Es kann sein, dass es auch mit einer anderen GK104 funktionieren kann, muss es aber nicht.
Es wird aber mit einem Ivy-E und deiner aktuellen Karte funktionieren...
Es kann auch sein, dass das ganze mit 'nem GK110B funktionieren kann, muss es aber nicht.
Es kann sein, dass es auch mit 'ner Tahiti funktioniert, muss es ber nicht...


Es gibt halt hin und wieder die Situation, dass du 50 mal die gleichen Komponenten verbaust - und einmal gehts dann nicht. Nimmst du dann irgendwas von einem anderen Haufen (also tauscht eine vermeintlich gleiche Komponente gegen eine vermeintlich gleiche Komponente aus), funktioniert alles auf einmal. Logik? Ähh....
Aber so ists halt im PC Bereich, da spielen halt auch ab und an mal irgendwelche Toleranzen mit rein. Wenn sich dann die richtigen treffen, gibts halt mal Stunk...

Hübie
2014-03-03, 10:42:22
Weil man Regel- und Steuerchips einstellen kann? Ist doch logisch. Nur ist halt nichts davon im EFI zugänglich. Dachte das is klar soweit.
Edit: Und warum zum Henker schreibst du wenn du nichts weiter beitragen kannst? Weder technisch noch inhaltlich.

ndrs
2014-03-03, 11:35:01
Hast du mal Single-GPU im zweiten Slot probiert? Oder mal die Reihenfolge der GPUs getauscht? Oder beides?

Edit:
Weil man Regel- und Steuerchips einstellen kann? Ist doch logisch.

Wenn es elektrisch einfach nicht passt, kann man da auch mit irgendwelchen Reglern nichts ändern.

Edit: Und warum zum Henker schreibst du wenn du nichts weiter beitragen kannst? Weder technisch noch inhaltlich.
Weil er (höchstwahrscheinlich) recht hat. Und jemandem das Wort verbieten ist auch nicht die feine Art.

Hübie
2014-03-03, 16:03:52
Nein das hab ich noch nicht getestet. Die Idee kam mir aber ..na ja.. durch Zeitmangel entstandene Faulheit ;D Ich verbiete niemanden den Mund. Aber einfach schreiben dass ich AMD kaufen soll passt mir nicht. Es gibt ja durchaus GK104 SLi & SNB-E mit PCIE 3.0. Also ist diese Empfehlung für mich Schrott wert. Ich schreibe wie gesagt Asrock an. Vielleicht heute Abend...

Knuddelbearli
2014-03-03, 16:17:05
Naja wenn jemand PhysiX will aber umbedingt AMD will kann man ihm auch nicht helfen außer zu sagen er soll eben trotzdem NV kaufen wenn er unbedingt PhysiX will

Jasch
2014-03-03, 16:36:30
Naja wenn jemand PhysiX will aber umbedingt AMD will kann man ihm auch nicht helfen außer zu sagen er soll eben trotzdem NV kaufen wenn er unbedingt PhysiX will

Falsch ;-)

Sorry für OT, geht natürlich nur als mix (amd + nv karte) mit gefrickel.

Schrotti
2014-03-03, 16:46:21
Und die wichtigste Frage lautet, warum kauft man Sandy-E wenn es Ivy-E gibt.

Knuddelbearli
2014-03-03, 16:47:06
ok stimmt auch wieder dann eben mantle :P und kommt jetzt nicht mit 2x 290X und 2 mal 780 TI im selben PC wie kürzlich in der PCGH ^^

Hübie
2014-03-03, 17:01:29
Oh man. Muss ich meine Kaufentscheidung jetzt rechtfertigen Schrott? Blätter eine oder zwei Seiten vor dann hast du die Antwort. :rolleyes:

Mir wurde gesteckt das u.U. meine X-Fi das Problem sein könnte. Ich bau die also mal aus. Schätze ich hab nachher Zeit.

Edit: Soundkarte is raus. Ging jetzt auch ne Weile. Aber so richtig is das noch nicht: Obwohl ich PCIE-Link-ASPM ausgeschaltet habe (Windows Energieoptionen) fällt der Modus auf x16 2.0 nach einer kurzen Zeit zurück. Im renderer von GPU-Z konstant 3.0/3.0. In Borderlands 2 erst 3.0/3.0 dann nach 2-3 Minuten 3.0/2.0. Battlefield 4 hat mit dem fallback offenbar Probleme und kackt ab. Leider kann ich auch hier wieder nix im EFI einstellen. Nur GEN1/2/3 und das wars. Im nVidia-Treiber ist das auch abgestellt, aber wer weiß ob das überhaupt ne Wirkung hat. Asrock scheint echt nur für Einsteiger zu sein. :|

Skysnake
2014-03-04, 19:12:25
Das ist auch durchaus logisch.

Mit weniger Erweiterungskarten sinkt die Last auf den SerDes. Zudem kommt es zu weniger Crosstalk auf den Leitungen.

Coda
2014-03-04, 19:38:57
Das sind doch Point-To-Point-Links, warum sollte das ein Problem sein?

Skysnake
2014-03-04, 20:15:19
Weil wir in einer "analogen" und nicht digitalen Welt leben? :ugly:

Crosstalk hast du immer bei Leitungen, die sich gegenseitig "sehen". Bei AC also quasi immer, da du das elektromagnetische Feld nicht wirklich komplett abschirmen kannst.

Und im Bereich des Sockels liegen die Leitungen recht nah. Da kannste keine effektive Schirmung mehr machen. Danach kommt ja aber noch das Package, was zwar zur Platine hin wieder Schirmung ermöglicht, aber nicht mehr im Bereich des Dies.

Auf dem DIE gehts dann grad weiter. Da haste ja Analog und Digitalschaltungen. Je mehr SerDes in Betrieb sind, desto stärker wird das Substratrauschen, das Rauschen auf der Powerline, das Rauschen auf Ground, usw usw usw.

Hübie
2014-03-04, 20:31:18
Aber das ließe sich a) mit entsprechender Bestückung reduzieren und b) mit entsprechender Logik einstellen. Beides kann das Board nicht per se.
Ich werde mir wohl ein anderes kaufen. Mal sehen. Vielleicht lass ich das auch einfach wie es ist ;D Hab eh kaum noch Zeit für den Scheiß.

Skysnake
2014-03-04, 20:39:49
Was willste daran einstellen?

Willste etwa Metal-layers ins PC packen per Software? oder willste in die CPU zusätzliche Guardrings einbauen? :rolleyes:

Das ist halt einfach wies ist. Deal with it, könnte man da auch sagen.

Die Boards sind entsprechend den Specs designt. Da geben sich alle Boards nicht wirklich was. Mit IvyBridge läuft es ja dann auch.

Coda
2014-03-04, 20:55:19
Weil wir in einer "analogen" und nicht digitalen Welt leben? :ugly:
Alles was nicht entweder 1 und 0 ist blende ich aus. Das habe ich schon an der Uni so gehalten ;)

HOT
2014-03-04, 21:13:36
Also meine HD7950 läuft auf meinem X79 Extreme4 schon seit ich die Karte hab mit PCIe3 bombenstabil ;).

Hübie
2014-03-04, 21:16:50
Also ich weiß von meinem vorherigen Board dass man z.B. die Dämpfung regeln kann. Auch die Taktung ließ sich dort seperat ändern. Da waren noch so einige Optionen (Latenzen und pi pa po...). Die hab ich mir aber nie genau angesehen da ich vorher einen 2500k hatte der von PCIE 3.0 etwa soviel versteht wie eine Kuh vom Fahrrad fahren ;)

Mein aktuelles Board hat mir irgendwie zuviel drin was automatisch gemacht wird und nicht abschaltbar ist. Sprich: Zu wenig Optionen werden dem User zur Verfügung gestellt.
Bei ASUS find ich das gut gelöst: Da gibt es den EZ-Mode (für B0b) und den advanced mode (für Spielkinder :naughty:) zwischen denen man nahtlos im EFI hin- und herwechseln kann.

Welche Spannung gilt dem PCIE-Controller? VTT oder VCSSA? Hab das irgendwie nicht deutlich herauslesen können.

Edit: DANKE HOT! JETZT WEIß ICH WIE ICH ES HINBEKOMME :facepalm: Genau wie manch anderer hast du es dank mir geschafft den postcounter zu erhöhen. Gratuliere. Ich mache gerne noch ein Thema zur Creative X-Fi auf wo du reinschreiben kannst dass es bei Schrotti bombenstabil läuft.

HOT
2014-03-04, 21:39:28
Jo cool ne?

HarryHirsch
2014-03-04, 21:44:46
Als ATiler kann man sich irgendwie gar nicht vorstellen warum PCIe3 nicht laufen sollte. ;D

Hübie
2014-03-04, 21:49:08
[ ] Ich habe nicht verstanden worum es geht.

Bitte setzt da euer Kreuz mit Edding :rolleyes: Wenn jetzt noch einer meint hier spammen zu müssen melde ich das mal damit hier gewischt wird.

StefanV
2014-03-05, 01:00:57
[ ] Ich habe nicht verstanden worum es geht.

Bitte setzt da euer Kreuz mit Edding :rolleyes: Wenn jetzt noch einer meint hier spammen zu müssen melde ich das mal damit hier gewischt wird.
Ist das Thema nicht, dass PCIe 3.0 mit deiner Hardwarekombination nicht funktioniert und du nicht einsehen willst, dass es schlicht nicht möglich ist, das so zu betreiben, wie du es gern hättest, weils schlicht nicht geht?!

Siehst du hier, außer dir natürlich, irgendjemanden, der hier auch nur ansatzweise geschrieben hat, dass es vielleicht gehen könnte?! Also ich sehe hier keinen.

Von daher:
Ich such schon mal mein Popcorn raus und freue mich auf die nächste Runde in diesem Thread, der durchaus ein gewisses Unterhaltungspotential beinhaltet....

S940
2014-03-05, 01:37:39
Ich such schon mal mein Popcorn raus und freue mich auf die nächste Runde in diesem Thread, der durchaus ein gewisses Unterhaltungspotential beinhaltet....Meine Waschmaschine hat ein besseres Programm ... ganz sicher kann man sich ja nie sein, ob die Wäsche sauber rauskommt, ein Restzweifel bleibt.

Hier dagegen, bei einem oftmals disktutierten CPU-Bug, der auch vom Hersteller bestätigt wurde und im offiziellen Downgrade auf PCIe2 endete, weiss man ganz sicher wie die es endet: Es geht nicht.

Von daher 0 Spannung.

StefanV
2014-03-05, 02:17:32
Hier dagegen, (....) , weiss man ganz sicher wie die es endet: Es geht nicht.
Es geht nicht?! sag doch sowas nicht!!111
Das ist doch der Punkt, in diesem Thread, darum gehts seit Anfang an, eben dass es nicht geht, mit der aktuellen Zusammenstellung...


Also halten wir noch einmal fest:

Mit einem Sandy-E und den GK104, ist der Betrieb mit PCIe 3.0 schlicht nicht möglich.
Es gibt keinen Fix, nix, was man dagegen tun kann, außer die CPU (und/oder Grafikkarten) zu entsorgen...

Hübie
2014-03-05, 02:43:19
http://www.abload.de/thumb/f7rru.jpg (http://www.abload.de/image.php?img=f7rru.jpg)

So. Ende. Besonders du StefanV darfst jetzt raten wie ich das gemacht habe :D Jedenfalls gehts DOCH. Da kannst du noch so fett in rot schreiben.

Loeschzwerg
2014-03-05, 07:23:29
Die Spannungen leicht verändert?

Also mich interessiert es, denn ich stehe vor einer Wahl wo ich verdammt billig an einen Sandy Bridge EN mit offenem Multi kommen würde.

Skysnake
2014-03-05, 08:40:00
http://www.abload.de/thumb/f7rru.jpg (http://www.abload.de/image.php?img=f7rru.jpg)

So. Ende. Besonders du StefanV darfst jetzt raten wie ich das gemacht habe :D Jedenfalls gehts DOCH. Da kannst du noch so fett in rot schreiben.
Und ist es auch stabil?

Laeuft es auch wirklich mit PCI-E 3.0? oder sind eine menge Fehler bei der Uebertragung dabei, was die Bandbreite massiv drueckt?

Kannst dir ja mal die Testbench von mir runter laden, da ist nen PCI-E Speedtest mit drin.

Hübie
2014-03-05, 16:21:41
Wo find ich das skysnake? CUDA-Z sagt ~17 GB/s.
@Loeschzwerg: BCLK auf 99 umd VCCSA auf 1.1 Volt. Ging aber nur ohne die X-Fi. Also befriedigend ist das nicht. Obwohl mich die Soundkarte eh nervt (Win 8.1 bugs).

Loeschzwerg
2014-03-05, 16:35:07
Ok, also wird das Problem nur abgemildert. Es ist ein Anfang würde ich sagen und man kann damit leben.

Hau die X-Fi zum Teufel und verlege den Sound nach extern, also z.B. ne Asus Xonar U7 (oder was von Creative wenn es sein muss ^^).

Die Testsuite hätte ich auch gerne.

kruemelmonster
2014-03-05, 17:33:01
Hab mal Skysnakes Benchsuite zusammen mit weiteren Bandbreitentestern in ein Archiv gepackt:

https://mega.co.nz/#!tV1ChT6b!BCR3oVVwbaUOopScjDwoRwp3z2QUvU6imn2x_RTpd6g

...aber fragt nicht nach Dokumentation, mehr hab ich auch nicht.
Man musste paar bestimmte Taste drücken, aber wann und welche...weiß der Fuchs bzw die Schlange. :wink:

eratte
2014-03-05, 17:39:56
Auch wenn es wen enttäuscht aber eine Gainward GTX680 (GK104) läuft bei mir seid ich sie habe mit einem i7 3930k ohne Probleme zu erst in einem Asus nun in 2er Reihe in einem AsRock im PCIe 3.0 Modus. Gekauft habe ich sie mir weil die HD7970 vorher auf der LGA2011 Plattform nur Probleme machte egal ob auf PCIe 1.x 2.0 oder 3.0

PS.: SLI habe ich auch mal ausprobiert mit einer 2. aber die dann doch nicht genommen sondern lieber auf GTX780 aufgerüstet. Beim kurzen SLI Ausflug tat es auch alles so wie es sollte.

Hübie
2014-03-05, 18:38:53
Nein das kann nicht sein eratte. Dann wiedersprichst du doch StefanV! :rolleyes:

@kruemelmonster: Danke aber das startet nicht. Es öffnet sich für den Bruchteil einer Sekunde ein (DOS-) Fenster welches dann sofort wieder zu geht. Hab probiert das zu shotten:

Man sieht es noch ganz leicht ;D

http://abload.de/thumb/benchsuitezisoh.png (http://abload.de/image.php?img=benchsuitezisoh.png)

Ich hatte noch Version 0.1c oder so auf Rechner aber die startet nicht. Da steht nur dass er BMP_0.bmp nicht öffnen kann. Obwohl vorhanden...:uconf3:

Edit:

Zwei Ergebnisse ;D

http://abload.de/img/benchpcieriusm.png (http://abload.de/image.php?img=benchpcieriusm.png)

Letzter Test ist aus dem CUDA-SDK.


Ok, also wird das Problem nur abgemildert. Es ist ein Anfang würde ich sagen und man kann damit leben.

Hau die X-Fi zum Teufel und verlege den Sound nach extern, also z.B. ne Asus Xonar U7 (oder was von Creative wenn es sein muss ^^).

Die Testsuite hätte ich auch gerne.

Ich will eigentlich gar nix mehr von Creative. Bin fertig mit denen. Bei der Audigy wars damals das selbe Spielchen. Karte gut, Treiber scheiße. Jetzt ebenso. Karte gut, Treiber scheiße. Ich steck denen doch net alle zwei, drei Jahre Geld in' Arsch weil die nicht fähig sind Treiber zu programmieren.

Skysnake
2014-03-05, 18:52:54
Lad mal die Version (http://extreme.pcgameshardware.de/programmierung-und-webdesign/209639-opengl-bmp-viewer-inkl-opencl-morpher-5.html#post5114200) runter. Die funktioniert dann auch mit mehreren GPUs.

Ist ganz interessant, was man da als Ergebnisse mit mehreren GPUs bekommt. Mein S1366 kann z.B. nicht zwei 16x PCI-E 2.0 Slots mit voller Bandbreite bedienen. Sobald man nen zweiten 16xSlot voll auslasten will, geht die Bandbreite runter.

Leider habe ich keine nVidia GPU zum Testen -.-

Ansonsten wäre das Softwarepacket auch deutlich weiter entwickelt...

kruemelmonster
2014-03-05, 19:12:24
@Hübie-WTF?:

bandwidthTest.exe with mandatory dll files from Nvidia CUDA SDK and toolkit.
This program is used to check the host to device (PCIe downstream), the device to host (PCIe upstream) and the device to device (VRAM) bandwidth of CUDA enabled products from Nvidia.


@Skysnake:

Dein Benchmark lief früher mal korrekt bei mir durch, mittlerweile bekomm ich auch mit der neueren Version von PCGH nur folgende Fehlermeldung:

Bitte geben Sie die Nummer der GPU devices an, das Sie verwenden wollen
Es sind Werte zwischen 0 und 0 m÷glich
0
Fill clDevicebuffer with new image data
Devicebuffer filled with new image data
#############
INIT OpenGL
#############
OpenGL INIT finished
GLUT: Warning in Skysnakes MGPU-Benchsuite V0.1.exe: glutOverlayDisplayFunc: window has no overlay established

Das Bild wird weiterhin angezeigt, nur passiert nichts mehr. Schließe ich das Bildfenster beendet sich auch das Terminalprogramm und umgekehrt.
IHV ist auch wurscht, sowohl eine HD 6770 als auch eine GTX 670 verhalten sich gleich.

Hübie
2014-03-05, 19:12:51
Also die read / write gehen. Wenn ich aber mapbuffer wähle läuft das kurz und am Ende kommt "Error: -6". Was heißt das? :|

http://abload.de/img/error660sbl.png (http://abload.de/image.php?img=error660sbl.png)

Skysnake
2014-03-05, 19:37:25
@Hübie-WTF?:




@Skysnake:

Dein Benchmark lief früher mal korrekt bei mir durch, mittlerweile bekomm ich auch mit der neueren Version von PCGH nur folgende Fehlermeldung:

Bitte geben Sie die Nummer der GPU devices an, das Sie verwenden wollen
Es sind Werte zwischen 0 und 0 m÷glich
0
Fill clDevicebuffer with new image data
Devicebuffer filled with new image data
#############
INIT OpenGL
#############
OpenGL INIT finished
GLUT: Warning in Skysnakes MGPU-Benchsuite V0.1.exe: glutOverlayDisplayFunc: window has no overlay established

Das Bild wird weiterhin angezeigt, nur passiert nichts mehr. Schließe ich das Bildfenster beendet sich auch das Terminalprogramm und umgekehrt.
IHV ist auch wurscht, sowohl eine HD 6770 als auch eine GTX 670 verhalten sich gleich.
Ja, ich hab an sich nen Overlay drin, was ermöglichen sollte, den Framecounter extra zu rendern. Das funktioniert aber nur mit den Quadro Karten bei nVidia und den FirePro bei AMD :mad: Die ... haben das beide bei den Konsumerkarten einfach ausgeknippst... :down:

Mit neueren Treibern gibts da wohl probleme. Muss ich nochmal in den Source-Code reinschauen. Aber danke für den Hinweis :up:

Also die read / write gehen. Wenn ich aber mapbuffer wähle läuft das kurz und am Ende kommt "Error: -6". Was heißt das? :|

http://abload.de/img/error660sbl.png (http://abload.de/image.php?img=error660sbl.png)
Ich schau mal gleich nach, was der Error bedeutet.

EDIT:
Ok, der Fehler bedeutet folgendes:

#define CL_OUT_OF_HOST_MEMORY -6

Kann sein, das nVidia das etwas anders handhabt als AMD mit dem Mapping. nVidia mappt wohl jedes mal neu, weshalb dir der Speicher schlicht ausgeht ;D Musste mal drauf schauen. Könnte natürlich auch ein Bug im nVidia Treiber sein, dass der RAM nicht schnell genug frei gegeben wird, weil darauf spekuliert wird, das man gleich wieder etwas mapped.

Ich schau mal, ob ich die beiden Probleme gefixed bekomme.

Cubitus
2014-03-05, 20:03:52
Es geht nicht?! sag doch sowas nicht!!111
Das ist doch der Punkt, in diesem Thread, darum gehts seit Anfang an, eben dass es nicht geht, mit der aktuellen Zusammenstellung...


Also halten wir noch einmal fest:
Mit einem Sandy-E und den GK104, ist der Betrieb mit PCIe 3.0 schlicht nicht möglich.[/size][/color]
Es gibt keinen Fix, nix, was man dagegen tun kann, außer die CPU (und/oder Grafikkarten) zu entsorgen...

HAHA

@Hübie

Ein Frevel!! Sag nix über ne Creative XIFI ey unter Win8 ey.. Halllo!? LAYER 8 Problem!! Und das hockt immer vor dem Bildschirm !!!!!
.....

Ansonsten: Glückwunsch :)

SCNR genug getrollt..

Loeschzwerg
2014-03-05, 20:18:41
Edit:

Zwei Ergebnisse ;D

http://abload.de/img/benchpcieriusm.png (http://abload.de/image.php?img=benchpcieriusm.png)

Letzter Test ist aus dem CUDA-SDK.


concBandwidthTest ist doch auch aus dem CUDA SDK :confused: Egal wie, die erreichten Werte passen soweit für PCIe 3.0, auch wenn bei dem Test nur ein Device gemessen wurde. Jetzt wäre natürlich interessant ob mit zwei Karten die Bandbreite auch noch passt.


Ich will eigentlich gar nix mehr von Creative. Bin fertig mit denen. Bei der Audigy wars damals das selbe Spielchen. Karte gut, Treiber scheiße. Jetzt ebenso. Karte gut, Treiber scheiße. Ich steck denen doch net alle zwei, drei Jahre Geld in' Arsch weil die nicht fähig sind Treiber zu programmieren.

Tjahaa, da bin ich völlig bei dir, vor Creative Produkten bin ich für die nächste Zeit auch geheilt :D

Hübie
2014-03-05, 21:53:21
Ja gut dann eben so rum ;D Kannte beide Tests schon. CUDA-Z sagt glaub ich 17 GB/s device-to device. Bin nicht mehr am Desktop um zu schauen.

@skysnake: Danke schon mal. Warum startet man eigentlich mit Taste C? R für run oder S für start fände ich logisch :tongue:

@cubitus: ;D Da hatte sich wohl jemand zu sehr rein gesteigert bzw. aus dem Fenster gelehnt.

Skysnake
2014-03-06, 07:01:35
"c" wegen "compute" ;)

Der Fehler mit dem Overlay sollte jetzt dann auch nicht mehr auftauchen. Die entsprechende Funktion ist auskommentiert.

Hübie, bei dir sollte es jetzt an sich auch funktionieren. Ich handhabe den Zurückgegebenen Pointer nun ordentlich ;D Also in ner Variable speichern, und dann auch selbst wieder freigeben, bevor ich den Buffer erneut mappen will. nVidia mapped das wohl stur einfach neu, und macht keinen Check, ob es eventuell schon gemapped wurde. AMD scheint das zu machen, um zu verhindern, das man sich den RAM vollknallt mit immer wieder gleich gemappten Speicher.

Wäre cool, wenn ihr das nochmal testen könntet, obs jetzt funktioniert. Ich lad die neue Version mal gleich hoch.

PS:
Hübie mit p kannste den Profilingmode einschalten, das ist dir bekannt oder? Dann bekommste nen schönen Graphen gezeichnet ;)

PPS:
Start mal das Programm für beide GPUs, und lass die Tests parallel laufen. Ich wäre WIRKLICH SEHR! daran interessiert, wie die einzelnen PCI-E Benchmarks sich verhalten, wenn man Sie gleichzeitig auf beiden Karten ausführt. Da kannste am Besten dann nen Bild von den Graphen hoch laden, die zeigen, wie sich der Graph der GPU mit durchlaufenden Test verhält, wenn man die zweite GPU hinzuschaltet.

Hübie
2014-03-06, 07:28:53
Okay mach ich. Aber weiß noch nicht wann. Langsam frage ich mich sowie so warum ich mir son schnellen PC gekauft habe. Zocke immer weniger X-D

Skysnake
2014-03-06, 07:35:17
Und da ist die neue Version: http://extreme.pcgameshardware.de/programmierung-und-webdesign/209639-opengl-bmp-viewer-inkl-opencl-morpher-6.html#post6218523

Tja, das frag ich mich teils auch, wobei ich teils wirklich die Leistung auch brauche. Gerade wenn ich wieder irgendwelche Auswertungen mit MB weise Daten mache, dauert es selbst mit dem i7-920 teils. Vor allem die 12GB RAM sind aber ein SEGEN! Jetzt läuft mir wirklich nie der RAM über. Mit 4GB ist mir das doch leider hin und wieder mal passiert. Die SSD ist natürlich auch eine echte Hilfe für Windows. Damit ist Windows endlich genau so schnell wie Linux auf ner 5+ Jahre alten HDD ;D

Jetzt brüchte ich nur noch ne Leitung mit 50MBit/s downstream und so 10 MBit/s upstream, dann könnte ich von daheim echt super arbeiten. So muss ich für manche Sachen doch noch ins Geschäft, weil die Software einfach nicht remote übers Internet nutzbar ist. Da ruckelst dich zu tode -.-

Hübie
2014-03-06, 07:55:25
Okay mach ich. Aber weiß noch nicht wann. Langsam frage ich mich sowie so warum ich mir son schnellen PC gekauft habe. Zocke immer weniger x-D

Edit: ↑↑↑Also jetzt spinnt das nicht-smart phone total. Ich hatte einen völlig anderen Text geschrieben aber was solls. :eek:

Originaltext:
Ich hoffe dass ich während meines Studiums den Rechner bzw. die Leistung brauche. Sonst ist das totes Kapital ;D Kannst du dir kein Kabel ins Haus legen lassen? Für mich ist Kabel-TV und -Internet Pflicht bevor ich irgendwo einziehe :naughty: 100 MBit & Tel-Flat für 40€ ist glaub ich nicht zu toppen.

Wie gesagt teste ich die neue Version so schnell wie möglich und berichte. :up:

ndrs
2014-03-06, 10:15:09
Okay mach ich. Aber weiß noch nicht wann. Langsam frage ich mich sowie so warum ich mir son schnellen PC gekauft habe. Zocke immer weniger X-D
Wenn er dir zur Last wird, schick ich dir gern einen Paketaufkleber mit meiner Adresse drauf :D

Hübie
2014-03-06, 10:33:02
Hahahaa ;D Ich behalts im Hinterkopf... Aber im Ernst: Das "Upgrade" (so man es denn so nennen mag) war völlig anders geplant. Zufrieden bin ich jedenfalls nicht. Aber ich habe wieder einiges gelernt.
Was solls. Ich bin jetzt gerade am Desktop und teste gleich mal.

Edit:

http://abload.de/thumb/benchsuite1gikbx.png (http://abload.de/image.php?img=benchsuite1gikbx.png)

Device 0 steht auf read mapped buffer und Device 1 write mapped buffer.

Edit2: Noch als Anmerkung: Zur Problemeingrenzung hatte ich BCLK/PCIE=95 MHz, Multi=31, DDR3=1012 eingestellt.

http://abload.de/thumb/pcsettings7skb1.png (http://abload.de/image.php?img=pcsettings7skb1.png)

Teste nachher mal mit stock-freq

Loeschzwerg
2014-03-06, 11:30:41
Öh ja, passt hätte ich gesagt. Vielleicht hat das System unter default Werten nur irgendeine Taktwall oder das Timing haut nicht hin. Gib mal spaßeshalber etwas mehr BLCK :) (VCCSA würde ich auf 1.1V belassen)

Hübie
2014-03-06, 12:11:01
Ja nächster Schritt ist halt alles auf Standard nur VCCSA auf 1.1 Volt. Test läuft jetzt seit vorhin kontinuierlich.

Edit: Also ich lasse da jeweils einmal read mapped buffer und einmal write mapped buffer laufen:

http://abload.de/thumb/benchsuite2wzq8n.png (http://abload.de/image.php?img=benchsuite2wzq8n.png)

Zieht etwa ~370 Watt aus der Dose. Furmark & Prim95 landen bei 888 peak bzw. 855 konstant. :eek: Und das bei einem 800-Watt-Netzteil :rolleyes: ;D

Skysnake
2014-03-06, 17:14:54
Kannst du mir grad mal sagen, was du da gerade machen willst :confused:

Ansonsten, nicht über den Stromverbrauch wundern an der Stelle. Das ist ja nur der PCI-E Test.

Wenn du nen Belastungstest machen willst, musste auf Heatblade, dan mit , oder . auf 400-500 Iterations hoch und die Fenster minimiere. ;)

Solange du das Bild siehst, geht zu viel Zeit fürs Rendern des Bildes drauf.

HarryHirsch
2014-03-06, 17:33:05
Ja nächster Schritt ist halt alles auf Standard nur VCCSA auf 1.1 Volt. Test läuft jetzt seit vorhin kontinuierlich.

Edit: Also ich lasse da jeweils einmal read mapped buffer und einmal write mapped buffer laufen:

http://abload.de/thumb/benchsuite2wzq8n.png (http://abload.de/image.php?img=benchsuite2wzq8n.png)

Zieht etwa ~370 Watt aus der Dose. Furmark & Prim95 landen bei 888 peak bzw. 855 konstant. :eek: Und das bei einem 800-Watt-Netzteil :rolleyes: ;D


Kann man irgendwie die VID vom VCSSA auslesen? Auf Auto wird das ja von der CPU festgelegt.

kruemelmonster
2014-03-06, 17:33:58
@Skysnake:

Ne kleine readme.txt mit allen möglichen Befehlen und zwei, drei dokumentierten Beispielsituationen wäre großartig. :) :winkmitzaunpfahl:

Skysnake
2014-03-06, 17:45:00
Schaumer mal ;)

Hübie
2014-03-06, 18:08:36
Kannst du mir grad mal sagen, was du da gerade machen willst :confused:

Ansonsten, nicht über den Stromverbrauch wundern an der Stelle. Das ist ja nur der PCI-E Test.

Wenn du nen Belastungstest machen willst, musste auf Heatblade, dan mit , oder . auf 400-500 Iterations hoch und die Fenster minimiere. ;)

Solange du das Bild siehst, geht zu viel Zeit fürs Rendern des Bildes drauf.

Öhm. Wolltest du nicht sehen wie das mit der PCIE-Bandbreite klappt? Oder hab ich was falsch verstanden? Einen Belastungstest im Sinne von Furmark wollte ich nicht machen.
Sonst sag mir noch mal für blonde was ich genau machen soll :freak:

Edit: Ach ja du wolltest einen graphen ;)
http://abload.de/img/benchsuite3u7i5k.png (http://abload.de/image.php?img=benchsuite3u7i5k.png)

Kann man irgendwie die VID vom VCSSA auslesen? Auf Auto wird das ja von der CPU festgelegt.

Ja das geht. Probier mal HWInfo oder HWMonitor. Ist bei mir mit VIN4 gekennzeichnet. Der bei mir verbaute CHL8328 kann auch die VTT auslesen (indirekt über den Ausgang der VRMs).
VCSSA ist eigentlich irgendwas um die 0.985 Volt. VTT waren afaik 1.050 Volt.

Hübie
2014-04-26, 17:41:38
So nachdem ich nun wieder auf ein ASUS-Board zurück bin geht alles out of the box. Auf dem P9X79 Pro ist ein Repeater verbaut. Glaube CHiL war das. Unwichtig ;D
Wer billig kauft, kauft zweimal.

4Fighting
2014-04-26, 19:26:12
So nachdem ich nun wieder auf ein ASUS-Board zurück bin geht alles out of the box. Auf dem P9X79 Pro ist ein Repeater verbaut. Glaube CHiL war das. Unwichtig ;D
Wer billig kauft, kauft zweimal.

Meinst Du einen PLX Switch? Der ist zumindest nicht verbaut auf dem Asus

Hauptsache es geht nun;)

Hast mal gebencht vorher/nacher? :D

Hübie
2014-04-26, 22:01:18
Nein den meinte ich nicht ;)
Benchmark ist jeweils gleich. Das ASUS braucht im Leerlauf weniger Energie wenn EPU aktiv ist als dass Asrock aber sonst... Auf dem ASUS geht aber wie gesagt der RAM ohne große Tüftelei auf 2400 (XMP) und halt PCIE 3.0 ohne Fummelei. Bessere Lüftersteuerung und besseres Layout sind weitere Pluspunkte ggü. des Extreme 6 von Asrock.

Darkman.X
2014-04-26, 22:36:05
Was bedeutet den ohne Fummelei? Also out of the box PCIe 3.0 aktiv, ohne Registry-Tricks oder das nVidia-Tool?

Welche Board-Version hast du denn? Ich habe auch das P9X79 Pro, ich habe 1.00 (oder 1.xx, weiß nicht mehr genau, auf jeden Fall eines der ersten Boards) und ich kann PCIe 3.0 nur mit dem nVidia-Tool aktivieren. Ich habe natürlich auch das aktuellste BIOS installiert.

Oder hast du deine Windows-Installation beim Board-Wechsel ohne Neuinstallation mitgenommen und dort sich vielleicht noch Registry-Änderungen aktiv?

Ich kann mir schwer vorstellen, dass nur durch ein Board-Wechsel plötzlich PCIe 3.0 funktioniert. PCIe 3.0 wird doch auch wegen der SB-E-CPU nicht aktiviert.

Hübie
2014-04-27, 00:42:20
Hättest du gelesen würden sich alle Fragen klären ... Kurzform: Beim Asrock musste ich Spannungen erhöhen und BCLK etwas absenken. Beim ASUS hab ich nichts eingestellt und es ging auf anhieb. Dass man es natürlich immer mit dem nVidia-Tool aktivieren muss is irgendwie klar bei einer SB-E-CPU ;);)

Edit: Eigentlich kann man auch einfach manuell RMPCIELINKMODE auf 4 setzen und gut is. Mit tool gehts halt komfortabler.

Skysnake
2014-04-27, 14:26:36
Wobei es mit einem anderen Board des selben Modells auch bei ASUS wieder nicht gehen kann ohne Anpassungen.

Das ist ja eben der Springende Punkt. Man kann sich da auf rein gar nichts verlassen.

Hübie
2014-04-27, 19:12:41
Ich habe auch mit allen Herstellern Kontakt aufgenommen und irgendwie hat der eine auf den anderen verwiesen ;D
De facto ists halt so dass am meisten vom Board abhängt. nVidias GK104-425-A2 hat wohl bugfixing beim PCIE-Controller erhalten. SNB mit dem C2-Stepping ebenso. Dennoch braucht man Signalverstärker auf halben Wege. Was genau bei IBE geändert wurde damit es auch ohne Repeater geht weiß ich jedoch nicht.

Lolzz63
2014-05-11, 14:16:39
Mein Asus P9X79 (Revision 1.01), gepaart mit eine i7-4930K CPU (IvyBridge) lauft perfekt, meine Graka (EVGA GTX780 Hydro Copper) schaltet, unter gewisse % Last, auf PCIe 3.0 hoch, wird es denn ruhiger, gehst zurück bis zum PCIe 1.1, (unter Linux 64bit + Nvidia closed Source Treiber 337.19 Beta). Dauerhafte PCIe 3.0 betrieb erreicht man mit der Tool "/usr/bin/nvidia-settings", einfach PowerMizer auf "Prefer Maximum Performance" setzen, statt beim Default (Adaptiv oder Auto). Mann muss aber höhere Hitze + Stromkonsum des GK110 GPU und GDDR5 Speicher in kauf nehmen. Ob das Sinnvoll ist, trotz der sehr gute und schnelle Last-Automatismus, musst jeder selber entscheiden.

(Der Wakü Lösung von EVGA ist schlicht Genial, trotz 6 Stunden pausenlose Furmark, die Höchste gemessene Temperatur war nur 50°C ;-) ... )

Skysnake
2014-05-11, 19:19:34
IB(-E) hat kein PCI-E 3.0 Problem... Was du da machst ist sinnfrei Strom/Geld verbrennen

Lolzz63
2014-07-03, 13:45:22
Zweck des Ganze (gebe ich zu, bisl Übertriebene :freak: ... ) Test, war keineswegs für den PCI-E 3.0 an sich, aber sicherstellen das der Wakü zuverlässig arbeitet, auch für lange Zeit unter massive Last. Mit solche Sommertemperaturen vom 30 bis 40°C Täglich, kann sich jeder ausmalen, wie Heiss werden Grakas mit Luftkühlung. Und ich experimentiere seit lange Zeit mit CUDA und OpenCL, und manchmal mit Laufzeiten von mehrere Stunden. Und dass Kühlung ist, in solche Szenarien, Eminent Wichtig und muss gut mitspielen. So vermeide eine Hitzestau ins PC-Gehäuse, und, als netter Plus, ist auch extrem Leise ;D

MFG

Lolzz63

Schrotti
2014-07-23, 22:00:05
So nachdem ich nun wieder auf ein ASUS-Board zurück bin geht alles out of the box. Auf dem P9X79 Pro ist ein Repeater verbaut. Glaube CHiL war das. Unwichtig ;D
Wer billig kauft, kauft zweimal.

Danke für das Fazit.