Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 8. Januar 2016
Leonidas
2016-01-09, 10:14:05
Link zur News:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-januar-2016
Bei der "langfristige Aufgabe für AMD und nVidia" ist bzw. war intel schon viel weiter . . . und hat es gelassen: Larrabee (jetzt Xeon Phi)
Zum Echtzeit-Raytracing wurde u.a. im intel Lab an der Uni Saarland gearbeitet.
Infos findet man im Web.
Sollte man als Experte aber eigentlich drüber informiert sein und erwähnen.
z3ck3
2016-01-09, 16:56:17
Larrabee ist und war ein reines HPC Projekt. Darunter fällt auch Grafik die rein auf RayTracing setzt, also kein Hybrid Beschleuniger aus Raytracer und Rasterizer ist. Das sowas auf dem aktuellen Markt als Consumer Grafikkarte keine Chancen hat ist klar und war Intel sicherlich auch von Anfang an bewusst. Xeon Phi muss man also überhaupt nicht erwähnen, da es gar keine GPU im klassischen Sinn sein will, im Gegensatz zur PoverVR GPU (die allerdings im Desktop Markt keine Rolle spielt). Wenn man in Spielen endlich "echte" Reflektionen, Schatten und Transparenzen etc. haben will, dann ist es an NV und AMD dieses in Hardware, ähnlich wie PowerVR mit ihrer RTU, umzusetzen. Ich bezweifel nur das so etwas kommt, da einer der Beiden dafür als erstes teure Hardwareeinheiten bereitstellen müsste, die Anfangs keiner nutzen kann.
-|NKA|- Bibo1
2016-01-09, 18:54:18
Der link für "TVs: Plasma-Fernseher ausgestorben?" unter Forum News funktioniert nicht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=569951
AnarchX
2016-01-09, 19:37:54
Larrabee ist und war ein reines HPC Projekt. Darunter fällt auch Grafik die rein auf RayTracing setzt, also kein Hybrid Beschleuniger aus Raytracer und Rasterizer ist.
Larrabee hatte TMUs und ebenso war Rasterizing in Sofware geplant: https://software.intel.com/en-us/articles/rasterization-on-larrabee
Im Endeffekt war das Konzept nicht konkurrenzfähig.
Springender Punkt ist jedoch, daß mit einem solchen Ansatz der Übergang von der konventionellen Dreiecksberechnung hin zu RayTracing geleistet werden könnte – dem Spieleentwickler steht die Möglichkeit zu RayTracing zur Verfügung, aber der GR6500 rendert halt auch alle anderen Spiele auf Basis konventioneller Renderingverfahren.
Raytracing ist ebenso wie Rasterisierung sind Verfahren um eine dreidimensionale Szene 2-Dimensional (in der Regel auf einem Monitor) abzubilden.
In beiden Fällen wird die 3-Dimensionale Szene in der Regel durch "konventionelle Dreiecke" abgebildet.
Für beide Verfahren wären natürlich auch exotischere Modelle der 3D-Umgebung wie beispielsweise Voxel denkbar.
Ob Dreiecke verwendet werden hat auf jeden Fall nichts damit zu tun, welches Verfahren eingesetzt wird um diese auf eine 2D-Projektion zu transformieren.
Larrabee ist und war ein reines HPC Projekt. Darunter fällt auch Grafik die rein auf RayTracing setzt, also kein Hybrid Beschleuniger aus Raytracer und Rasterizer ist. Das sowas auf dem aktuellen Markt als Consumer Grafikkarte keine Chancen hat ist klar und war Intel sicherlich auch von Anfang an bewusst. Xeon Phi muss man also überhaupt nicht erwähnen, da es gar keine GPU im klassischen Sinn sein will, im Gegensatz zur PoverVR GPU (die allerdings im Desktop Markt keine Rolle spielt).
Quellen für derartige Behauptung?
Ich halte für den Anfang Kauf von Havok (trotz Iris inzwischen wieder verkauft, also recht offensichtlich im Zusammenhang mit Larrabee zu sehen) und Offset Software (definitiv in Zusammenhang mit Larrabee zu sehen) sowie als exemplarisches Zitat "Den einfach gestrickte Viel-Core-x86-Prozessor Larrabee will Intel laut auf dem IDF bekannt gewordenen Informationen auch auf Grafikkarten einsetzen." entgegen.
Wie man "Hybrid" definiert, ist nicht festgelegt.
z3ck3
2016-01-10, 16:43:34
Larabee hätte als reiner RT Beschleuniger funktioniert, und würde es auch jetzt, jedoch nicht um ein konventionelles Spiel zu beschleunigen das nicht auf RT ausgelegt ist. Für mich sah das lediglich danach aus als wenn Intel damit eine weitere Einsatzmöglichkeit von Larabee als Grafikkarte vorgesehen hat, nicht aber das das ihr Haupteinsatzgebiet war. Hätte Intel Larabee vorrangig als (Consumer) Karte geplant, dann wäre dort mindestens noch ein skaliertes "Intel GPU Irgendwas" verbaut worden und der Larrabee Chip selbst "lediglich" ein Coprozessor gewesen. Intel ist doch nicht so blöd und plant und baut eine RT Consumer Grafikarte die mit nicht einem einzigen Spiel auch nur ansatzweise performen würde. Für Spezialanwendungen aber durchaus denkbar.
Havok, bzw. Physik Beschleuniger, sind quasi ja ein HPC Einsatzgebiete, wenn auch bei Spielen recht anspruchslos. Aber das Intel Larrabee als Consumer Physik Beschleuniger vorgesehen hat, das bezweifel ich doch sehr.
AnarchX
2016-01-10, 18:02:01
Weder bestätigte Intel die durch entfleuchte Entwicklungsdokumente schon bekannten 16 In-Order-Cores von Larrabee, noch erklärte Otellini den ersten Einsatzzweck des neuen Chips genauer. Das erledigte später Pat Gelsinger in einem Roundtable-Gespräch: "Wenn man im Grafikgeschäft ist, liefert man auch Treiber für OpenGL und DirectX. Punkt."
http://www.golem.de/0709/54858.html
Man hatte diverse Pläne aber das Produkt hat weder von der Hardware noch der Software-Umsetzung wohl wirklich überzeugt.
Die Eckdaten wären wohl folgendermaßen gewesen: ~700mm²@45nm (2009!) - 300W TDP und die Leistung vielleicht maximal irgendwo auf HD 4770 Niveau ;D
Schlussendlich ist da mit Phi nach einigen Generationen noch ein recht brauchbares Produkt herausgekommen. Aber mit den wohl teilweise verschwendeten Ressourcen hätte man wohl die Gen-Architektur deutlich schneller weiterentwickeln können und auf deren Basis vielleicht dedizierte GPUs fertigen können.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.