Jump to content
Play3.de

Hunter93

Members
  • Content Count

    510
  • Joined

  • Last visited

Community Reputation

10 Good

2 Followers

About Hunter93

  • Rank
    Meisterzocker
  • Birthday September 3

Gamer's Life

  • PSN-ID
    Junge86
  1. 1,3 x CPU-Power 2.3x GPU-FLOPs 1.24 x Bandbreite http://www.eurogamer.net/articles/digitalfoundry-2016-sonys-plan-for-playstation-4k-neo-revealed Als Zwischenschritt zur NextGen finde ich das ganz angebracht.
  2. Seit wann hast ausgerechnet du eine so große Abneigung gegen Spekulation? Mal allgemein festgehalten: Zuerst mal ist DX12 für Xbox ein wahres Luftschloss, weil Version 12 (auch ganz offiziell) im Kern die Idee verfolgt, durch weniger Software-Abstraktion nach Vorbild eben von Spiele-Konsolen Leistung (auf PCs) frei zu schaufeln Neu eingeführte "console-level Efficiency" hilft der Konsole nichts mehr weiter, zumindest sollte das so sein. Wie man mittlerweile allerdings auch weiß, war die anfänglich bereitgestellte API-Lösung leistungstechnisch miserabel, da PC-Niveau, hat aber bereits kräftig aufgeholt. Wenn nicht schon geschehen, räumt DX12 in dem Bezug nochmal weiter auf und tut der Performance gut. Andere Hoffnungen ("+50%" im Hinblick auf die PC-Benchmarks) sind aber so ziemlich ohne jedes Fundament und reines Fanboy-Wunschdenken. Im Prinzip gibt es auch keinen wirklich Anlass mit Einführung von DX12 von einer besonders guten API auf Xbox auszugehen (noch andersherum). Möglich das du das von mir hast? Ich hab das öfter mal als Kuriosität hervorgehoben und bin mal selber draufgestoßen. Grundsätzlich gäbe es auch dafür mögliche Erklärungen (zwischenzeitlich doch mehr RAM freigegeben, es fehlt dedizierte Hardware um das speicherschonend abzuwickeln, etc.). Eine API ist dann aber doch etwas ganz Grundlegendes und bezweifle ziemlich, dass sowas mit Zeit & Geld nicht gut hinzukriegen ist.
  3. Der Diskussionsstand anhand der Datenblätter bleibt derselbe. An den Hardware ändert das alles nichts.
  4. Bei GCN (GPU-Architektur von PS4 und Xbox One) gibt es Command Prozessoren, die bestimmen was auf den Recheneinheiten der GPU läuft. Die werden unterteilt in zwei Arten: ACEs (für nicht-Grafiksachen auf der GPU = Compute = GPGPU) und solche Command-Prozessoren für Grafikangelegenheiten. Jeder dieser Command-Prozessoren verwaltet Warteschlangen an Befehlen (Queues = Contexts), die abwechselnd ausgeführt werden. Das ist alles. Über die ACEs wissen wir bereits bescheid: PS4: 8 ACEs je 8 Contexts = 64 Contexts XO: 2 ACEs je 8 Contexts = 16 Contexts Über die Grafik-Command-Prozessoren gab es ebenfalls schon etwas bei VGLeaks zu lesen (PS4 hatte 2). Die 2 Grafik-Command-Prozessoren der Xbox wurden bereits bei der HotChips-Präsentation von Microsoft bestätigt. In der Dokumentation zum geleakten SDK der Xbox ist nun jedenfalls von 8 Graphic Contexts und "multiple GPU command streams" die Rede (und das wusste Gamingbolt [eine Newswebsite] wohl nicht einzuordnen).
  5. Gamingbolt. Das fängt man am besten gar nicht an durchzulesen. Das ganze Zeug mit Command-Prozessoren ist Standard-GCN-Kram (bzw. bezieht sich, was den Compute-Teil anbetrifft auf die ACEs - Microsoft nennt die Queues im DF-Interview auch "Compute-Contexts"). "The GCN command processor is responsible for receiving high-level level API commands from the driver and mapping them onto the different processing pipelines. There are two main pipelines in GCN. The Asynchronous Compute Engines (ACE) are responsible for managing compute shaders, while a graphics command processor handles graphics shaders and fixed function hardware. Each ACE can handle a parallel stream of commands, and the graphics command processor can have a separate command stream for each shader type, creating an abundance of work to take advantage of GCN's multi-tasking." http://www.amd.com/Documents/GCN_Architecture_whitepaper.pdf
  6. Das zwar auch, aber darum ging es mir jetzt nicht direkt. Mit dem SDK und Visual Studio könntest du direkt selber Software für die Xbox schreiben (nur nicht darauf ausführen). Ziemlich interessant ist die zugehörige Dokumentation, weil da so ziemlich alles zur Xbox-Hardware steht, was es zu wissen gibt (bzw. was Microsoft, die Entwickler darüber wissen lässt). Wie die Konsole programmiert werden muss/soll, wie die Tools funktionieren und sogar ein paar Tutorials sind drin. Den NDA könnten die sich jetzt auch schenken Noch ein paar Bilder ... Btw eine Meldung, die unmittelbar mit dem XDK-Leak in Verbindung stand, ist der von Microsoft teilweise freigegebene siebte CPU-Kern (mind. 50 bis maximal 80 %), was hervorragend den teilweisen Performance-Vorteil der Xbox bei einigen Titeln in den letzten Monaten gegenüber PS4 erklären dürfte.
  7. Der Xbox-Thread ist geschlossen (und bleibt es?), deshalb bin ich mal so frei und poste den XDK-Leak von Ende Dezember hier: SDK Umfangreiche Dokumentation (neben der API unter anderem auch zur Hardware, usw. und deshalb sicher nicht ganz uninteressant) Das mit den 1080p ist ein Gerücht, das sich wacker hält ^^ Kennst du https://allestörungen.de/stoerung/playstation-network ?
  8. Mittlerweile auch bekannt: - Crytek UK wurde mitverkauf. - Das Crytek Studio in Austin verkleinert. - Die Entwicklung von "Hunt" wurde nach Frankfurt ausgelagert.
  9. Ich hoffe die Links gabs nicht schon mal ... 30/60 FPS-Vergleich: http://www.ign.com/videos/2014/07/28/the-last-of-us-remastered-lock-at-30-fps-graphics-comparison Neogaf-Photomode-Thread: http://www.neogaf.com/forum/showthread.php?t=863461 Und gleich mal ein paar nette Beispiele:
  10. Das meinte ich schon ;) Dann aber müsste man die Framerate miteinbeziehen: 1080i-vertikal @ 30 FPS: 960 * 1080 * 30 = 31 104 000 Pixel/s 1080i-vertikal @ 60 FPS: 960 * 1080 * 60 = 62 208 000 Pixel/s 720p @ 30 FPS: 1280 * 720 * 30 = 27 648 000 Pixel/s 720p @ 60 FPS: 1280 * 720 * 60 = 55 296 000 Pixel/s Also 1080i@60 > 720p@60 > 1080i@30 > 720p@30. HD-Ready spezifiert allerdings 720p @ 60 FPS genauso wie 720p @ 30 FPS. Deshalb macht die Betrachtung meiner Meinung nach kaum Sinn. Das mach ich jetzt wohl schon seit der Ankündigung nach Münzwurf
  11. 960*1080p wäre ein Spiel mit 960*1080 Pixeln Auflösung und progressive Ausgabe. Beides trifft auf den Shadow Falls Multiplayer nicht zu. Das knapp über HD-Ready macht meiner Meinung nach auch nicht viel Sinn: An statischer Auflösung ist 1080i (oder in dem Fall 1920i*1080) genauso über HD-Ready wie 1080p. Der Unterschied liegt in der temporalen Auflösung, vorausgesetzt die Framerate ist identisch. Dann wären 1080i @ 30 FPS wirklich nur knapp über 720p @ 30 FPS, aber ich denke das kannst du wohl kaum damit gemeint haben. Zumal das hier nicht einmal der Fall ist: 1080i @ 60 FPS haben dieselbe Bewegtbildinformation wie 1080p @ 30 FPS - mit dem Nachteil, dass Deinterlacing nie perfekt funktioniert, und mit dem Vorteil von einer höheren Refreshfrequenz. Wobei ein paar Frames auf der Strecke blieben, weil eben nicht nur Pixelfüllrate limitiert (waren wohl eher die Entscheidung zwischen 1080p @ + 30 FPS vs 1080i @ ~ 50 FPS).
  12. Der Multiplayer hat so viel wie 1920i * 1080. Ich hätte gedacht das sei geklärt? Die Notation ist improvisiert. Es sind schon nativ 1920 * 1080 Pixel, allerdings Halbbilder (interlaced) und zwar vertikal statt horizontal. Normales 1080i würden einen vollen Refresh in zwei 1920*540 Pixeln Bildern bedeuten. Bei Shadow Falls sind es dagegen Halbbilder mit 960*1080 Pixeln. http://www.neogaf.com/forum/showthread.php?t=778172
  13. Kennt ihr eigentlich den Konsolen-Screenshot-Thread aus Neogaf? Lohnt sich wirklich da regelmäßig reinzuschauen: http://www.neogaf.com/forum/showthread.php?t=716795 Speziell InFamous: http://www.neogaf.com/forum/showthread.php?t=803994
  14. era1Ne hat doch gegenteilige Aussagen von Entwicklern gepostet (deren Begründung auch durchaus Sinn ergibt). DirectX 12 adressiert nicht im Speziellen eine einfachere Programmierung oder die eSRAM-Problematik. Den Rest kann auch nur die Zeit zeigen. Vermutlich PR-Dudelei, aber eh egal. Das betrifft die Xbox One so oder so nicht (das darf man jedenfalls stark annehmen).
×
×
  • Create New...