Jump to content

Hunter93

Members
  • Content Count

    510
  • Joined

  • Last visited

Community Reputation

10 Good

2 Followers

About Hunter93

  • Rank
    Meisterzocker
  • Birthday September 3

Gamer's Life

  • PSN-ID
    Junge86
  1. 1,3 x CPU-Power 2.3x GPU-FLOPs 1.24 x Bandbreite http://www.eurogamer.net/articles/digitalfoundry-2016-sonys-plan-for-playstation-4k-neo-revealed Als Zwischenschritt zur NextGen finde ich das ganz angebracht.
  2. Seit wann hast ausgerechnet du eine so große Abneigung gegen Spekulation? Mal allgemein festgehalten: Zuerst mal ist DX12 für Xbox ein wahres Luftschloss, weil Version 12 (auch ganz offiziell) im Kern die Idee verfolgt, durch weniger Software-Abstraktion nach Vorbild eben von Spiele-Konsolen Leistung (auf PCs) frei zu schaufeln Neu eingeführte "console-level Efficiency" hilft der Konsole nichts mehr weiter, zumindest sollte das so sein. Wie man mittlerweile allerdings auch weiß, war die anfänglich bereitgestellte API-Lösung leistungstechnisch miserabel, da PC-Niveau, hat ab
  3. Der Diskussionsstand anhand der Datenblätter bleibt derselbe. An den Hardware ändert das alles nichts.
  4. Bei GCN (GPU-Architektur von PS4 und Xbox One) gibt es Command Prozessoren, die bestimmen was auf den Recheneinheiten der GPU läuft. Die werden unterteilt in zwei Arten: ACEs (für nicht-Grafiksachen auf der GPU = Compute = GPGPU) und solche Command-Prozessoren für Grafikangelegenheiten. Jeder dieser Command-Prozessoren verwaltet Warteschlangen an Befehlen (Queues = Contexts), die abwechselnd ausgeführt werden. Das ist alles. Über die ACEs wissen wir bereits bescheid: PS4: 8 ACEs je 8 Contexts = 64 Contexts XO: 2 ACEs je 8 Contexts = 16 Contexts Über die Grafik-Command-
  5. Gamingbolt. Das fängt man am besten gar nicht an durchzulesen. Das ganze Zeug mit Command-Prozessoren ist Standard-GCN-Kram (bzw. bezieht sich, was den Compute-Teil anbetrifft auf die ACEs - Microsoft nennt die Queues im DF-Interview auch "Compute-Contexts"). "The GCN command processor is responsible for receiving high-level level API commands from the driver and mapping them onto the different processing pipelines. There are two main pipelines in GCN. The Asynchronous Compute Engines (ACE) are responsible for managing compute shaders, while a graphics command processor handles graph
  6. Das zwar auch, aber darum ging es mir jetzt nicht direkt. Mit dem SDK und Visual Studio könntest du direkt selber Software für die Xbox schreiben (nur nicht darauf ausführen). Ziemlich interessant ist die zugehörige Dokumentation, weil da so ziemlich alles zur Xbox-Hardware steht, was es zu wissen gibt (bzw. was Microsoft, die Entwickler darüber wissen lässt). Wie die Konsole programmiert werden muss/soll, wie die Tools funktionieren und sogar ein paar Tutorials sind drin. Den NDA könnten die sich jetzt auch schenken Noch ein paar Bilder ... Btw eine Mel
  7. Der Xbox-Thread ist geschlossen (und bleibt es?), deshalb bin ich mal so frei und poste den XDK-Leak von Ende Dezember hier: SDK Umfangreiche Dokumentation (neben der API unter anderem auch zur Hardware, usw. und deshalb sicher nicht ganz uninteressant) Das mit den 1080p ist ein Gerücht, das sich wacker hält ^^ Kennst du https://allestörungen.de/stoerung/playstation-network ?
  8. Mittlerweile auch bekannt: - Crytek UK wurde mitverkauf. - Das Crytek Studio in Austin verkleinert. - Die Entwicklung von "Hunt" wurde nach Frankfurt ausgelagert.
  9. Ich hoffe die Links gabs nicht schon mal ... 30/60 FPS-Vergleich: http://www.ign.com/videos/2014/07/28/the-last-of-us-remastered-lock-at-30-fps-graphics-comparison Neogaf-Photomode-Thread: http://www.neogaf.com/forum/showthread.php?t=863461 Und gleich mal ein paar nette Beispiele:
  10. Das meinte ich schon ;) Dann aber müsste man die Framerate miteinbeziehen: 1080i-vertikal @ 30 FPS: 960 * 1080 * 30 = 31 104 000 Pixel/s 1080i-vertikal @ 60 FPS: 960 * 1080 * 60 = 62 208 000 Pixel/s 720p @ 30 FPS: 1280 * 720 * 30 = 27 648 000 Pixel/s 720p @ 60 FPS: 1280 * 720 * 60 = 55 296 000 Pixel/s Also 1080i@60 > 720p@60 > 1080i@30 > 720p@30. HD-Ready spezifiert allerdings 720p @ 60 FPS genauso wie 720p @ 30 FPS. Deshalb macht die Betrachtung meiner Meinung nach kaum Sinn. Das mach ich jetzt wohl schon seit der Ankündigung nach Münzwurf
  11. 960*1080p wäre ein Spiel mit 960*1080 Pixeln Auflösung und progressive Ausgabe. Beides trifft auf den Shadow Falls Multiplayer nicht zu. Das knapp über HD-Ready macht meiner Meinung nach auch nicht viel Sinn: An statischer Auflösung ist 1080i (oder in dem Fall 1920i*1080) genauso über HD-Ready wie 1080p. Der Unterschied liegt in der temporalen Auflösung, vorausgesetzt die Framerate ist identisch. Dann wären 1080i @ 30 FPS wirklich nur knapp über 720p @ 30 FPS, aber ich denke das kannst du wohl kaum damit gemeint haben. Zumal das hier nicht einmal der Fall ist: 1080i @ 60 FPS habe
  12. Der Multiplayer hat so viel wie 1920i * 1080. Ich hätte gedacht das sei geklärt? Die Notation ist improvisiert. Es sind schon nativ 1920 * 1080 Pixel, allerdings Halbbilder (interlaced) und zwar vertikal statt horizontal. Normales 1080i würden einen vollen Refresh in zwei 1920*540 Pixeln Bildern bedeuten. Bei Shadow Falls sind es dagegen Halbbilder mit 960*1080 Pixeln. http://www.neogaf.com/forum/showthread.php?t=778172
  13. Kennt ihr eigentlich den Konsolen-Screenshot-Thread aus Neogaf? Lohnt sich wirklich da regelmäßig reinzuschauen: http://www.neogaf.com/forum/showthread.php?t=716795 Speziell InFamous: http://www.neogaf.com/forum/showthread.php?t=803994
  14. era1Ne hat doch gegenteilige Aussagen von Entwicklern gepostet (deren Begründung auch durchaus Sinn ergibt). DirectX 12 adressiert nicht im Speziellen eine einfachere Programmierung oder die eSRAM-Problematik. Den Rest kann auch nur die Zeit zeigen. Vermutlich PR-Dudelei, aber eh egal. Das betrifft die Xbox One so oder so nicht (das darf man jedenfalls stark annehmen).
×
×
  • Create New...