Die beiden im letzten Jahr in den Handel gekommenen Konsolen PlayStation 4 und Xbox One basieren zwar auf einer vergleichbaren Hardware, doch hat die PlayStation 4 technisch die Nase vorne, was sich in den letzten Monaten in erster Linie bei den höheren Auflösungen wiederspiegelte. Lorne Lanning, der Mitbegründer von Oddworld Inhabitants, ist der Meinung, dass die Unterschiede mit der Zeit geringer ausfallen und irgendwann verschwinden werden.
„Also ich würde sagen, dass die Lücke vor einigen Monaten größer war. Ein Teil davon waren die Entwicklungssysteme“, so Lanning, der von einigen Entwicklern gehört hat, dass es bei der Xbox One gegenüber der PS4 doppelt so lange gedauert hat, die Assets auf die Konsole zu bringen. „Wir hören und sehen, dass sich die Leistungskurven annähern. Ich bin der Meinung, dass die Leute letztendlich beide Systeme voll ausreizen werden. Sie sind beide stark genug. Sie befinden sich in der Klasse, bei der man sich beim Basketball fragt, ob das nun TV oder ein Spiel ist“, so seine weiteren Worte.
Außerdem wurde betont, dass Microsoft die Entwickler-Tools sehr schnell verbessert, was dabei behilflich ist, die Leistungsunterschiede zu verringern. In ein paar Jahren sollen die 1080p demnach kein Problem mehr sein. Den kompletten Bericht lest ihr bei den Redakteuren von XboxAchievements.
Weitere Meldungen zu .
Diese News im PlayStation Forum diskutieren
(*) Bei Links zu Amazon, Media Markt, Saturn und einigen anderen Händlern handelt es sich in der Regel um Affiliate-Links. Bei einem Einkauf erhalten wir eine kleine Provision, mit der wir die kostenlos nutzbare Seite finanzieren können. Ihr habt dabei keine Nachteile.
Kommentare
Chris Lee
30. März 2014 um 17:56 UhrEs mag ja sein, dass beide Konsolen eine x86 Architektur verwenden, deswegen sollte man allerdings nicht annehmen, beide hätten keine größeren Reserven wie ihre Vorgänger.
Die Software-Architektur ist ähnlich des PCs, jedoch hardwareseitig schon sehr verschieden. Man bedenke den Einheitsspeicher beider Konsolen für GraKa und Rest (RAM+VRAM) und im Falle der PS4 die extrem schnelle Anbindung, die ein Streamen wie bei der PS2 denkbar werden lässt.
AutoNarr89
30. März 2014 um 18:02 UhrIch vermisse die Zeit wo zocken noch Spaß gemacht hat . 🙁
Buzz1991
30. März 2014 um 18:12 Uhr@Yolo:
1. War der Performance-Boost von GDDR5 darauf bezogen, dass es nicht die GPU ausbremst. Sie muss nicht auf langsamen DDR3-Speicher zurückgreifen. Man kann also das volle Potential ausschöpfen.
2. CPU und GPU befinden sich auf einem Halbleiter, es ist eine APU. Die CPU dient eher dazu Arbeit von der GPU zu nehmen und sich um Multitasking-Aufgaben zu kümmern. Theoretisch hätte man auch die CPU komplett weglassen können, so wie es auch Nintendo bei der WiiU macht. Die CPU kann noch so schwach sein, aber sie bremst nicht aus. Sie ist nur eine zusätzliche Einheit. Bei der PS3 und vielen PCs ist das was anderes. Da müssen Daten hin- und hergeschaufelt werden. Bei der PS4 nicht nötig, greifen alle auf einen gemeinsamen EINHEITLICHEN Speicherpool zu UND sind zudem noch auf einem Halbleiter (engl.: „Die“).
Ich bin so freundlich und hinterlasse einen Link.
Außerdem die wichtigste Stelle.
„Prozessor und Grafikkarte verschmelzen samt dem Speicher-Controller und weiteren Funktionseinheiten zu einem Chip, alle Teile davon können auf gemeinsame Ressourcen zugreifen und zusammen Berechnungen durchführen (etwa mit der „OpenCL“-Schnittstelle) – die ehemals strikte Trennung zwischen unterschiedlichen Komponenten findet nicht mehr statt. Am Ende steigen Leistung und Effizienz drastisch“
http://www.pcgameshardware.de/PlayStation-4-Konsolen-220102/Specials/Playstation-4-Entwickler-und-AMD-1067015/
Damit macht man zwar keinen Rechner mit 4 TFLOPS und mehr fertig, aber deutlich effektiver kann man damit arbeiten. In der 1. Generation von PS4-Spielen wird das freilich noch nicht sichtbar sein. Doch ist es erstaunlich, was Spiele wie inFamous: Second Son, Killzone: Shadow Fall und (auf Xbox One) RYSE: Son of Rome auf den Bildschirm zaubern.
Außerdem ist es durch den schnellen Speicher möglich, viele Objekte gleichzeitig darzustellen. Schau dir mal an, was bei inFamous: Second Son für Partikelberechnungen möglich sind. Das ist beeindruckend.
Hält man sich außerdem vor Augen, was ein Team wie Quantic Dream mit BEYOND: Two Souls zum Ende der PS3 noch aus der Konsole geholt hat, ist das Ende der Fahnenstange für die PS4 nicht absehbar.
Buzz1991
30. März 2014 um 18:16 UhrAchso, eines noch zum THEMA:
Oddworld ist ja nun wirklich keine grafische Meisterleistung und sollte auf der Xbox One ebenfalls in 1080p/60FPS möglich sein.
Viel mehr frage ich mich, wann Lorne Lanning endlich sein angekündigtes Spiel bringt. Seit der E3 wartet man darauf.
@Duffy1984:
Da wird kein Leistungsschub kommen, sondern man wird die Leistung besser umsetzen können. Die GPU bleibt bei 1,35 TFLOPS. Ich glaube auch nicht, dass die bishere API so schlecht war. DirectX12 wird kein Wunder sein.
Ich sehe eher für den PC bessere Chancen, dass dann wieder Spiele besser auf die jeweilige Hardware zugeschnitten werden können. Doch gibt’s irgendwie keinen guten Beweis, denn was bringt es Forza Motorsport 5 auf einem PC mit einer GTX Black Titan laufen zu lassen und dann zu sagen „Seht her, DirectX12 bringt wahre Performance Boosts“? Auf Basis der Xbox One Hardware wäre das spannend gewesen, ob sich etwas verändert.
Check008
30. März 2014 um 18:19 UhrErgibt garkein Sinn was der Indie Entwickler da erzählt. Natürlich wird auch die Xbone noch effizenter arbeiten in Zukunft gleiche gilt auch für die PS4. Fakt ist aber die PS4 Hardware ist nunmal leistungsstärker, diese wird nicht verschwinden. Die Xbone wird der PS4 immer hinterhinken. MS hats vermaselt bei der Hardware.
southpark1993
30. März 2014 um 18:19 Uhrps4 1080p 60fps und xo 900p 60fps,
Slashman
30. März 2014 um 19:29 Uhr@News:
Klar als ob man 40-87% GPU Leistung mit der Zeit weg macht… Ist ja nicht so das MS seine Xbox One eine bessere oder andere Architektur hat… nein sie ist einfach nur lahmer und begrenzter. Ich könnte jetzt wieder die Daten auflisten, aber jeder sollte wissen, das Sonys PS4 von der Xbox One weder erreicht noch eingeholt werden kann.
Ist so als ob einer sagt der VW Golf wird mit der Zeit einen Saleen S7 erreichen und sogar überholen mit der Zeit… Mit jedem gefahrenen Kilometer gewinnt der Golf an PS^^
@Warhammer:
Kommt jetzt wieder dein Crysis 3, CryEngine 3, Star Citizien vergleich. Am besten noch den Plasma TV von dir erwähnen dann ist alles komplett^^.
@Vangus:
Yolo zu sagen er gehöre nicht hier her… wow ist ja neu… Der kapiert es nicht und anscheinend bringt es nichts ihm was zu erklären. Er will die PS4 ja ständig mit High End 9999999€ PCs vergleichen^^ lass ihn doch ich finde ihn sehr unterhaltsam. Leider will ich meine Zeit nicht zu sehr mit Affen verschwenden.
@Schlammpudding:
Warhammer ohne Star Citizien, Crysis 3, CryEngine 3, Plasma TV und High End Super Mega Ultra PC… Echt jetzt wo lebst du. Er würde Tetris, Mario Land, Need for Speed, Pokemon und sogar Minecraft mit Star Citizien vergleichen. Alles andere Genres auf ganz anderen Systemen und alles andere Zielgruppen. Ne so weit kann er nicht denken.
@Buzz1991:
Ist ja witzig, das alles hatten wir schon, aber gib dir keine Mühe. Die Xbox Fanboys sind ebenso dumm wie die PC Fanboys. Sie wollen es nicht verstehen oder können es nicht. Für letzteres kann ich sie ja nicht verurteilen.
Viel witziger finde ich von Usern die meinen ESRAM sei die Wunderwaffe gegen die PS4. Das die PS4 zusätzlich 384 Shader, 16 ROPs und 32 TMUs hat (quasi ne ne ganze GPU) und das der Hauptram kein DDR3 sondern GDDR5 ist wird immer vergessen. Ich meine klar unter bestimmten Voraussetzungen ist der ESRAM etwas besser als der GDDR5 RAM, aber das sind wenige momente. Ist ja nicht so das es die Wunderwaffe ist.
Viele Entwickler meinen die Xbox One könnte bestenfalls in 900p PS4 1080p Grafik darstellen und auch nur wenn sie es lernen. Die großen Unterschiede werden immer da sein. Entweder in der Bildrate (Tomb Raider) oder in der Auflösung (MGS5 GZ, Call of Duty, Battlefield 4, Assassins Creed 4 und co).
@Check008:
Jep als ob die PS4 schon am Limit ist. Klar wenn man die PS4 Version nicht optimiert und nur die Xbox One Version Optimiert kommt das selbe raus. Jedoch wird nie und das ist Fakt, nie der Fall eintreten das die PS4 Grafik unterhalb der Xbox One liegt. Ist einfach unmöglich.
Yolo
30. März 2014 um 19:43 Uhr@Buzz1991
Zu 1. Das ist korrekt.
Zu 2. Deine Fantasien sind haarsträubend. Ich würde fast behaupten es ist eins der dümmsten Dinge die ich je gehört habe. Aber eigentlich ist die Sache eine klevere Idee. Wenn man es denn so umsetzen könnte. Das ist uns heute aber nicht möglich und ob es jemals soetwas geben wird wie du dir hier zusammen fantasierst, steht noch in der Sternen.
Richtig ist dass sich in einer APU CPU und GPU in einem Die befinden und auch direkt miteinander verbunden sind. Aber es ist nicht eine Prozessoreinheit die einfach nur beide Aufgaben erledigen kann.
Ich geb dir ein Bild dabei. Ist so eins der ersten die du auf Google findest wenn du nach APU suchst.
img.hexus.net/v2/cpu/amd/Trinity/slide2b.png
Links CPU mit seinen vier Hauptkomponenten, rechts GPU.
Früher hatten CPU’s auch Co-Prozessoren. Die findest du heute nicht mehr, dennoch können Prozessor-Kerne nicht das tun was die Co-Prozessoren getan haben. Diese befinden sich jetzt auch einfach nur innerhalb des Dies, anstatt außerhalb. Und das Gleiche hat man auch bei APU’s gemacht.
Auch die WiiU hat einen PowerPC-Prozessor, wenn ich es richtig im Kopf habe. Keine Lust jetzt zu googlen.
Und die CPU der PS4 führt sämtlichen Computing-Aufgaben aus, denn diese können von der GPU nicht abgearbeitet werden. Eigentlich kann ein System auf eine GPU verzichten, aber nicht auf eine CPU. Schon allein weil du glaubst dass das möglich wäre ist es abenteuerlich dass du „Auskünfte“ über IT-Themen gibst.
Eigentlich hatte ich dich so eingeschätzt dass du wenigstens über die geistigen Kapazitäten verfügst ein IT-System grundlegend zu verstehen. Da zweifele ich jetzt leider wieder dran.
Buzz1991
30. März 2014 um 20:19 Uhr@Yolo:
Keine Sorge. Ich habe von sowas auch nicht viel Ahnung.
Muss ich auch nicht, denn es interessiert mich wenig bzw. ist mir zu viel Fachchinesisch.
Zieh dich ruhig an einer falschen Aussage von mir auf.
Das juckt mich nicht, weil du zu 90% nicht die Wahrheit redest.
Da darf ich mir auch mal einen Fehler leisten.
Ich meinte gelesen zu haben, dass die WiiU auf eine CPU komplett verzichtet.
Hat mich auch gewundert, hab’s aber nicht weiter hinterfragt.
Ach ja, wie war das noch von dir? Du beleidigst nicht?
Das hier hört sich anders an.
„Eigentlich hatte ich dich so eingeschätzt dass du wenigstens über die geistigen Kapazitäten verfügst ein IT-System grundlegend zu verstehen.“
Die geistigen Kapazitäten hätte ich, aber ich fülle diese mit Wissen, welches ich häufiger benötige 🙂
Angenehmen Abend noch.
Saleen
30. März 2014 um 20:28 Uhraber ihr habt noch ein leben oder ? spricht hier alle von leistungen als seit ihr programmierer höchst persönlich .. zudem sind es hier konsolen keine heiligtümer oder götter die wegen ihrer zahlen/leistung verehrt werden .. meine expresso maschine schafft innerhalb von sek. mir cappuchino zu zaubern nur zur info 😉
Hunter93
30. März 2014 um 21:38 Uhr@Yolo:
Ein IT-Kapazität deinesgleichen sollte von GPGPU schon einmal gehört haben. Und ganz in diesem Sinne ist ein System ohne herkömmliche CPU so unmöglich auch gar nicht.
Cerberus755
30. März 2014 um 22:35 UhrMein neuer Toaster kann 4 Scheiben Toast auf einmal toasten.
Saleen
30. März 2014 um 22:47 Uhr@Cerberus755
phänomenal *.* … und das sage und schreibe innerhalb einer halben Minute 😀
dein Toaster hat mehr Leistung als meiner ;D
ne0r
30. März 2014 um 22:50 UhrDirect x12 plus tiled resources wird den esram voll ausreitzen! 6gb Rendering über 32mb! Googlet es mal! Die Konsolen werden der. Gleich auf sein!
Yolo
30. März 2014 um 22:51 UhrEine GPU ist ein Prozessor der nur bestimmte Aufgaben ausführen kann. Dafür wurde sie gebaut, um genau diese Aufgaben sehr schnell zu erledigen. Solange die nicht universeller werden, wird das niemals möglich sein. Eine CPU kann im Grunde alles berechnen. Fragt sich nur wie schnell.
Mittlerweile sind wir an einem Punkt, wo Cuda u. ä. auch noch andere Aufgaben übernimmt. Das ist wohl die populärste Form von GPGPU im Moment, PhysX basiert ja auch darauf. Aber auch wenn keine Grafik berechnet wird, so sind es vom Prinzip her die gleichen Operationen. Bis Shader wirklich so frei wie eine CPU programmiert werden können und ob das jemals der Fall sein wird, steht noch in den Sternen. Aber es ist wohl nicht davon auszugehen dass in Absehbarer Zeit eine GPU-Architektur erscheint die theoretisch den vollen Umfang einer CPU ausfüllen könnte.
Wie gesagt, ich habe nicht gesagt dass es niemals so weit sein könnte. Aber im Moment ist das noch nicht denkbar. So eine Technologie würde sich wohl auch eine ganze Weile vorher ankündigen.
Ich will das auch nicht madig reden. So eine Technologie könnte ein großer Innovationsmotor sein. Aber aktuell ist es eben kein Thema, oder zumindest nicht in dem Umfang.
@Buzz1991
Ich häng mich daran nicht auf. Soetwas erachte ich als äußerst unnötig. Ich freue mich jedes Mal wenn ich auf einen unbestreitbaren Fehler hingewiesen werde. Z. B. war ich vor kurzem noch dem Irrglauben erlegen dass die PS4 nur über USB 2.0 verfügen würde. Ich weiß nicht mehr wer es war, aber irgendjemand hat mich dahingehen berichtigt. Das hilft mir doch auch, damit tut man mir einen Gefallen.
Und was du als Beleidigung auffasst, ist eigentlich sogar mehr ein Kompliment, wenn auch sehr beißend. Ich dachte immer dass du im Grunde recht klever bist… nur als Kind mal in einen Großen Topf mit PR-Geblubber gefallen bist oder so.
Aber fass es ruhig auf wie du magst.
Slashman
30. März 2014 um 22:52 Uhr@Saleen/Cerberus755:
Ich vergöttere nur Gott und das diese TF vs TF Diskussion angeht. Fragt mal die PC Fanboys dazu. Sie wollen uns ja allen mit allein Mitteln einreden das der PC 10000x schneller sei als eine Konsole und das es 100000x mehr Games gibt und das der PC nur für echte Gamer wäre.
Ich habe den eindruck das genau diese Leute die extra hier in eine PS Seite kommen nur um das zu sagen kleine Eier haben oder kurze Würstchen. Warum sonst sollte einer der nur Xbox Spielt und Sony PS nicht leiden kann hier sein. Warum sonst sollte ein PC Fanboy hier sein, er könnte ja unter seines gleichen Diskutieren, aber nein sie alle betreiben im anderen Lager PR.
Manche Lügen, Beleidigen und Provozieren daher auch die Sony User und wundern sich und stellen sich dann heuchlerisch als Opfer dar.
Yolo
30. März 2014 um 23:06 Uhr@ne0r
Oh Boy….
Und wenn diese Wunder-Zauber-Mittel nicht helfen, dann lädt MS euch ne zweite GPU durch die Cloud hoch, was?
Ach nee….. die ist ja schon heimlich verbaut…. 😉 Hab’sch vergessen! Dann ladet ihr euch einfach mehr Ram runter. ^^
Stell dich darauf ein derbe enttäuscht zu werden. DirectX 12 wird nicht für die Xbox das bereit halten was ihr euch jetzt zusammen lullt.
Dx12 ist Dx11…. um einige Funktionen erweitert die die an Mantle erinnern. Deswegen läuft Dx12 ja auch auf allen Karten die Dx11 unterstützen. Das gab es vorher noch nie. Grafikkarten mussten daran angepasst sein. Wieso ist das jetzt nicht nötig? Denk mal nach! Und wenn Mantle auf Konsolen nichts bringt, dann erst recht nicht Dx12.
Aber für MS‘ PR-Abteilung ist das natürlich dennoch ein guter Aufhänger, man sieht ja wie gut das bei einigen zieht.
Hunter93
31. März 2014 um 00:28 Uhr@Yolo:
Was verstehst du denn unter freier Programmierung auf CPU-Level?
CUDA hat schon seit einigen Jahren vollen C/C++-Support.
Vom Prinzip her sind das so oder so immer dieselben Operationen. Mehr als Steuereinheit und ALU sind auch CPUs nicht.
Yolo
31. März 2014 um 01:00 UhrDas geht jetzt ein bisschen tiefer als ich es selbst weiß. Denn das ist nicht meine Fachrichtung. Aber ein Blick auf Wikipedia gibt schon Aufschluss:
[…] Somit sind Berechnungen, beispielsweise mit den Genauigkeiten nach IEEE 754 (64 Bit für double precision), häufig nicht im Befehlssatz der GPU vorgesehen und müssen relativ aufwändig per Software emuliert werden.[…]
PS. Wenn du erklärst was CPU’s sind, vergiss auf keinen Fall das Register und das Mikroprogramm. Alles andere wie Co-Prozessor, North Bridge, Aufteilung auf Adress- und Datenregister oder wie bei APUs die GPU etc. sind keine zwingenden Hauptbestandteile.
Aber diese vier Komponenten: Control Unit, Mikroprogramm, ALU, Speicherregister musst du nennen wenn du schon so anfängst.
Hunter93
31. März 2014 um 01:51 UhrMan braucht auch nicht notwendigerweise Register, sondern generell Speicher (der kann auch extern sein). Mit Mikroprogramm dürfte die Tätigkeit des Steuerwerks gemeint sein.
64Bit-Genauigkeit benötigt man eigentlich nur für wissenschaftlichen Anwendungen. Unterstützt wird das bei Nvidia seit der G8000-Serie (auf Roadmaps von Nvidia sind meist DP FLOPs eingezeichnet). Hat aber gewiss nichts mit eingeschränkter Programmierung zu tun. CPUs können das auch erst seit Register und Rechenwerke dafür fett genug sind. Intel 8086 hatte noch eine Wortbreite von 16 Bit.
ne0r
31. März 2014 um 06:42 UhrWolkensteins ist schon mit 1080p für die One angekündigt… Es fängt an! Und hör auf mich Boy zu nennen du kindisches etwas! Tiled resources ist kein geblubber, gibt es ja schon Beispiele die unter anderen Namen laufen…. Von einer 2. Gpu hab ich nicht geredet, Fakt ist das es einen 2. Layer gibt von dem keiner weiß für was er ist… Keine xrays vom Chip der xbox One, von dem der ps4 schon… DNA zwischen AMD und Microsoft bis November 2014… Ich glaub nicht das was kommt, aber es ist möglich, von daher sind alles die sich jetzt aus dem Fenster lehnen Boys… Ich spiel infamous und freu mich über die ps4 aber die xbox One abzuschreiben halte ich für verfrüht!
Yolo
31. März 2014 um 09:16 UhrDann find mal deine Daten im Speicher wenn du kein Register hast! Und das Mikroprogramm ist nicht das Steuerwerk.
Dort steht 1. „beispielsweise“ und zweitens wird auch erwähnt dass es emuliert werden muss, also nicht native berechnet werden kann.
Außerdem musst du die Unterschiede der Architektur beachten. GPUs sind auf massive Parallelisierung ausgelegt. Was auch Sinn ergibt wenn man millionen Pixel gleichzeitig parat haben möchte. Parallelisierung kannst du aber nicht beliebig ausweiten. Siehe auch „Amdahlsches Gesetz“.
Wir drehen uns im Kreis. Egal wie du es versuchst schön zu reden, aber aktuell ist das kein Thema und wird es auch nicht sein. Aber man kann durchaus ein Auge auf CUDA oder Direct Compute etc. halten und schauen wie es sich entwickelt.
@ne0r
Wenn ich das richtig verstanden habe, dann macht tiled recoursses nichts anderes als Bereiche weniger genau zu berechnen wenn man meint dass der Spieler eh woanders hinschauen würde. Woohoooo 😀
Den zweiten Layer musste ich jetzt erst mal angestrengt googlen. Mehr als Forenbeiträge in denen Fanboys „bestätigen“ dass der eSRAM über einen 92 MB L2 verfügen würde…. welcher MS aber zurückhält damit noch Potenzial für die späteren Jahre da wäre. Klingt natürlich lächerlich, aber ergibt gar nicht mal so wenig Sinn. Konsolenspieler sind ja gewohnt dass sich Konsolenspiele mit der Zeit weiter entwickeln, das wird aber bei der schon hinreichend bekannten x86 Architektur nicht wirklich passieren. Geblockte Hardware wäre natürlich eine Möglichkeit. Ähnlich wie Nintendo die in ihre Cardridges weitere Hardware eingebaut haben, nur dass diese jetzt schon in der Konsole liegt.
Nette Idee. SRAM ist ja prinzipiell auch ne feine Sache, besser als GDDR5. Aber selbst mit 128 MB immer noch sauklein. Da wird entwickeln wieder ein Drahtseilakt wie vorher mit dem katastrophalen Cell.
ne0r
31. März 2014 um 09:37 UhrNaja muss man wohl abwarten, mir ist das eh egal, werd mir die one ohnehin holen und die Spiele die ich auf der one will hol ich mir da, die anderen auf der ps4. Die Leistung ist mir ohnehin nicht so wichtig, eher die Spiele. Quantum break, sunset overdrive, titanfall, halo, forza, forza horizon uvm. Rechtfertigen für mich den kauf. Rest ist egal! Ich glaub aber das Microsoft Sony keinen so großen vorsprung einräumen wird wie ihn die Sony fanboys gerne hätten. Genauso werden microsoftfanboys niemals normal argumentieren! Schade eigentlich. Aber warum sollten amd und Microsoft ein geheimhaltungsabkommen bis ende diesen Jahres haben wenn nicht noch eine kleine überraschung folgt? Wäre auch sinnlos… Der 2. Layer ist da und es auch etwas drauf, ob da noch was kommt weiß aber keiner 😊 ich freu mich auf die Zeit wenn beide Konsolen ihr wahres Gesicht zeigen. Wie gesagt 1080p sind z.B für wolfenstein auch bei der xo angekündigt. Microsoft hat vor kurzem erst neue dev kits an die Entwickler raus gegeben, abwarten und Tee trinken! Aktuell reicht mir aber die ps 😉
Slashman
31. März 2014 um 12:17 Uhr@ne0r:
tiled recoursses ist so wie Yolo sagt nur da um nicht Sichtbare Dinge weniger intensiv zu berechnen. Deine Behauptung man könnte 6 GB Rendering in 32MB ESRAM packen ist ein Witz. Bestenfalls kann man durch extreme Kompression (kostet viel Echtzeit Rechenleistung) 64 MB reinpacken.
Kennst du ja am PC^^ Wenn man 500 MB in einen Ordner kopiert dauert das 5-10 Sekunden. Wenn man 500 MB in eine ZIP/RAR Datei Komprimiert dauert das je nach Kompression gut 2-4x so lange also 10-40 Sekunden und frisst dabei CPU Power ohne Ende.
Nebenbei was die Xbox One kann kann auch die PS4… Schon vergessen beide nutzen nahezu die selbe Architektur (AMD Jaguar CPU und AMD GCN GPU). Was die zusätzliche Trägerschicht angeht. Die gibt es nicht! Das alles ist die Einbildung von Xbone Fanboys aus Foren. Zwar gibt es so eine Technologie für Speicher, aber in der Xbox One findet man sie nicht!
Ich frage mich eh woher diese Behauptung kommt. Kein Techniker der die Chips (PS4/Xbox One) Untersucht hat fand da so eine zusatz Schicht.
Slashman
31. März 2014 um 12:19 Uhr@Yolo:
Mit 128 MB Esram könnte man was anfangen, weil der ESRAM ja nur fürs Rendern da ist (Nicht für Texturen und andere Sachen). Den Rest könnte man dann ohne Weiteres Auslagern auf den DDR3 RAM (der auch statt DDR3 1066 eben DDR3 1600 sein sollte).
Hunter93
31. März 2014 um 13:34 UhrDu hast Recht. Man muss Speicher direkt an entsprechenden Gattern bzw. innerhalb des Rechen-/Steuerwerks ansetzen, um überhaupt Daten halten zu können.
Wikipedia definiert Mikroprogramm als „Algorithmus eines Mikroprogrammsteuerwerks in einem Prozessor zum Steuern seines Rechenwerks“. Ich seh nicht, wo ich da falsch liegen soll.
Die Sache mit 64Bit-Genauigkeit geht aber einfach nur am Thema vorbei. Dann braucht ein Prozessor mit kürzerer Wortbreite eben länger um die Daten durchzuschieben („Emulation“). Das ist eine Frage der Performance, um die es hier nicht geht, wie du oben selbst gesagt hast. Ein aktueller Haswell arbeitet auch nicht flott mit 1024 Bit Zahlen.
Außerdem geht der Text ja noch weiter: „Zum aktuellen Stand (2010) fertigen erste Hersteller bereits erweiterte GPUs, die neben den von der GPU benötigten Datentypen auch universelle Datentypen und Operationen z. B. zur direkten Berechnung IEEE 754 konformer Ergebnisse beinhalten. Als einer der aktuell führenden Hersteller stellt Nvidia mit der Fermi-Generation GPUs bereit, die sowohl 32-Bit-Integer, als auch einfach- und doppelt-genaue Gleitkomma-Datenformate nativ bereitstellen (float/double).“
Selbiges mit Parallelisierung. Es ist nur logisch, dass rein sequenzielle Programmausführung eine GPU nicht voll befeuern kann, aber auch das ist nur eine Frage der Performance.
PS: Wir drehen uns nicht im Kreis, du weichst einfach nur aus 😉
Slashman
31. März 2014 um 15:23 Uhr@Hunter93:
Es stimmt die GPU kann immer mehr CPU Aufgaben bearbeiten, aber nicht alle und nicht alle so gut. Es wird von AMD ja auch daher auf APUs gesetzt. Ein Chip der CPU und GPU drin hat und immer weiter verschmelzen. Es ist nicht ohne Grund so, das eine CPU besser CPU und eine GPU besser GPU arbeiten kann. Wird immer so sein und die WiiU hat zwar ne schwache CPU, aber sie hat eine ohne würde es nicht gehen. Zwar lagern die Entwickler arbeiten an die GPU aus, aber sie können nicht alles auslagern.
Irgendwann bestimmt, aber jetzt noch nicht.
ne0r
31. März 2014 um 15:51 Uhr@Slashman
Es gibt auf Youtube ein Video wo jemand auf 16mb esram 3gb Rendering macht! Ergo wären bei 32mb auch 6gb drin! Die 2 Schicht gibt es der. Gab es bei der Xbox360 schon, damals aber ohne ersichtliche belegung! Bei der Xbox one sieht man den 2. Layer eindeutig, sogar mit einer chipnummer (ich glaub 02). Der geheimgaltungsvertrag zwischen ms und amd besteht bis ende des Jahres, aus dem Grund findet man dazu auch nichts. Ich denk nicht das da was ist, aber es könnte. Ich finde es auch komisch das es von dem ps4 Chip x-rays gibt und von der Xbox keiner autaucht -> eventuell weil da noch was ist und man sich strafbar macht? Keine Ahnung! Die ps4 wird opengl nutzen und opengl ist nicht directx12 mit tiled resources 2.0! Ich würde meine Hand nicht ins Feuer legen und warte weihnachten ab! DirectX 12 wird der box einen schub geben, auch die neuen devkits machen wohl einen guten Eindruck wie man es bislang mitbekommt. Auch das wolfenstein in 1080p angekündigt ist zeigt das die box stärker wird. Ich mag fanboys beider Seiten nicht aber es wäre lustig wenn ms noch was hat wovon keiner weiß! Ndas sind streng und man munkelt auch das die Xbox wegen der ps4 verfrüht auf den markt kam, was auch fehlende kinectspiele belegen. Ich bin gespannt 😊 würde mich über 2 gleichstarke Konsolen freuen!
Slashman
31. März 2014 um 16:08 Uhrhaha wo bitte das will ich sehen. Bitte keine PR Videos sondern echte Formeln wo man 3 GByte (nicht 3 Gigabit, was ja nur knapp 800 MB sind) in 16 MB ESRAM packt. Ich habe schon von sehr guten Kompressions verfahren gehört wo man gut 4x so viel Speicher komprimiert, aber 1000x so viel wäre mir neu. Zeig mir das Video, den Artikel, die Berechnung dahinter. Sorry, aber der ESRAM ist 32MB groß und 32 MB ist 32MB Das sind keine Super 32 MB ne das sind eben schnelle 32MB. In ihr passen nur 32MB rein und man kann 3 GB oder gar 6 GB in 32MB pressen. Bestenfalls 128 MB, was dann aber zu rucklern führt und mit viel viel Aufwand 48-64 MB (was dann zwar geht, aber jedesmal beim Kompressionsverfahren und Dekomprimieren Leistung und Zeit kostet was den ESRAM Speed Vorteil auf Null bringt.
Ok noch mal für dich es gibt keinen 2. Layer auf der Xbox One. Es gibt keinen 2. Chip… Jede GPU/CPU besteht aus mehreren Sichten/Leiterbahnen und einer ohne Ahnung meint jetzt da steckt ne 2. GPU…
Man hör auf so dummes Zeug zu schreiben ist ja Krank!
Hier haben Leute schon beide Chips/APUs Untersucht und keine 2. Layer schicht gefunden. Das bilden sich dumme Fanboy in ihrer Hoffnung nur ein!
http :// www . golem . de/news/die-shot-analyse-tausche-esram-gegen-compute-units-1311-103035 . html
Überschrift:
Die-Shot-Analyse Tausche ESRAM gegen Compute Units
Da steht alles ganz klar drin. Keiner wirklich kein Techniker der die Konsole untersuchte/Zerlegte und Analysierte fand einen 2. Layer auf der Xbox One APU. Wenn man alle Links zurückverfolgt landet man bei einem Xbox Fanboy im Forum.
Werde erwachsen… Wenn es so einen Chip/Layer gäbe würde MS es sofort als PR Hilfe offen legen. MS würde sagen „Sonys PS4 ist nicht schneller sondern lahmer und wir haben bis zu Release die 2. Layer schicht geheim gehalten“, aber Fakt ist es gibt sie nicht.
Slashman
31. März 2014 um 16:13 UhrNebenbei sind die ganzen Sachen reine Spekulation und an sowas klammern sich nur Vollidioten.
Ok ich Spekuliere und verbreite jetzt:
Sonys PS4 wird bald in 16nm gefertigt und die dadurch gewonnen TDP und Reserven sollen dem Takt zugute kommen. Die PS4 wird bald in 3,2 GHz CPU und 1,2 GHz GPU Takt laufen. Auch soll jetzt ein Modell kommen mit 16 Gb GDDR5 RAM.
Ja Sony wollte am anfang halt nicht alles gleich sagen^^
@ne0r:
Klingt doch dumm oder? Warum sollte MS die 2. Layerschicht nicht vor Release Presentieren und daher auch die im Laden liegenden Konsolen (die sich schlechter verkaufen) riskieren. MS wäre dumm so was zu machen. Ich denke… nein ich weiß es gibt keinen 2. Layer es gibt keine 2. GPU und es gibt keine Geheimnisse der Xbox One.
Techniker haben Chip, Speicher, Takt, Innenleben Analysiert und fanden nichts.
Slashman
31. März 2014 um 16:14 UhrNebenbei sind die ganzen Sachen reine Spekulation und an sowas klammern sich nur Kinder die keine Ahnung haben.
Ok ich Spekuliere und verbreite jetzt:
Sonys PS4 wird bald in 16nm gefertigt und die dadurch gewonnen TDP und Reserven sollen dem Takt zugute kommen. Die PS4 wird bald in 3,2 GHz CPU und 1,2 GHz GPU Takt laufen. Auch soll jetzt ein Modell kommen mit 16 Gb GDDR5 RAM.
Ja Sony wollte am anfang halt nicht alles gleich sagen^^
@ne0r:
Klingt doch dumm oder? Warum sollte MS die 2. Layerschicht nicht vor Release Presentieren und daher auch die im Laden liegenden Konsolen (die sich schlechter verkaufen) riskieren. MS wäre dumm so was zu machen. Ich denke… nein ich weiß es gibt keinen 2. Layer es gibt keine 2. GPU und es gibt keine Geheimnisse der Xbox One.
Techniker haben Chip, Speicher, Takt, Innenleben Analysiert und fanden nichts.
ne0r
31. März 2014 um 16:59 UhrKomm mal klar du depp, lern lesen! Ich hab NIE von einer 2. Gpu gesprochen! Ich arbeite seit knapp 10 Jahren in der it branche und da ist ein 2. Layer! Wie auch schon bei der Xbox 360, damals nicht belegt! Dieses mal sieht man es nicht eindeutig… Außerdem sollen nicht aus 32mb esram 6gbyte werden sondern es soll möglich sein 6gb Rendering in extrem schnell Zeit zu verarbeiten… Du bist so verblendet, hast 0 Ahnung von der Materie und lässt ervarmungslos den fanboy raushängen! Genau du bist der Grund warum ich fanboys so liebe… 3 x 3 macht 4 wittewittewitt und 3 macht 9e ich mach mir die Welt wie sie mir gefällt… Verblendetes Volk! Jetzt Feierabend! Infamous spielen 😊 yeaha!
ne0r
31. März 2014 um 17:01 UhrP.s. Warum sie nicht präsentiert wird hab ich oben schon mehrmals geschrieben! Nda zwischen Microsoft und amd! -.- bis Dezember 2014!… Xbox one wurde verfrüht auf den markt geschmissen… Aber ist mir wurst! Für mich wäre es nur von Vorteil 😉
Slashman
31. März 2014 um 17:10 UhrOk die NDA ist rum… Und trotzdem sieht man von den 6 GB Rendering nichts. Wie gesagt der ESRam ist schnell, aber klein und es passen keine 6 GB Berechnungen rein. Klar werden 6 GB schnell Berrechnet, aber das hat wenig mit dem 32MB Esram zu tun.
Was deine 2. Layer Behauptung angeht:
http :// www . chipworks . com/en/technical-competitive-analysis/resources/blog/inside-the-xbox-one/
Ich und 1000 andere Menschen, Entwickler, Techniker sahen noch nichts zu einem 2. Layer. Wo soll der sein. In deiner Einbildung, in den Gebeten eines Xbox One Fanboys.
Sorry, aber einer aus der IT Branche sollte erstens schon von Haus aus nicht an so was glauben. Weil die NDA zwischen AMD und MS schon seit Release abgelaufen ist. 2. Selbst wenn, warum dann sind die Xbox One Spiele so stark unterlegen?
Du glaubst den Schmarn und daher kann ich auch nicht weiter mit dir schreiben. Du willst es glauben und gut ist. Es sind nur Spekualtionen und alle haben in einem Forum angefangen. Erst vor kurzem hat Ubisoft selbst einen Test gemacht wie leicht sich Gerüchte und Spekualtionen verbreiten lassen.
Nur dumme Menschen fallen drauf rein!
ne0r
31. März 2014 um 18:47 UhrEs läuft ein nda bis Dezember 2014!!!! Wie oft den noch??? Okay du beleidigst Menschen als dumm, weil sie anderer Meinung sind wie du? 😊 Das lässt auf dein iq schließen. Genau wie die Tatsache das du 2014 nicht lesen kannst: zweitausendundvierzehn! Dieses Jahr Dezember, ende diesen Jahres! Vor Silvester! Checkst dus jetzt? Wie gesagt, selbst wenns net stimmt find Ichs spannend 😊 dafür schäm ich mich nicht! Und ja ich als it „fachmann“ sollte es besser wissen und aktuelle bilder vom Chip zeigen den 2. Layer, man weiß nur nicht ob was drauf ist!!! Und ohne xray, den es leider nur von der ps4 gibt, keine Beweise! Dann gibt es ein Netzteil was zu viel frisst und eine überdemensioniert kühlung. Das heißt es kann was kommen, muss aber net!
Slashman
31. März 2014 um 19:10 Uhr@ne0r:
Wenn du meist. Kein Techniker der das Teil Zerlegt hat die DIE der Xbox One APU Sicht für Sicht zerlegt hat fand einen 2. Layer. Also nein das hat mit Meinung nichts zu tun. Geh auf meinen Link den ich dir zuvor gepostet habe.
Dor wurde die Xbox One Chip für Chip komplett Analysiert und man fand keinen 2. Layer. Weder auf PS4 noch auf Xbox One.
Du bist naiv zu glauben das es so eine schicht gibt Denk was du willst. Mir egal wer so naiv ist.
Die Xbox One kannst du ja gerne aufmachen und die APU rausholen… Andere Experten haben es gemacht und fanden nichts.
Ja ich halte dich für sehr sehr sehr beschränkt… Ignorierst meinen Link.
ne0r
31. März 2014 um 19:25 UhrIch kann dir auch links senden in denen das Gegenteil gefunden wurde… Führt es zu was? Nein! Du hast deine Meinung und die vertrittst du ich bin relativ neutral und halte mir alle Optionen offen. Wie schon gesagt ob was dran ist weiß man nicht zu 100% wegen dem nda, logisch wäre wenn nichts dran ist, interessanter wenn da noch was ist! 😊 Ignorant nennst du mich? 😃 Ich kann dir unendliche posts von dir zeigen wo deine Meinung gilt sonst nichts…
Slashman
31. März 2014 um 19:59 UhrLinks zu Technikern, die diesen Layer gefunden, Dokumentiert haben und Analysiert haben… Nein das gibt es nicht.
Chipworks ist wenigstens anerkannt, Anandtech ebenso, aber deine Links führen zu Xbox Fanboy Foren und zu Xbox Fans. Ich habe jetzt 1h gegooglet und jeder sagt dazu nur Gerüchte…
In Chipworks haben sie die APU/DIE genau unter die Lupe genommen, da war keine 2. Schicht. Wenn du es noch immer glaubst bist du beschränkt.
Oh man oh man… Das hat verdammt noch mal nichts mit Meinung zu tun… Es gibt keinen 2. Layer du bist einfach nur lächerlich mit deinem NDA hier und NDA dort. Chipworks hat keinen gefunden als sie das Silizium der APU untersucht haben.
Es kann natürlich sein das eine Xbox One 2.0 kommt weil die erste ja zu schwach ist, aber in der wo jetzt im Laden ist gibt es keine 2. Schicht.
Slashman
31. März 2014 um 20:03 UhrDer Link ist kein Artikel in dem Sinne oder einfach nur Text. Da nimmt ein Techniker die Xbox One und PS4 vollkommen auseinander und schleift ganz vorsichtig die APU schicht für schicht ab. Da sah weder er noch ein anderer ne 2. Schicht. Langsam glaube ich das du einfach nur blind Hoffnung auf die Schicht hast.
Hast wohl sonst keine Argumente.
Bitte einen Link von dir nur einen wo man den Layer sieht… Ich habe dir den Link von Chipworks gegeben wo man ihn definitiv nicht sieht, wo er nicht da ist. Das war eine Handelsübliche Xbox One… kein Prototyp, keine Dev Variante nein es war die wo du jetzt auch genau so im Media Markt um die Eckte findest.
ne0r
31. März 2014 um 21:05 UhrHaha schau mal wie du dich aufregst, das ist überkomisch! 😃 Ich hab keine Hoffnung auf einen 2. Layer mir ist es egal! Das hab ich in JEDEM Post geschrieben 😊 ich bin auch voll stolz auf dich das du so viel tolle Seiten kennst 😊 Hut ab du gehst gut ab! Du denkst ich suche nach wege die Xbox gut zu reden, dass ist dein Fehler! Die Xbox find ich jetzt schon toll und die komplette Architektur die auf eine Programmierung mit den Vorzügen von directx12 zielt ist auch interessant! Genau so wie die ps4 mit 8gb gddr5 Speicher, mal sehen wie sich hier die etwas höhere latenz ausübt! Es ist spannend 😊 und ich freu mich über jeden der so abgeht wie du! Ich glaub ich schreib nen buch: Slashman und die fanboyhobbits. Find ich ganz gelungen. Erster Teil: Die Chipfeiler 😊 Hammer!!!!