Zum Inhalt springen

PlayStation®4™


Cloud

Empfohlene Beiträge

http://www.gamespot.com/forums/topic/29359187/ps4-vs.-ps3-comparison

 

Hier :D

und die 260 GFlops der PS3 kannst du bei Wikipedia nachgucken.

 

PS4 ist einfach eine super gute Konsole und auch wenn die PC-Spieler ihre Titan Grafikkarte oder ihre 6 Kern ( 3,2 GhZ) Prozessoren bewundern und immer wieder die PS4 kleinreden ... träumen sie von einem Spiel das ca. 7GB GDDR5 RAM ausnutzt und wir PS4 gamer kriegen dieses Spiel. Spätestens wenn UC4 rauskommt.

 

2 TFlops nur für den Jaguar ist purer Quatsch das weiß aber auch wirklich jeder :) Prozessor und GPU zusammen haben vllt. 2 TFlops.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wie kann man Zahlen eigentlich nur so durcheinanderwürfeln?

 

PS4 GPU (only):

1,843 TeraFlops Shader-Leistung

 

PS4 CPU:

@ 1,6 GHz => 102,4 GFlops (0,1024 TeraFlops)

@ 2 GHz => 128 GFlops (0,128 TeraFlops)

 

Der Cell liefert 230,4 GFlops @ 3,2 GHz (das aktuelle Taktpotenzial liegt bedeutend höher, ab 65 nm sind 4 GHz drin, unter 28 nm [PS4] entsprechend noch mehr).

Zieht man zwei SPEs ab (zwecks Ausbeute und fürs OS) bleiben in der PS3 genau 179,2 GFlops für Spiele oder sonstige Anwendungen übrig.

 

Theoretisch liegt das über der PS4-CPU Lösung, und Cell dürfte diesen Vorteil bei eng eingrenzbaren Algorithmen und effizienter Programmierung auch voll ausspielen können (Simulationen jeder Art [also Physik], Sound-Berechnungen, Grafik/3D-Rendering, usw.).

Bei "branchy" Integer-Code müsste die Sache hingegen anders aussehen.

 

Um es kurz zu machen:

Cell ist zwar bei spezielleren Anwendungen (von Physik bis hin zu Grafikberechnungen) äußerst performant, aber nur bedingt "general-purpose".

Jaguar glänzt allerdings gerade bei Letzterem (modernes Out-of-Order, kurze Pipeline, dicke x86-Befehlsätze und ein hoher IPC).

 

Wenn man so will, sollte man die Jaguar-Performance als reine General-Purpose-Leistung ausschließlich mit dem Cell-PPE (25,6 GFlops) vergleichen. Und hier wäre der Zuwachs enorm.

 

 

[ganz so einfach ist die Sache natürlich nicht: die 360 kommt bei 3 PPEs und zusätzlichen FPUs pro Kern auf 115 GFlops. Und ist damit längst nicht auf PS4-CPU-Niveau, da der IPC in der Praxis weit niedriger liegt (ergo sind die SPEs wesentlich schneller, das nur mal zur Geschichte: keine echten Kerne, usw.)]

 

 

Die SPE-Leistung (152,6 GFlops) ersetzt in der PS4 GPGPU. Ursprünglich waren dafür 4 der 18 Cluster fest eingeplant, mittlerweile erlaubt Sony aber die freie Verwendung der Shader.

Wenn wir weiterhin mit 4 Compute-Units rechnen, wären das über 400 GFlops Rohleistung der Grafikkarte für Physik & Co., und damit wieder ein enormer Zuwachs zur PS3-Lösung.

Wohlgemerkt floß in die Shader-Architektur der PS4 Cell Know-How mit ein: Um die GPU besser auf Compute zu trimmen, sind sogenannte ACEs verbaut, zudem hat man die Shader-Cluster dem SPUR-System des Cell angelichen.

 

Insofern ist der Vergleich PS4-GCN und den Cell-SPEs gar nicht abwegig, steckt immerhin teils dieselbe Technik drin.

Und wohlgemerkt ist GPGPU auf PS4 äußerst performant, da CPU und GPU auf einer einzigen Die verschmolzen sind (APU) und einen gemeinsamen Speicheradressraum nutzen. :zwinker:

 

Wieso ist für den neuen Prozessor ein Kern reserviert zum Aufnehmen von Spielen und ein weiter für den Standby-Betrieb bzw. warum sind diese Dinge möglich und nicht auf der PS3, wo doch der Cell angeblich stärkser sein soll?

 

Bei der PS4 ist kein Kern für irgendwas reserviert, hier kommt die volle Leistung Spielecode zugute; Gameplayaufnahmen, Download-Anwendungen, usw. übernimmt ein dedizierter Chip.

 

Tatsächlich wird die PS4-CPU von zusätzlicher fixed-function Hardware massiv entlastet. Verbaut sind:

 

Audio Processor (ACP)

Video encode and decode (VCE/UVD) units

Display ScanOut Engine (DCE)

Zlib Decompression Hardware

 

Selbstverständlich wäre das bei der PS3 genauso möglich gewesen. Man hätte eben nur entsprechende Ressourcen dafür von Anfang an reservieren müssen (wenn das OS-SPE noch Leistung übrig hätte, fehlt vor allem noch aussreichend verfügbarer RAM, dank dem ja noch nicht einmal Voice-Chat drin sein soll).

 

Das klingt schon logischer, die CPU an sich in der PS4 ist immernoch Low-End.

 

Jaguar ist nicht Low-End sondern Low-Power!

 

Der IPC liegt auf Steamrollerniveau (nebenbei wollte man ursprünglich zwei Steamroller-Module [bulldozer Quad-Core] als CPU verbauen, ist dann aber auf ein 8-Core Jaguar umgestiegen) und die CPU wird zusätzlich durch dedizierte Chips (Sound-Prozessor, Dekompressions-Hardware, ...; siehe oben) entlastet.

 

Das wäre bei 2 GHz, 8 Kernen (mit 128 Bit ALU) schon verdammt ordentlich und performanter als ein Quad-Core Deskop-Bulldozer oder Intel-Maschinen bei ~ 3 GHz Taktung. (GPGPU nicht mit eingerechnet)

 

Woher hast du die Zahlen? Ich meine mich noch daran zu erinnern, dass die Geforce 3 damals mehr als 1200 DM gekostet hat. Ich weiß zwar nicht wie der Wechselkurs war, aber 700 DM waren es nicht. Mindestens 1000 DM! Die Titan kostet 950€. Das wär "nur" das Doppelte. Nicht das Dreifache.

 

Als ob du den Preis der Geforce3 tatsächlich in Erinnerung hättest :facepalm:

Mag schon sein, dass die Zahl daneben liegt. Titan, NV47 und die Konsolen sind allerdings richtig beziffert.

Und - worauf ich eigentlich hinauswollte - ist Titan auch nur in Nvidias feuchten Träumen um Faktor 3 schneller als PS4.

 

Allein zwischen der Radeon 7850 und Titan liegen gerade einmal gut Faktor 2.

Bearbeitet von Hunter93
Link zu diesem Kommentar
Auf anderen Seiten teilen

Wie kann man Zahlen eigentlich nur so durcheinanderwürfeln?

 

PS4 GPU (only):

1,843 TeraFlops Shader-Leistung

 

PS4 CPU:

@ 1,6 GHz => 102,4 GFlops (0,1024 TeraFlops)

@ 2 GHz => 128 GFlops (0,128 TeraFlops)

 

Der Cell liefert 230,4 GFlops @ 3,2 GHz (das aktuelle Taktpotenzial liegt bedeutend höher, ab 65 nm sind 4 GHz drin, unter 28 nm [PS4] entsprechend noch mehr).

Zieht man zwei SPEs ab (zwecks Ausbeute und fürs OS) bleiben in der PS3 genau 179,2 GFlops für Spiele oder sonstige Anwendungen übrig.

 

Theoretisch liegt das über der PS4-CPU Lösung, und Cell dürfte diesen Vorteil bei eng eingrenzbaren Algorithmen und effizienter Programmierung auch voll ausspielen können (Simulationen jeder Art [also Physik], Sound-Berechnungen, Grafik/3D-Rendering, usw.).

Bei "branchy" Integer-Code müsste die Sache hingegen anders aussehen.

 

Um es kurz zu machen:

Cell ist zwar bei spezielleren Anwendungen (von Physik bis hin zu Grafikberechnungen) äußerst performant, aber nur bedingt "general-purpose".

Jaguar glänzt allerdings gerade bei Letzterem (modernes Out-of-Order, kurze Pipeline, dicke x86-Befehlsätze und ein hoher IPC).

 

Wenn man so will, sollte man die Jaguar-Performance als reine General-Purpose-Leistung ausschließlich mit dem Cell-PPE (25,6 GFlops) vergleichen. Und hier wäre der Zuwachs enorm.

 

 

[ganz so einfach ist die Sache natürlich nicht: die 360 kommt bei 3 PPEs und zusätzlichen FPUs pro Kern auf 115 GFlops. Und ist damit längst nicht auf PS4-CPU-Niveau, da der IPC in der Praxis weit niedriger liegt (ergo sind die SPEs wesentlich schneller, das nur mal zur Geschichte: keine echten Kerne, usw.)]

 

 

Die SPE-Leistung (152,6 GFlops) ersetzt in der PS4 GPGPU. Ursprünglich waren dafür 4 der 18 Cluster fest eingeplant, mittlerweile erlaubt Sony aber die freie Verwendung der Shader.

Wenn wir weiterhin mit 4 Compute-Units rechnen, wären das über 400 GFlops Rohleistung der Grafikkarte für Physik & Co., und damit wieder ein enormer Zuwachs zur PS3-Lösung.

Wohlgemerkt floß in die Shader-Architektur der PS4 Cell Know-How mit ein: Um die GPU besser auf Compute zu trimmen, sind sogenannte ACEs verbaut, zudem hat man die Shader-Cluster dem SPUR-System des Cell angelichen.

 

Insofern ist der Vergleich PS4-GCN und den Cell-SPEs gar nicht abwegig, steckt immerhin teils dieselbe Technik drin.

Und wohlgemerkt ist GPGPU auf PS4 äußerst performant, da CPU und GPU auf einer einzigen Die verschmolzen sind (APU) und einen gemeinsamen Speicheradressraum nutzen. :zwinker:

 

 

 

Bei der PS4 ist kein Kern für irgendwas reserviert, hier kommt die volle Leistung Spielecode zugute; Gameplayaufnahmen, Download-Anwendungen, usw. übernimmt ein dedizierter Chip.

 

Tatsächlich wird die PS4-CPU von zusätzlicher fixed-function Hardware massiv entlastet. Verbaut sind:

 

Audio Processor (ACP)

Video encode and decode (VCE/UVD) units

Display ScanOut Engine (DCE)

Zlib Decompression Hardware

 

Selbstverständlich wäre das bei der PS3 genauso möglich gewesen. Man hätte eben nur entsprechende Ressourcen dafür von Anfang an reservieren müssen (wenn das OS-SPE noch Leistung übrig hätte, fehlt vor allem noch aussreichend verfügbarer RAM, dank dem ja noch nicht einmal Voice-Chat drin sein soll).

 

 

 

Jaguar ist nicht Low-End sondern Low-Power!

 

Der IPC liegt auf Steamrollerniveau (nebenbei wollte man ursprünglich zwei Steamroller-Module [bulldozer Quad-Core] als CPU verbauen, ist dann aber auf ein 8-Core Jaguar umgestiegen) und die CPU wird zusätzlich durch dedizierte Chips (Sound-Prozessor, Dekompressions-Hardware, ...; siehe oben) entlastet.

 

Das wäre bei 2 GHz, 8 Kernen (mit 128 Bit ALU) schon verdammt ordentlich und performanter als ein Quad-Core Deskop-Bulldozer oder Intel-Maschinen bei ~ 3 GHz Taktung. (GPGPU nicht mit eingerechnet)

 

 

 

Als ob du den Preis der Geforce3 tatsächlich in Erinnerung hättest :facepalm:

Mag schon sein, dass die Zahl daneben liegt. Titan, NV47 und die Konsolen sind allerdings richtig beziffert.

Und - worauf ich eigentlich hinauswollte - ist Titan auch nur in Nvidias feuchten Träumen um Faktor 3 schneller als PS4.

 

Allein zwischen der Radeon 7850 und Titan liegen gerade einmal gut Faktor 2.

Hammer hart. Ich habe nichts verstanden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Danke für eure Antworten und besonders für Hunters (sehr) ausführliche Antwort.

 

Die Kernaussage lautet also: Cell ist für speziellere Aufgaben besser als die CPU der PS4, aber im Allgemeinen leistet die CPU der PS4 bessere Dienste, oder wie verstehe ich das?

Ist für mich alles fachchinesisch, aber hat mich eben interessiert :D

 

Stärker als ein Quad-Core-Desktop-CPU? Das wäre ja echt stark und würde dann hinkommen, wenn die PS4 CPU Low-End sein soll (laut nVidia).

Oder habe ich diese Aussage jetzt aus dem Zusammenhang gerissen?

 

Ich weiß nur:

 

RAM: High-End

GPU: High-Middle?

CPU: Low End?

 

@Andreas86:

 

Hammer hart. Ich habe nichts verstanden.
Mit jedem Beitrag, den ich von Hunter lese, fange ich an mehr zu verstehen.

Seit 2 Wochen weiß ich, was eine "Die" ist und denke nicht mehr automatisch ans "Sterben" :D

 

Der Rest ist für mich auch Fachchinesisch, aber so ist das eben bei Expertengerede.

Zumindest glaube ich, dass da jemand vom Fach redet, aber was weiß ich schon.

Am Ende muss mich die PS4 nur überzeugen und das wird sie auch.

 

Vor allem:

Um es kurz zu machen:

 

und dann folgt nochmal doppelt so viel wie vorher ^^

Bearbeitet von Buzz1991
Link zu diesem Kommentar
Auf anderen Seiten teilen

Wie kann man Zahlen eigentlich nur so durcheinanderwürfeln?

 

PS4 GPU (only):

1,843 TeraFlops Shader-Leistung

 

PS4 CPU:

@ 1,6 GHz => 102,4 GFlops (0,1024 TeraFlops)

@ 2 GHz => 128 GFlops (0,128 TeraFlops)

 

Der Cell liefert 230,4 GFlops @ 3,2 GHz (das aktuelle Taktpotenzial liegt bedeutend höher, ab 65 nm sind 4 GHz drin, unter 28 nm [PS4] entsprechend noch mehr).

Zieht man zwei SPEs ab (zwecks Ausbeute und fürs OS) bleiben in der PS3 genau 179,2 GFlops für Spiele oder sonstige Anwendungen übrig.

 

Theoretisch liegt das über der PS4-CPU Lösung, und Cell dürfte diesen Vorteil bei eng eingrenzbaren Algorithmen und effizienter Programmierung auch voll ausspielen können (Simulationen jeder Art [also Physik], Sound-Berechnungen, Grafik/3D-Rendering, usw.).

Bei "branchy" Integer-Code müsste die Sache hingegen anders aussehen.

 

Um es kurz zu machen:

Cell ist zwar bei spezielleren Anwendungen (von Physik bis hin zu Grafikberechnungen) äußerst performant, aber nur bedingt "general-purpose".

Jaguar glänzt allerdings gerade bei Letzterem (modernes Out-of-Order, kurze Pipeline, dicke x86-Befehlsätze und ein hoher IPC).

 

Wenn man so will, sollte man die Jaguar-Performance als reine General-Purpose-Leistung ausschließlich mit dem Cell-PPE (25,6 GFlops) vergleichen. Und hier wäre der Zuwachs enorm.

 

 

[ganz so einfach ist die Sache natürlich nicht: die 360 kommt bei 3 PPEs und zusätzlichen FPUs pro Kern auf 115 GFlops. Und ist damit längst nicht auf PS4-CPU-Niveau, da der IPC in der Praxis weit niedriger liegt (ergo sind die SPEs wesentlich schneller, das nur mal zur Geschichte: keine echten Kerne, usw.)]

 

 

Die SPE-Leistung (152,6 GFlops) ersetzt in der PS4 GPGPU. Ursprünglich waren dafür 4 der 18 Cluster fest eingeplant, mittlerweile erlaubt Sony aber die freie Verwendung der Shader.

Wenn wir weiterhin mit 4 Compute-Units rechnen, wären das über 400 GFlops Rohleistung der Grafikkarte für Physik & Co., und damit wieder ein enormer Zuwachs zur PS3-Lösung.

Wohlgemerkt floß in die Shader-Architektur der PS4 Cell Know-How mit ein: Um die GPU besser auf Compute zu trimmen, sind sogenannte ACEs verbaut, zudem hat man die Shader-Cluster dem SPUR-System des Cell angelichen.

 

Insofern ist der Vergleich PS4-GCN und den Cell-SPEs gar nicht abwegig, steckt immerhin teils dieselbe Technik drin.

Und wohlgemerkt ist GPGPU auf PS4 äußerst performant, da CPU und GPU auf einer einzigen Die verschmolzen sind (APU) und einen gemeinsamen Speicheradressraum nutzen. :zwinker:

 

 

 

Bei der PS4 ist kein Kern für irgendwas reserviert, hier kommt die volle Leistung Spielecode zugute; Gameplayaufnahmen, Download-Anwendungen, usw. übernimmt ein dedizierter Chip.

 

Tatsächlich wird die PS4-CPU von zusätzlicher fixed-function Hardware massiv entlastet. Verbaut sind:

 

Audio Processor (ACP)

Video encode and decode (VCE/UVD) units

Display ScanOut Engine (DCE)

Zlib Decompression Hardware

 

Selbstverständlich wäre das bei der PS3 genauso möglich gewesen. Man hätte eben nur entsprechende Ressourcen dafür von Anfang an reservieren müssen (wenn das OS-SPE noch Leistung übrig hätte, fehlt vor allem noch aussreichend verfügbarer RAM, dank dem ja noch nicht einmal Voice-Chat drin sein soll).

 

 

 

Jaguar ist nicht Low-End sondern Low-Power!

 

Der IPC liegt auf Steamrollerniveau (nebenbei wollte man ursprünglich zwei Steamroller-Module [bulldozer Quad-Core] als CPU verbauen, ist dann aber auf ein 8-Core Jaguar umgestiegen) und die CPU wird zusätzlich durch dedizierte Chips (Sound-Prozessor, Dekompressions-Hardware, ...; siehe oben) entlastet.

 

Das wäre bei 2 GHz, 8 Kernen (mit 128 Bit ALU) schon verdammt ordentlich und performanter als ein Quad-Core Deskop-Bulldozer oder Intel-Maschinen bei ~ 3 GHz Taktung. (GPGPU nicht mit eingerechnet)

 

 

 

Als ob du den Preis der Geforce3 tatsächlich in Erinnerung hättest :facepalm:

Mag schon sein, dass die Zahl daneben liegt. Titan, NV47 und die Konsolen sind allerdings richtig beziffert.

Und - worauf ich eigentlich hinauswollte - ist Titan auch nur in Nvidias feuchten Träumen um Faktor 3 schneller als PS4.

 

Allein zwischen der Radeon 7850 und Titan liegen gerade einmal gut Faktor 2.

 

Man man man ... DANKE.

Wie wärs wenn du mal uns allen das erklärst mit der PS4 Technik und das mit High- End Pcs vergleichst. Ist interessant das von einem zu lesen der was kann. :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Danke für eure Antworten und besonders für Hunters (sehr) ausführliche Antwort.

 

Die Kernaussage lautet also: Cell ist für speziellere Aufgaben besser als die CPU der PS4, aber im Allgemeinen leistet die CPU der PS4 bessere Dienste, oder wie verstehe ich das?

Ist für mich alles fachchinesisch, aber hat mich eben interessiert :D

 

Stärker als ein Quad-Core-Desktop-CPU? Das wäre ja echt stark und würde dann hinkommen, wenn die PS4 CPU Low-End sein soll (laut nVidia).

Oder habe ich diese Aussage jetzt aus dem Zusammenhang gerissen?

 

Ich weiß nur:

 

RAM: High-End

GPU: High-Middle?

CPU: Low End?

 

@Andreas86:

 

Mit jedem Beitrag, den ich von Hunter lese, fange ich an mehr zu verstehen.

Seit 2 Wochen weiß ich, was eine "Die" ist und denke nicht mehr automatisch ans "Sterben" :D

 

Der Rest ist für mich auch Fachchinesisch, aber so ist das eben bei Expertengerede.

Zumindest glaube ich, dass da jemand vom Fach redet, aber was weiß ich schon.

Am Ende muss mich die PS4 nur überzeugen und das wird sie auch.

 

Vor allem:

 

und dann folgt nochmal doppelt so viel wie vorher ^^

War nicht böse gemeint. Bin nur echt beeindruckt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Als ob du den Preis der Geforce3 tatsächlich in Erinnerung hättest :facepalm:

Mag schon sein, dass die Zahl daneben liegt. Titan, NV47 und die Konsolen sind allerdings richtig beziffert.

Und - worauf ich eigentlich hinauswollte - ist Titan auch nur in Nvidias feuchten Träumen um Faktor 3 schneller als PS4.

 

Allein zwischen der Radeon 7850 und Titan liegen gerade einmal gut Faktor 2.

 

Zu der Zeit habe ich meinen ersten PC bekommen. Deshalb kann ich mich noch trotz meines damals geringen Alters, daran erinnern. Manche haben eben ein schlechteres, andere ein besseres Erinnerungsvermögen.

 

Es kommt darauf an welche Sachen man vergleicht. Die Compute Performance der GTX680 ist schon fast doppelt so hoch wie die der HD 7850. Es kommt nicht nur auf die Teraflops an.

Die GTX 680 läuft bei Spielen obwohl sie 3,1 Teraflops hat besser als eine HD 7970 mit 3,7 Teraflops.

 

Zum Prozessor. Für Spiele sind starke wenig-Kerner besser als schwache viel-Kerner. Videospiele sind schwer zu Parallelisieren. Parallelität kann sogar zu einen Geschwindigkeitsverringerung führen, da die ganze Organisation des Spiels komplexer wird. Das liegt daran, dass ein Prozessorkern ausharren muss bis der andere Kern seinen Vorgang beendet hat, da zwei CPU Prozessorkerne nicht dazu in der Lage sind, synchron auf eine Ressource zuzugreifen.

Bearbeitet von Warhammer
Link zu diesem Kommentar
Auf anderen Seiten teilen

Es kommt darauf an welche Sachen man vergleicht. Die Compute Performance der GTX680 ist schon fast doppelt so hoch wie die der HD 7850. Es kommt nicht nur auf die Teraflops an.

Die GTX 680 läuft bei Spielen obwohl sie 3,1 Teraflops hat besser als eine HD 7970 mit 3,7 Teraflops.

 

Also a) hatte der Vergleich von 3D-Center mit theoretischer Floating-Point Leistung rein gar nichts am Hut* und b) ist die erste Kepler-Generation verdammt schwach in Sachen Compute/GPGPU** (insbesondere im Vergleich zu den AMD-Karten).

 

* "Die angegebenen Prozentwerte stellen die gemittelte Performance gemäß dem 3DCenter Performance-Index dar." Ein schneller Performance-Überblick - 3D-Center

** Nvidia Kepler GPUs - back to games, away from compute?

 

Gerade die Tatsache, dass Nvidia die Compute-Performance beim GK104 vergleichweise vernachlässigt hat (damit Transistoren einsparen) und aufgrund der geringen Chipgröße den Takt hochziehen konnte, macht die GTX 680 (3,54 Milliarden Transistoren) im Spielebereich überhaupt konkurrenzfähig zur Radeon 7970 (4,3 Milliarden Transistoren).

 

 

"Daß der GK104-Chip trotzdem "mit den Großen mitspielen kann", verdankt dieser Chip maßgeblich zwei Punkten: Erstens einmal hat AMD bei seiner kompletten Radeon HD 7000 Serie doch nur eher maßvoll die Performance-Möglichkeiten der 28nm-Fertigung ausgespielt – und zweitens konnte sich nVidia beim GK104-Chip viel von dem für GPGPU benötigten Einheiten und Transistoren sparen, welche AMD beim R1000/Tahiti und nVidia beim GK110 verbauen müssen." Quelle

 

 

Die Compute-Leistung ist jedoch vergleichsweise bescheiden (in Sachen GPGPU deutlich niedriger als die Radeon 7970, hier mal ein Extrem-Beispiel) :lol:

 

Die PS4 GPU dürfte in Sachen Compute-Performance jedenfalls eine Klasse darüber spielen (GCN2-Architektur, 8 ACEs - in der Radeon 7970 sind nur 2 verbaut, und aktuell weder unter DirectX noch OpenGL überhaupt ansprechbar -, sowie weitere Sony spezifische Modifikationen (Nachahmung des SPURS von Cell), ganz abgesehen von der Umgebung drumherum: Unfied RAM mit Unfied Address Space [HSA], die gameplayrelevante Physik per GPGPU überhaupt erst performant gestaltet und sich den gesamten Copy-Overhead spart, aber das bete ich jetzt auch schon zum fast zehnten Mal herunter).

 

PS: FLOPs lassen sich seit GCN (1D-Shader statt VLIW4) bei AMD und Kepler (HotClock-Feature entfällt) bei Nvidia wieder hervorragend vergleichen. :) Der Rest ist ehr eine Treibergeschichte.

 

Zum Prozessor. Für Spiele sind starke wenig-Kerner besser als schwache viel-Kerner. Videospiele sind schwer zu Parallelisieren. Parallelität kann sogar zu einen Geschwindigkeitsverringerung führen, da die ganze Organisation des Spiels komplexer wird. Das liegt daran, dass ein Prozessorkern ausharren muss bis der andere Kern seinen Vorgang beendet hat, da zwei CPU Prozessorkerne nicht dazu in der Lage sind, synchron auf eine Ressource zuzugreifen.

 

Grundsätzlich ist das richtig, Parallelisierung bringt meist einen gewissen Overhead mit sich (habe ich in einer Diskussion mit Biohazard auch bereits angesprochen).

Die Begründung ist allerdings falsch: CPU-Kerne (solange wir nicht gerade von Bulldozer mit "shared ressources" sprechen) müssen prinzipiell nur auf eine Ressource gleichzeitig zugreifen und das ist Speicher (ob nun vom RAM oder SRAM-Cache ist vollkommen Wurst).

Selbstverständlich kann das synchron ablaufen und stalled deshalb nicht die restlichen Cores :facepalm:

Beim Cell haben First-Party-Entwickler es ja wunderbar hinbekommen nahezu 100% der CPU-Zeiten dauerhaft zu belegen.

 

Die (Haupt-)Probleme bestehen darin, dass einerseits der Performance-Gewinn mittels Parallelisierung durch den notwendigen sequenzielle Ablauf beschränkt bleibt (Amdahl's law), gegenseitige Abhängigkeiten einzelner Prozesse die Sache verkomplizieren können (Berechnung A benötigt Ergebnis von Rechnung B) und hochparallelisierbare Algorithmen ohnehin die GPU übernimmt.

Laut Cerny waren jedoch 4 bis 8 Kerne Wunsch der Entwickler-Community. Hinzu kommt, dass in einer Konsolenumgebung Multi-Cores vergleichweise gut ausgenutzt werden können und Entwickler seit der CurrentGen bereits Übung darin haben (die PS3 hatte 7-8, die 360 3-6 CPU-Threads).

 

Deshalb bin ich guter Dinge, dass ein Octa-Core Jaguar die leistungsfähigere Lösung gegenüber zwei Steamroller-Modulen darstellt (die hatte Sony gemäß VGLeaks anfänglich auch noch vor zu verbauen, und bei Steamroller wäre wohl keiner auf die Idee gekommen nach LowEnd-CPU zu schreien).

Bearbeitet von Hunter93
Link zu diesem Kommentar
Auf anderen Seiten teilen

  • Foozer hat Thema abgepinnt

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden



  • Beiträge

    • Ich werde versuchen mich nicht zuuu sehr von Eve ablenken zu lassen. 😅 Bin aber selber gespannt was da auf mich zukommt, denn ich möchte unbedingt(!) das Stellar Blade ein Erfolg wird. 🙂 Ich würde es dem Studio echt gönnen.  Das ist schon seit 2017, also als Nier Automata erschien her, dass ich sowohl auf Protagonistin als auch Hauptspiel so geil bin. 😂 Werde aber selbstverständlich auch zur Demo meine Eindrücke ehrlich und hoffentlich nicht allzu sehr sabbernd wiedergeben. 😅  
    • Ich benutze vorwiegend das Katana. Als Zweitwaffe das Odachi. Als Schusswaffe, je nach Situation entweder ein Gewehr (wenn ich auf Stealth pfeife...) oder wenn's lautlos sein soll ein Bogen.  Wo kann ich eigentlich ein Holzschwert kaufen? Hatte meines verkauft. Und wenn ich schon lese: "Wird für eine Mission gebraucht...etc" dann sollte ich mir lieber ein neues besorgen. 😅 Hat schon jemand die Trainings-Minispiele absolviert? (Gleitflug, Bogen zu Pferd und Schießen)  Wie fandet ihr die? Ich fand dass die Schießen-Herausforderung später echt schwer wird. Habe soweit aber alle meisterlich geschafft. 
    • Guten Morgen🥱 Dann wünsche ich dir weiterhin viel Spaß in dem Spiel und mit dem Schwierigkeitsgrad. Respekt wenn du es dann bis zum Ende durch ziehst. 👍 Ich habe mich nicht so sehr ins Kampfsystem rein gefuchst. Deswegen gebe ich mich auch mit dem niedrigsten Schwierigkeitsgrad zufrieden. Bin zur Zeit Spielerstufe 16. Keine Ahnung welches Level das sein soll. 😅
×
×
  • Neu erstellen...