Zum Inhalt springen

PlayStation®4™


Cloud

Empfohlene Beiträge

Einfacher als mit den Worten "Transistor" und "Flipflop" kann man Rechner, Speicher und Mikroprozessoren leider nicht erklären. Ich habe ja Links zu Wikipedia eingefügt; die Artikel zu Transistor und Flipflop sind wirklich ausführlich. Und es hat schon einen Grund, warum man das nicht in der 6. Schulklasse lernt, sondern erst in der Berufsausbildung oder im Studium (ich sogar erst im 3. oder 4. Semester an der Uni): Es ist nunmal nicht einfach zu verstehen. :ok:

 

Schade.

 

Hast du vielleicht nen guten vergleich? der es vielleicht verdeutlichen kann?

 

@Buzz

 

ich auch, sowas wie dokus finde ich immer hoch interessant, sowas gibt es voll oft übe den weltraum, aber leider keine für computer.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wenn jemand mal eine 2-stündtige Doku dazu machen würde, ich würde sofort die DVD/Blu-ray kaufen :D

 

Leider erscheint dieses Buch erst im Oktober 2014:

 

http://www.amazon.de/Elektrotechnik-f%C3%BCr-Dummies-Fur/dp/3527705554/ref=pd_sim_eb_4

 

Es wäre wohl genau das richtige für Euch :D

 

Die englische Ausgabe gibt es schon:

 

http://www.amazon.de/Electronics-For-Dummies-UK-Edition/dp/0470681780/ref=sr_1_1?ie=UTF8&qid=1365074364&sr=8-1&keywords=transistor+for+dummies

 

Schade.

 

Hast du vielleicht nen guten vergleich? der es vielleicht verdeutlichen kann?

 

Leider nein. Das ist so elementar, da kannst Du mich auch gleich bitten, Dir Feuer, Wasser, Luft oder Erde zu erklären :D

Link zu diesem Kommentar
Auf anderen Seiten teilen

Leider erscheint dieses Buch erst im Oktober 2014:

 

http://www.amazon.de/Elektrotechnik-f%C3%BCr-Dummies-Fur/dp/3527705554/ref=pd_sim_eb_4

 

Es wäre wohl genau das richtige für Euch :D

 

Die englische Ausgabe gibt es schon:

 

http://www.amazon.de/Electronics-For-Dummies-UK-Edition/dp/0470681780/ref=sr_1_1?ie=UTF8&qid=1365074364&sr=8-1&keywords=transistor+for+dummies

 

 

 

Leider nein. Das ist so elementar, da kannst Du mich auch gleich bitten, Dir Feuer, Wasser, Luft oder Erde zu erklären :D

 

Schade, dann freu ich mich mal auf das Buch, vielleicht kann ja doch noch jemand helfen. hab auch schon überlegt im Technik Bereich nach zufragen, will aber auch nicht extra nen Thread öffnen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also a) hatte der Vergleich von 3D-Center mit theoretischer Floating-Point Leistung rein gar nichts am Hut* und b) ist die erste Kepler-Generation verdammt schwach in Sachen Compute/GPGPU** (insbesondere im Vergleich zu den AMD-Karten).

 

Ich habe da keinen Vergleich von 3D-Center gesehen. Wo war da die Titan?

 

Die PS4 GPU dürfte in Sachen Compute-Performance jedenfalls eine Klasse darüber spielen (GCN2-Architektur, 8 ACEs - in der Radeon 7970 sind nur 2 verbaut, und aktuell weder unter DirectX noch OpenGL überhaupt ansprechbar -, sowie weitere Sony spezifische Modifikationen (Nachahmung des SPURS von Cell), ganz abgesehen von der Umgebung drumherum: Unfied RAM mit Unfied Address Space [HSA], die gameplayrelevante Physik per GPGPU überhaupt erst performant gestaltet und sich den gesamten Copy-Overhead spart, aber das bete ich jetzt auch schon zum fast zehnten Mal herunter).

 

Die Playstation 4 mag zwar eine gute Bandbreite, einen großen UMA Speicherpool, einige Fixed Function Units, einen geringeren Overhead und Vorteile bei der LibGCM API und eine gute HSA APU mit sehr niedrigen Latenzen haben. Aber es fehlt vor allem für die Zukunft an Rohleistung und die macht am Ende am meisten aus. Das werden wir dann auch feststellen.

 

PS: FLOPs lassen sich seit GCN (1D-Shader statt VLIW4) bei AMD und Kepler (HotClock-Feature entfällt) bei Nvidia wieder hervorragend vergleichen. :) Der Rest ist ehr eine Treibergeschichte.

 

Das kann nicht sein da eine GTX 680 mit 3,1 Teraflops in Videospielen eine bessere Performance aufweist als eine HD 7970 mit 3,7 Teraflops. Das gleiche gilt für den anderen Karten.

 

Grundsätzlich ist das richtig, Parallelisierung bringt meist einen gewissen Overhead mit sich.

Die Begründung ist allerdings falsch: CPU-Kerne (solange wir nicht gerade von Bulldozer mit "shared ressources" sprechen) müssen prinzipiell nur auf eine Ressource gleichzeitig zugreifen und das ist Speicher (ob nun vom RAM oder SRAM-Cache ist vollkommen Wurst).

Selbstverständlich kann das synchron ablaufen und stalled deshalb nicht die restlichen Cores :facepalm:

Beim Cell haben First-Party-Entwickler es ja wunderbar hinbekommen nahezu 100% der CPU-Zeiten dauerhaft zu belegen.

 

Die (Haupt-)Probleme bestehen darin, dass einerseits der Performance-Gewinn mittels Parallelisierung durch den notwendigen sequenzielle Ablauf beschränkt bleibt (Amdahl's law), gegenseitige Abhängigkeiten einzelner Prozesse die Sache verkomplizieren können (Berechnung A benötigt Ergebnis von Rechnung B) und hochparallelisierbare Algorithmen ohnehin die GPU übernimmt.

Laut Cerny waren jedoch 4 bis 8 Kerne Wunsch der Entwickler-Community. Hinzu kommt, dass in einer Konsolenumgebung Multi-Cores vergleichweise gut ausgenutzt werden können und Entwickler seit der CurrentGen bereits Übung darin haben (die PS3 hatte 7-8, die 360 3-6 CPU-Threads).

 

Deshalb bin ich guter Dinge, dass ein Octa-Core Jaguar die leistungsfähigere Lösung gegenüber zwei Steamroller-Modulen darstellt (die hatte Sony gemäß VGLeaks anfänglich auch noch vor zu verbauen, und bei Steamroller wäre wohl keiner auf die Idee gekommen nach LowEnd-CPU zu schreien).

 

Wir werden es sehen ob man ohne einen Performanceverlust die 8 Prozessorkerne der Playstation 4 zu 100% bei einem Spiel ausnutzen wird. Die Nutzung der Architektur, die Compiler Entwickler, die Advanced Vector Extensions Befehle beispielsweise beeinflussen die Leistungsfähigkeit des PS4-Prozessors. Vielleicht finden sie eine Möglichkeit. Aktuell ist es jedoch noch nicht der Fall.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe da keinen Vergleich von 3D-Center gesehen. Wo war da die Titan?

 

Das war verlinkt unter "Faktor 2". Titan steht unten im Text und ist mit einem Performance-Index von 480% angegeben.

 

Die Playstation 4 mag zwar eine gute Bandbreite, einen großen UMA Speicherpool, einige Fixed Function Units, einen geringeren Overhead und Vorteile bei der LibGCM API und eine gute HSA APU mit sehr niedrigen Latenzen haben. Aber es fehlt vor allem für die Zukunft an Rohleistung und die macht am Ende am meisten aus. Das werden wir dann auch feststellen.

 

Das hat man ja an der PS3 gesehen (Stichwort Rohleistungsvorteil des RSX) :lol:

Vor allem wollten Entwickler bereits für die CurrentGen-Hardware mehr Bandbreite und RAM als damaligen High-End-Deskop-PCs überhaupt zur Verfügung stand.

Zukunftstaugleichkeit hat nichts mit Brutal-Force sondern der Zusammensetzung zu tun: 10 zusätzliche Compute Units (oder wie viel mehr man auch immer bei nur 4 GB GDDR5 unterbringen kann), hätten die technische Lebenszeit gegenüber 8 GB GDDR5 deutlich verkürzt.

 

Daneben:

- muss sich wohl weder die PS4 noch Durango an Deskop-PCs messen, da dessen Bedeutung als Spieleplattform schon lange zu wünschen übrig lässt.

- und allein der LowLevel-Zugriff + die Programmierung auf feste Specs etwa + Faktor 2 an Rohleistung raushaut (und die PS4 damit auch längst nicht mehr schlecht dasteht)

 

Das kann nicht sein da eine GTX 680 mit 3,1 Teraflops in Videospielen eine bessere Performance aufweist als eine HD 7970 mit 3,7 Teraflops. Das gleiche gilt für den anderen Karten.

 

Ist wie gesagt eine Treibergeschichte. Nvidia kann auch nicht zaubern, der niedrigere Transistorencount macht sich spästestens beim Compute deutlich bemerkbar.

 

Wir werden es sehen ob man ohne einen Performanceverlust die 8 Prozessorkerne der Playstation 4 zu 100% bei einem Spiel ausnutzen wird. Die Nutzung der Architektur, die Compiler Entwickler, die Advanced Vector Extensions Befehle beispielsweise beeinflussen die Leistungsfähigkeit des PS4-Prozessors. Vielleicht finden sie eine Möglichkeit. Aktuell ist es jedoch noch nicht der Fall.

 

Was soll das bitteschön mit Compiler oder AVX zu tun haben?

Bereits beim Cell können die einzelnen Core-Zeiten nahezu vollständig belegt werden.

Möglich ist das im Hier und Jetzt (siehe Uncharted 2 oder Killzone 3) :zwinker:

Link zu diesem Kommentar
Auf anderen Seiten teilen

@fortuna:

 

Sehe ich genauso!

Bin auch überfragt, wie z.B. ein Computer überhaupt irgendwas ausrechnen konnte.

Diese ganze Mikrolektronik ist für mich ein Buch mit sieben Siegeln.

Zauberei in meinen Augen, aber faszinierend.

Krass, wie sich das weiterentwickelt hat.

Super nett von dir, aber ich bin immernoch genauso schlau wie vorher.

Deswegen sagte ich, in ganz einfach worten, nicht ausschweifend und kein fach chinesisch.

Ich versuch das mal unabhängig von Hardwarebegriffen wie wir zB die 1, 2, 3, 4 von Buzz angezeigt bekommen.

Das alles beruht ja auf dem an/aus Prinzip. 1/0.

Zeichen (zB eine 1) beruhen auf dem ASCII-Satz - ein festgelegter Satz der Zahlen Zeichen zuweist. Die 1 ist i.d.F. die 049.

Die 049 stellt man dann mit 1/0 - also als Binärcode. Wie Binär funktioniert ist ganz leicht, kann man überall nachlesen. 049 wäre demnach in Binär 00110001 - dieser Zustand wird dann in der Hardware durch Spannungen erzeugt und schon wird eine 1 auf den Bildschirm gezaubert.

 

Mit dem selben Prinzip werden dann auch andere Sachen angezeigt. Bei einem Bild zB angezeigt welche Dioden leuchten müssen und wie stark.

 

Mehr kann ich aber auch nicht, aber so funktioniert im Wesentlichen die Anzeige von Sachen, zumindest habe ich es so in der Schule gelernt. Darüber hinaus bin ich auch überfragt, Hardware ist nicht so meins

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich versuch das mal unabhängig von Hardwarebegriffen wie wir zB die 1, 2, 3, 4 von Buzz angezeigt bekommen.

Das alles beruht ja auf dem an/aus Prinzip. 1/0.

Zeichen (zB eine 1) beruhen auf dem ASCII-Satz - ein festgelegter Satz der Zahlen Zeichen zuweist. Die 1 ist i.d.F. die 049.

Die 049 stellt man dann mit 1/0 - also als Binärcode. Wie Binär funktioniert ist ganz leicht, kann man überall nachlesen. 049 wäre demnach in Binär 00110001 - dieser Zustand wird dann in der Hardware durch Spannungen erzeugt und schon wird eine 1 auf den Bildschirm gezaubert.

 

Mit dem selben Prinzip werden dann auch andere Sachen angezeigt. Bei einem Bild zB angezeigt welche Dioden leuchten müssen und wie stark.

 

Mehr kann ich aber auch nicht, aber so funktioniert im Wesentlichen die Anzeige von Sachen, zumindest habe ich es so in der Schule gelernt. Darüber hinaus bin ich auch überfragt, Hardware ist nicht so meins

 

Bei den Wörtern "binär" und "ASCII-Satz" leuchtet etwas ganz schwach in meinem Gedächtnis und auch das mit "049 wäre demnach in Binär 00110001" sagt mir etwas. Ist aber zu lange her, hatte ich aber mal im Informatik-Unterricht am Gymnasium. Das ist aber schon 5-6 Jahre her.

 

Müsste ich mich erst wieder reinlesen :D

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich hab mir die letzte 2-3 Seiten durchgelesen und ich muss sagen ... WHAT? Ich komm nicht mehr hinterher! Was sich Warhammer und Hunter um die Ohren hauen ist mir zu "fachchinesisch"! :trollface:

Geht mir ganz genau so. Das ist echt der Wahnsinn. Bin total beeindruckt von den beiden. Ich ziehe meinen Hut vor euch zwei.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...