PS5: Patent deutet auf neue Technik zur Bildrekonstruktion hin

Kommentare (43)

Ein aufgetauchtes Patent von Sony deutet auf eine neue Technologie zur Bildrekonstruktion hin, die eventuell bei der PS5 eingesetzt werden könnte. Hierbei können Spielszenen dank des Einsatzes von künstlicher Intelligenz in Echtzeit gerendert werden.

PS5: Patent deutet auf neue Technik zur Bildrekonstruktion hin
Die DLSS 2.0 Technologie kommt unter anderem in "Death Stranding" zum Einsatz.
Bildquelle: NVIDIA GeForce

Im Internet ist vor kurzem ein neues Patent aufgetaucht, das auf eine neue Grafik-Technologie hindeutet. Dieses ist höchstwahrscheinlich für Sonys Next-Gen-Konsole geplant. Anscheinend möchte Sony damit eine Antwort auf Nvidias DLSS 2.0-Technologie liefern, deren Abkürzung für Deep Learning Super Sampling steht. Dabei handelt es sich um ein neuronales Netz für Deep Learning.

Eventuell könnte damit auch das sogenannte Checkerboard-Rendering verbessert werden, mit der Spiele in 4K-Auflösung dargestellt werden können, ohne in dieser hohen Bildauflösung überhaupt gerendert zu werden. Diese Technologie wird beispielsweise bei „Horizon Zero Dawn“ eingesetzt.

Bei dieser neuen Technologie werden durch ein KI-Programm gewonnene Daten verwendet, um reproduzierte Bilder zu erzeugen. Dadurch müssen sie nicht mehr auf klassischem Wege generiert werden, wodurch Ressourcen eingespart werden können. Dank dieser Technik könnten PS5-Spiele noch hochwertiger aussehen und eine bessere Performance erreichen.

DLSS 2.0 nur für PC verfügbar

Die erste Version von DLSS konnte die Erwartungen leider nicht erfüllen, wohingegen der Nachfolger beeindruckende Ergebnisse liefert. Allerdings ist diese nicht auf den Konsolen verfügbar, sondern nur auf PC’s, die über eine Grafikkarte mit Raytracing-Fähigkeiten verfügen.

DLSS 2.0 ist im Grunde genommen eine Technik, die schon seit Jahren in unzähligen Filmen eingesetzt wird. Bei Videospielen war der Einsatz solch einer Technologie bis dahin allerdings nicht möglich. In aktuellen Titeln wie „Death Stranding“ könnt ihr sehen, was dank DLSS 2.0 möglich ist: Zuvor verpixelte Bilder werden deutlich schärfer dargestellt.

Neben einer höheren Bildqualität verbessert sich zusätzlich die Performance. Szenen eines Spiels werden in einer bestimmten Auflösung gerendert, die im Anschluss rekonstruiert werden und dadurch in 4K-Auflösung abgespielt werden können.

Zum Thema

Bei dem erwähnten Sony-Patent könnte es sich vom Prinzip her um die gleiche Technologie handeln, was aus grafischer Sicht eine Revolution wäre. Da es sich hierbei aber nur um ein Patent handelt, hat dies nicht zwingend etwas zu bedeuten. Es bleibt offen, ob die PS5 über solch eine Technik verfügen wird.

Weitere Meldungen zu .
(*) Bei Links zu Amazon, Media Markt, Saturn und einigen anderen Händlern handelt es sich in der Regel um Affiliate-Links. Bei einem Einkauf erhalten wir eine kleine Provision, mit der wir die kostenlos nutzbare Seite finanzieren können. Ihr habt dabei keine Nachteile.

Kommentare

  1. pasma sagt:

    Was sollen hier die ganze Zeit PlayStation 5 News? Ich dachte, das ist hier eine PlayStation 3 Seite. 😀 😉

  2. mic46 sagt:

    ***Deutschlands größtes PlayStation-Magazin.***
    Man sollte auch das kleingedruckte Lesen, bevor man ein Witz macht.
    So verpufft er nur @pasma.

  3. pasma sagt:

    I know^^ Aber PlayStation schaut auch mal zur Konkurrenz.

    Diese Seite wär trotzdem auch ohne PS5/PS4 News von Existenz, wenn du mich verstehst. 🙂

    Nun aber zum Thema: 4K Checkerpoint: Heißt das, man bekommt wieder keine native 4K Unterstützung?

  4. pasma sagt:

    @mic46 also nur PSOne, whut?

  5. deepWang sagt:

    Craig aus Halo Craigfinite gefällt das.

    Ganz klar.

  6. Kalim1st sagt:

    DLSS 2.0 ist eine absolute Revolution.
    Muss man ja auch mal sagen.
    Das was 3.0 können soll, wird den Markt verändern.

    Das Problem bei den neuen Konsolen ist halt AMD.
    AMD hat keine gute Antwort auf DLSS und deshalb muss Sony da selbst ran.

    DOCH Nvidia hat mehr als 5 Jahre gebraucht mit eigener Serverstruktur um die KI dahin zu bringen wo sie nun ist.
    Das wird Sony nicht mal eben aufholen und Nvidia schläft ja auch nicht in der Zeit.

    Und wir reden hier nicht von halbgar, sondern von einer Technik die in 1089p geredet wird und besser aussieht als echtes natives 4k.

    Stellt Euch vor was die Konsolen da gezaubert hätten.

    Ich denke es wäre besser gewesen mit Nvidia zu dealen als mit AMD am Ende.

    Preis hin oder her.

  7. pasma sagt:

    @Kalim1st Ok, wenn das besser aussieht wie natives 4K, dann glaube ich das dir. 😀

  8. Hippiekiller sagt:

    Ein richtiger Zauberkasten mit einer Zauber SSD die Playstation. Wooowwwww....

  9. Acid187 sagt:

    Das wäre natürlich cool wenn sowas auch von Sony für PS5 kommt, MS hat sowas ja mit DirectML auch für die SeriesX am Start. Zur den Kommentar im Verlauf, ich bezweifle das es besser aussieht als Nativ, aber die Preis/Leistung Bilanz ist extrem gut. Sprich für den Preis einer kleinen Unschärfe ein System zu 60FPS anstelle von 30FPS bewegen, ist schon eine Hausnummern und bietet halt weiter Möglichkeiten zur Nutzung.

  10. usp0nly sagt:

    Ich habe woanders auch gelesen das es besser ist als natives 4k und Leistungssparender, also das von nvidia (dlss 2)

  11. tonyvercetty sagt:

    Natives 4K mit ordentlicher Kantenglättung sieht besser aus als DLSS, braucht aber mindestens ne 2080ti bei vielen Spielen um mit Ach und Krach 60 FPS zu schaffen.
    DLSS sieht wie weichgezeichnetes 4K ohne kantenglättung finde ich..

  12. redeye4 sagt:

    Ja, Digital Foundry hatte auch mal was darüber gebracht und die KI ergänzt Details aus ihrem Gelernten welche gar nicht da sind. Dadurch wirkt es detaillierter. Und das Beste ist der Performancegewinn. Für die Zukunft wäre das super. Dann muss nicht immer so viel Rechenleistung für die erhöhten Auflösungen geopfert werden und kann in andere Aspekte investieren.

  13. Waltero_PES sagt:

    Craig the Brute. Hätte wissen müssen, dass der damit was zu tun hat.

  14. big ed@w sagt:

    Es wäre schon seltsam wenn die Kopie mit 1/4 Auflösung nach der Aufhübschung besser aussehen würde als original 4K.
    Das könnte ich mir bestenfalls vorstellen ,wenn von 2K auf 8K hochgerechnet wird
    und das Bild letztenendes auf einem 4K TV knackiger daherkommt als natives 4K.

    Ist vermutlich Marketinggeblubber.
    Wenn aber 90-95% der original 4K Bildqualität erreicht werden u man im Gegenzug
    doppelte Frames u mehr Raytracing bekommt wäre es ein sehr guter Tausch
    bei minimalsten Einbussen.

  15. Acid187 sagt:

    @big ed@w

    Das wäre schon beachtlich, wenn es so wäre. Aus meiner Sicht bringt diese Technik sogar eine Gefahr für die Bildqualität mit. Das man die gewonnene Leistung für den Preis von etwas Unschärfe in Frames, Details und Raytracing usw. stecken ist natürlich ein Gewinn. Wenn man sich aber überlegt das bei einer Textur 3 von 4 Pixeln entfernt werden und durch einen schlauen Prozess basierend auf der Wahrscheinlichkeit wie diese Pixel aussehen müssten wieder 3 Pixel erzeugt werden, besteht die Gefahr das die Darstellung zu sauber und zu künstlich wird und uns dadurch Qualität und Realismus verloren geht. Was ist wenn diese Pixel Kratzer, Makel und andere Details an einer Rüstung oder einem Auto sind und der Prozess diese einfach nur durch saubere Pixel ersetzt....

  16. Evermore sagt:

    Die PS4 Pro ist fast vier Jahre alt. Natürlich entwickelt Sony seine eigene Technik weiter. Alles andere wäre echt seltsam. Die Checkerboard rendering Technik von Sony ist wenn ich mich nicht irre noch vor DLSS 1.0 erschienen. Ich finde Checkerboard macht aber echt schon einen guten Job. Egal ob Horizon, Spider Man, God of War oder oder... alle diese Spiele haben eine native Auflösung zwischen 1440p und 1800p und wirken mir der Checkerboard Technik absolut klar und nur selten erkennt man noch ein leichtes Kantenflimmern. Wenn das jetzt noch besser wird nimmt man das doch gerne mit Kusshand entgegen. ^^

  17. Jacksonaction sagt:

    Zweifelt noch jemand an die Überlegenheit der PS5?

  18. SlimFisher sagt:

    @Kalim1st

    Denk an die Worte von Mark Cerny "Collaboration was born!" Sicherlich hat man da etwas mit AMD entwickelt. Auf der anderen Seite kann Sony auch die Azure Infrastruktur nutzen und muss nicht selbst komplette RZs hochziehen. Klar,.die Software Lösung dahinter muss Sony vermutlich selbst entwickeltn aber ansonsten kann man etliche Quellen für Trainingsdaten etc. nutzen. Ich bin mal gespannt,wohin die Reise führt und leider habe ich DLSS bisher nur in Videos gesehen aber das wäre schon echt ein großer Schritt. Es ist eben ein großer Unterschied, ob ein Bild in 1080p oder 4k gerendert werden muss ( ich meine damit die Performanceanforderung)

  19. Saleen sagt:

    Ich würde nicht gleich von Überlegenheit sprechen sondern viel mehr von einer Technik, die definitiv clever konzipiert wurde.
    Wenn das tatsächlich in der PS5 Verwendung finden wird, dann ist das ein erheblicher Bonus.

  20. pasma sagt:

    Sorry, ich meinte natürlich Checkerboard. 😀

    Das wird vielleicht besser wie
    native 3840 × 2160 Pixel aussehen,
    aber nicht besser wie
    native 4096 × 2160 Pixel 😛

  21. Barlow sagt:

    Das Patent ist für Camera und Objekte bezogen und hat mit sehr großer Wahrscheinlichkeit nichts mit PS5 zutun

  22. Moonwalker1980 sagt:

    KaliMist: und du denkst dir natürlich sofort, halt, Sony hat jetzt erst die News über das Patent bekannt gegeben, somit hat Sony natürlich auch erst jetzt gerade mit der Entwicklung dieser Technik begonnen hat. Du Traumtänzer du... 😀 😀

  23. Kalim1st sagt:

    @Moonwalker1980

    Nein ganz so blauäugig natürlich nicht.
    Aber livedaten hat Nvidia zb von den Spielern jahrelang mit Einverständnis gesammelt.

    Und das fehlt Sony auf jeden Fall.
    Glaub mir eine KI zur Berechnung von Bildern zu entwickeln, daran scheitert AMD seit Jahren.

    Das ist nicht mal eben so gemacht.

    Das lustigste an der Sache ist, lasst mal die Switch Pro kommen, denn Nintendo hat Nvidia Hardware drin.

    Am Ende lacht der Dritte 😀

  24. deepWang sagt:

    Wie man auf der Failbox Show gesehen hat, hat Boresoft offenbar auch eine neue Technologie in die Series X integriert:

    CraigUltraHdIn720p

    Ganz klar.

  25. vangus sagt:

    Euer schwachsinniges natives 4K könnt ihr euch sonstwo hinstecken.
    Natives 4K könnt ihr in Halo Infinite bewundern... Dieser PR-Begriff sagt überhaupt nichts darüber aus, wie gut ein Spiel aussieht.
    Natives 4K ist die aller dümmste Ressourcen-Verschwendung....

  26. Banane sagt:

    Natives 4K ist das einzig wahre 4K.

    Checkerboard Rendering ist nur eine Notlösung wenn man keine ordentliche Hardware zur Verfügung hat.

  27. vangus sagt:

    @Banane

    4K ist nur ein Begriff, mit dem du um dich schmeißt. Guck dir doch die UE5-Demo nochmal an, die ist 1440p, total scharfe Texturen weit und breit, und dann guck dir Halo Infinite in 4K an. Wo ist da bitte der Vorteil deines "wahren 4K"?

  28. martgore sagt:

    Was nutzt 4k wenn du mangels guter hardware nicht genug Details zeigen kannst. Tetris auf dem Game Boy würde immer gleich gut ausschauen, egal welche Auflösung.

  29. Nathan Drake sagt:

    Kalim1st
    Sony sammelt seit PS3 Zeiten ebenfallys Spielerdaten (musst du zustimmen).

    Ich gehe schwer davon aus, dass Sony ein "Nachfolger" von Checkerboard bringt. Beim verbessern von niedrig aufgelöstem Material, ist Sony ebenfalls schon etliche Jahre dabei (vorallem bei ihren TVs und da gibt es software technisch keinen Besseren).

    Im allgemeinen hat Hardware eben immer (und das wird immer so bleiben) mit Limitationen zu kämpfen. Software hat dieses Problem nicht.

  30. Banane sagt:

    @vangus

    Halo ist ja kein gutes Beispiel. Das haben die halt vermurkst.

    Ich möchte gar nicht wissen wie z.Bsp. ein neues Crysis auf dem PC in nativen 4K aussehen wird.

    Aber wenn man das schlechteste Beispiel hernimmt, dann lässt sich eine native 4K Auflösung natürlich leicht schlecht reden.

    Mir ists aber sowieso noch egal, ich brauch nur native 1080p und 60fps, dann bin ich schon zufrieden.

  31. KoA sagt:

    @ Banane:

    „Natives 4K ist das einzig wahre 4K.“

    Wen sollte das noch ernsthaft interessieren, wenn für die Mehrzahl der Fälle kaum noch wirklich ein negativer Unterschied zu erkennen ist?
    Im Kern hat vangus doch recht. Solange die Hardware durch die Grafik der Spiele an ihre Grenzen zu bringen ist, ist es immer sinnvoller, mit den verfügbaren Ressourcen klug zu haushalten, anstatt eine native Darstellung erzwingen zu wollen, dafür jedoch auf höhere Details verzichten zu müssen. Letztendlich zählt allein das optische Endergebnis. Doch das ist bei einer nativen 4k-Bilderzeugung nicht automatisch und zwangsläufig immer besser.

    Ein gutes Beispiel ist hier u.a. Forza auf der XBox. Da wurde in der Vergangenheit grafisch geschummelt, was das Zeugs hergibt, aber so gut wie alle haben über das „geile Aussehen“ und die „hohe Grafik-Leistung“ des Spiels geschwärmt, obwohl da massiv getrickst wurde, um das grafische Erscheinungsbild des Spiels überhaupt ermöglichen zu können. Rein mit nativen Mitteln, ohne grafische Tricks und Kniffe, wäre das so keinesfalls zu bewerkstelligen gewesen.

  32. Banane sagt:

    @KoA

    Das mag ja alles sein, dennoch wird es nur verwendet weil eben noch nicht genug Ressourcen vorhanden sind.

    Hat man aber davon genug, ist es nicht mehr nötig Ressourcen einzusparen.
    Native Auflösungen sind nunmal das Non-plus Ultra, egal wo man sie einsetzt.

    Ich freu mich schon wenns mal auf Konsolen soweit ist. Aber dafür ist es mit der PS5 noch zu früh, da sie zu schwach ist. Somit muss Krüppel-checkerboard-4K herhalten. 🙂

  33. Banane sagt:

    @@KoA
    "Letztendlich zählt allein das optische Endergebnis."

    Wie bei einer Frau die nur mit Make Up oder auf Fotos mit Photoshop Top aussieht, nicht wahr?

    Ich finde es halt besser sie sieht von Natur aus, also "nativ" schon Top aus. 🙂

    Und darum gehts.
    Cheaten ist feige, schwach und man macht es nur wenn man sich nicht anders zu helfen weiß. 😉

  34. KoA sagt:

    @ Banane:

    „Das mag ja alles sein, dennoch wird es nur verwendet weil eben noch nicht genug Ressourcen vorhanden sind. Hat man aber davon genug, ist es nicht mehr nötig Ressourcen einzusparen.“

    Wer oder woran (bzw. unter welchen Umständen) entscheidet sich denn, wann genug Ressourcen für eine native 4k-Auflösung verfügbar sind? 😉

  35. Banane sagt:

    @KoA

    Woher soll ich das wissen, das müssen die Entwickler entscheiden.
    Aber kein Mensch spart irgendwo Ressourcen ein, wenns gar nicht notwendig ist.

  36. big ron sagt:

    @Banane
    Schau dir an, was DSLL 2.0 leistet. Dort werden teils sogar mehr Details dargestellt als in der nativen Auflösung. Mit Performancezuwachs und kaum bis keinen Einbußen bei der Bildqualität. Es wird nie "genug" Ressourcen geben, weil sich entwickelnde Technologie auch immer mehr Ressourcen benötigt. Native Auflösung ist doch irrelevant, wenn du dieselbe Qualität mit einer Technologie erreichst, die in geringerer Auflösung rendert und du die gesparten Ressourcen in Simulation und Berechnung von Physiken, Animationen, Effekte und KI verwenden kannst.

  37. big ron sagt:

    Microsoft hat DirectML (Direct Maschine Learning) in ihre Schnittstelle von DirectX integriert, was auch auf der Series X läuft. Das macht auch sowas, was DSLL 2.0 kann. Und kann zusätzlich auch für Physiken, KI usw genutzt werden. Mit welchen Ergebnissen, muss man halt sehen.

  38. KoA sagt:

    @ Banane:

    „[...] das müssen die Entwickler entscheiden.

    Eben. big ron hat das Ganze ja schon gut erläutert. Es bleibt stets eine Frage der jeweiligen willkürlichen Entscheidung. Deswegen lässt sich auch gar nicht wirklich festlegen, dass eine native (4k-)Bilderzeugung grundsätzlich immer das beste Ergebnis liefert. Die Grenze für native Grafikdarstellung wird immer von der verfügbaren Rechenleistung der benutzten Hardware bestimmt, aber zusätzlich eben auch noch von den jeweilig gewünschten Details beeinflusst, die im Gegensatz zur Hardware, aber schier unbegrenzt erweiterbar sind, da diese nicht eben an physikalische Grenzen gebunden sind, sondern eben gedanklich frei erweiterbar sind.
    Würde also immer die native Bilderzeugung favorisiert, hätte man in Sachen machbarer Realismus-Darstellung stets das optisch schlechtere Ergebnis hinzunehmen, entgegen der Bilderzeugung mittels technischer Tricks und Kniffe, die immer ein Mehr an Details ermöglichen, eben weil sie Ressourcen freimachen, die ansonsten für die native Darstellung draufgehen und somit eher unnötig verschwendet werden.

  39. Kalim1st sagt:

    @big ron
    Microsoft hat zwar eine tolle Cloud aber schlechte KI Software.
    Direct ML macht derzeit einen Scheiss.
    Das mit DLSS zu vergleichen ist schon fast... lächerlich.

    Kein Spiel unterstützt den Schrott.
    Zumindest nicht bemerkbar, Microsoft hat mehr Probleme mit Schnittstellen derzeit und hinkt Software technisch Valve Epic usw extrem hinter her.

    Dx12 kommt jetzt gerade mal nach zig Jahren in den Bereich, dass es gut läuft und jetzt kam schon das Dx12 Ultimate Update, somit ist das normale Dx12 in der Weiterentwicklung tot sein Vater.

    An Direct ML ist nicht einmal ansatzweise zu denken.

    Bis Ende des Jahres soll DLSS 3.0 kommen, sodass Spieleentwickler nurnoch 1 Knopf drücken müssen und all Ihre Software wird von der KI begleitet.

    Manche haben glaube ich noch nicht verstanden was das für all uns Spieler bedeutet.

    Und genau da ist es fraglich wieso Sony und Microsoft auf AMD gesetzt habenm

    AMD hatte große Sprüche geklopft und nicht abgeliefert.
    DLSS kam im letzten Jahr sehr stark und wurde plötzlich so gut.

    Die AMD Verträge waren alle davor und ich bin mir sicher, Sony und Microsoft beißen sich in den Arsch.

    Stellt Euch Naughty Dog mit DLSS vor.
    Ihr habt keine Ahnung was Ihr geboten bekommen würdet.

  40. big ron sagt:

    @Kalim1st
    DLSS ist keine Technologie, die nicht auch andere erreichen können. Was DirectML leisten kann, wenn sie das auf der Series X über die Jahre in ihren Spielen einsetzen, wird auch der Schnittstelle im Windows-Betriebssystem helfen, mehr Verbreitung in Spielen zu finden. Ich hab die Schnittstelle lieber im Betriebssystem, als gezwungen zu sein mir dafür extra eine extrem teure Grafikkarte eines Herstellers kaufen zu müssen.

    https://www.computerbase.de/2019-01/amd-directml-antwort-nvidia-dlss/

  41. big ron sagt:

    @Kalim1st
    Ich denke nicht, dass DirectML schlechter ist als DLSS 2.0. Es wird halt erst richtig Einsatz in der Series X finden und dann hoffentlich auch mehr Einsatz in Windows-Spielen. Jedenfalls seh ich diesen Weg besser für Spiele als Nividias. Weil du bei Nividias Lösung gezwungen bist, dir die teils extrem teuren Grafikkarten zu holen. Und wirklich viele Spiele unterstützen die Technologie ja auch noch nicht. DirectML ist eine Schnittstelle im Betriebssystem, die mit sehr viel mehr Grafikkarten und API kompatibel ist. Das halte ich für den weitaus besseren Weg.

  42. big ron sagt:

    @Kalim1st
    Microsoft nutzt DirectML z.B als Enhanced-Feature für ihre älteren Spiele, um HDR in Echtzeit zu erzeugen, obwohl das Feature in den Spielen selbst gar nicht existiert. Zu dem verbessern sie die Bildqualität der Titel damit erheblich.

Kommentieren

Reviews