Schlecht gealterte Grafik und eine Verjüngungskur

Nicht alle altern schön und besonders trifft es jene, die zu ihrer Zeit als besonders modisch hübsch galten. Dies gilt gerade auch im Bereich der Technik, besonders bei 3D-Grafik. Ein Beispiel dafür ist DAZ Studio.

Aurore - links das DAZ Studio Original von 2006 - rechts Gigapixels "Restaurierung" von 2025
Aurore – links das DAZ Studio Original von 2006 – rechts Gigapixels „Restaurierung“ von 2025

Seinerzeit war DAZ Studio etwas besonderes: Es war kostenlos, da sein Vertreiber, DAZ3D, ja hauptsächlich mit den 3D-Figuren und diversen Accessoires dazu sein Geld macht. Damit stieß man den damaligen Spitzenreiter im Genre, Poser, von seinem Thron und mit Techniken wie der Iray-Unterstützung war man lange auf Höhe der Zeit. Die Hochzeiten der DAZ-Grafiken waren wohl die 2010er Jahre. Wie viele andere Programme auch erschütterte die KI-Schwemme um 2020 den Thron auch dieser Grafiksoftware. Denn wozu aufwendig teure Figuren in Szene setzen und dann stundenlang rendern, wenn es viel einfacher auch mit Bild-KIs geht?

Natürlich hatten die KI-Bildgeneratoren anfangs viele Kinderkrankheiten, die sie nun aber (oft) überwunden haben. Dagegen sehen 3D-Grafiken, die mit DAZ Studio erstellt wurden, im Jahre 2025 recht ältlich aus, sofern der Benutzer nicht wirklich etwas von seinem Handwerk versteht. (Allein schon an einer vernünftigen Ausleuchtung scheitern die meisten Benutzer.)

Allerdings, wenn man das Programm und diverse Figuren besitzt, wäre es schade, all das zu vergeuden. Auch wäre es jammerschade um all die damit erstellten 3D-Grafiken. Deshalb soll im Folgenden vorgestellt werden, wie man alte 3D-Grafik aufhübscht.

Tatsächlich, worauf ich ganz am Ende dieses Beitrags noch zu sprechen komme, haben 3D-Programme immer noch bestimmte Vorteile gegenüber KI-Bildgeneratoren. Die zeigen sich aber hauptsächlich für professionellere Benutzer, weniger für Gelegenheitsgrafiker. Und der eigentlich gefährlichere Konkurrent für ein Programm wie DAZ Studio sind nicht KI-Bildgeneratoren, sondern Blender und die Unreal-Engine.

Der veraltete 3D-Grafikstil

Der "freundliche Ork von nebenan" - in der Texturierungsansicht von DAZ Studio 4.6+ - die Basisfigur ist Genesis 1, der Ork-Morph wurde mit GenX von Victoria 4 importiert. Die Texture stammt von "Talarian Alien" für Genesis I. Um wirklich "lebensecht" zu wirken, fehlen allerdings noch die für Orks typischen Narben - selbst die Ohren sind zu unversehrt für eine Kriegerkreatur der Finsternis. All dies muss per Retusche nach dem Rendering von Hand hinzugemalt werden.
Der „freundliche Ork von nebenan“ – in der Texturierungsansicht von DAZ Studio 4.6+ – die Basisfigur ist Genesis 1, der Ork-Morph wurde mit GenX von Victoria 4 importiert. Die Textur stammt von „Talarian Alien“ für Genesis I. Um wirklich „lebensecht“ zu wirken, fehlen allerdings noch die für Orks typischen Narben – selbst die Ohren sind zu unversehrt für eine Kriegerkreatur der Finsternis. All dies muss per Retusche nach dem Rendering von Hand hinzugemalt werden.

Vorab: Der 3D-Stil, wie in DAZ Studio in Szene setzt, wirkt 2025 an sich schon ziemlich veraltet. Was 2005 oder 2010 noch als „fotorealistisch“ galt, ist allzu deutlich unschön künstlich, sozusagen optisch „zombifiziert“. Das gilt leider auch für viele Nitramica Arts Grafiken, und dabei ist der große Nachteil von DAZ Studio, die leider sehr binären Geschlechterstereotypen, noch gar nicht mal berücksichtigt.

Da unsere Grafiken für Fantasyliebhaber erstellt werden, nicht für Modemagazine, und ein eher „gemalter“ Stil von unseren „Kunden“ bevorzugt wird, kommt DAZ Studio jenseits von Landschaftsgrafiken (für die es eigentlich nie vorrangig gedacht war) kaum noch zum Einsatz. Meist benutzen wir eher Midjourney, was diese Stile recht gut beherrscht. Zudem hat bei den Kunden durch die KI-Schwemme eine „Digitalermüdung“ eingesetzt, sodass in den vergangenen Jahren sehr viel häufiger nach analogen Werken nachgefragt wird.

Allerdings – auch Dank KI – ist auch für DAZ Studio nicht alles verloren, da auch früher schon Grafiker DAZ Studio oft nur für die Vorstufe ihrer später noch deutlich bearbeiteten Grafiken einsetzen. Das konnte man lange auch bei den Künstlern auf Messen wie z. B. der Swiss Comic Con in Basel erkennen, wenn man sich die dortigen Porträts genauer ansah und dahinter oft mehr oder weniger deutlich die 3D-Figuren von DAZ3D als Vorlagen erkennen konnte.

Was früher mühevolle Retusche in Photoshop & Co war, geht heute dank KI auch schneller, entweder mit Webeditoren oder mit einer App wie Gigapixel von Topaz Labs. Letzteres Programm war ursprünglich eigentlich für die Restaurierung von Digitalfotos gedacht. Jüngere Versionen haben neben den Restaurations-KIs aber auch Bildgeneratoren eingebaut, die eine Grafik als Vorlage benutzen und dann deutlich aufhübschen können.

Beispiele für eine grafische Verjüngungskur mit Gigapixel 8

Beispiel 1: Szene am Bach

Als Beispiel habe ich eine 3D-Szene von 2020 gewählt, die ich seinerzeit mit DAZ Studio und dem UltraScenery-Plugin für Landschaften von Howie Farkes erstellt hatte: Die Grafik beinhaltet einen Jungen, der mit einem Husky durch einen Herbstwald flaniert. 

Im Editor von DAZ Studio präsentiert sich die Szene wie folgt:

Szene am Bach aus dem Jahre 2020 in DAZ Studio 4.24 (Screenshot)
Szene am Bach aus dem Jahre 2020 in DAZ Studio 4.24 (Screenshot)

Auf meiner alten Workstation brauchte das Rendern damals Stunden, weil die Szene zu groß für den Speicher der Grafikkarte war, auf meiner aktuellen Workstation immerhin noch etwa eine Stunde, was allerdings, wenn man das Ergebnis betrachtet, immer noch deutlich zu lange ist. Denn im Jahre 2025 sind die Figuren so wirklich nicht mehr sehr überzeugend:

Szene am Bach aus dem Jahre 2020, gerendert mit DAZ Studio 4.24 (Grafik: Martin Dühning)
Szene am Bach aus dem Jahre 2020, gerendert mit DAZ Studio 4.24 (Grafik: Martin Dühning)

Das wird besonders in einer Nahaufnahme von Hund und Kind deutlich:

Der Husky und der Junge in der Original DAZ-Fassung
Der Husky und der Junge in der Original DAZ-Fassung

Das liegt zum Teil sicher an der Ausleuchtung, weil das entsprechende Licht-Template eigentlich auf Landschaftsgrafiken ausgelegt ist, nicht auf Portraits, weshalb die Texturen nicht überzeugen. Allerdings waren immer auch schon Schwachpunkte von 3D-Figuren die unnatürlichen Haare (auch beim Fell des Huskys) und die unwirkliche Transluzenz menschlicher Haut (diese scheint bei der 3D-Figur zwar leicht durchleuchtend, aber gummiartig, weil die 3D-Figur natürlich weder Knochen noch Organe hat – das sieht man besonders an der linken Hand). Mal abgesehen davon, dass das Gesicht ein Alptraum ist und keineswegs natürlich wirkt, allerdings auch nicht künstlerisch genug, dass dies noch als Kunstform durchginge im Jahre 2025.

Doch Hilfe naht…

Bildrestaurierung mit KI

Gigapixel, eine App von Topaz Labs, bietet in den neueren Versionen eine Funktion an, die genau auf solch veraltete 3D-Grafiken abzielt: Dazu muss man die App zunächst starten und eine Grafik damit laden:

Die Oberfläche von Gigapixel 8 beim Start unter Windows 11 (Screenshot)
Die Oberfläche von Gigapixel 8 beim Start unter Windows 11 (Screenshot)

Wenn man die Grafik dann geladen hat, kann man rechts eine Restaurationsmethode wählen.

Rechts im Menü von Gigapixel 8 lassen sich die KIs auswählen, die zur Bildwiederherstellung verwendet werden sollen. Für 3D-Grafiken eignet sich am besten "Redefine creative (Beta).
Rechts im Menü von Gigapixel 8 lassen sich die KIs auswählen, die zur Bildwiederherstellung verwendet werden sollen. Für 3D-Grafiken eignet sich am besten „Redefine creative (Beta).

Als Restaurationsmethode für DAZ-Grafiken wählt man dann „Redefine creative (Beta)“. Diese KI bietet die Möglichkeit, die Stufe einzustellen (niedrig | mittel | hoch | maximal) und einen Bildprompt (Bildbeschreibung) anzugeben. Dieser funktioniert im Prinzip wie die KI-Prompts anderer Programme auch. Es empfiehlt sich sehr, dort anzugeben, was man im Bild sehen möchte. Tut man das nicht, werden meiner Erfahrung nach alle Gesichter mit weiblichen Stereotypen ausgetauscht. Generell wirken die Gesichter übrigens individueller, wenn man die Figur NICHT als weiblich angibt. (KIs replizieren eben immer nur statistisch relevante Stereotypen und die Masse an weiblichen Fotos im Internet ist wohl leider irgendwie sexistisch).

Berücksichtigt wird beim KI-Prompt übrigens auch eine angegebene Ethnie, relativ egal ist der KI aber wohl ein angegebenes Alter, weil die KI das offensichtlich oft aus den Proportionen ableitet.

Die KI "Redefine creative (Beta) verfügt über verschiedene Stufen und einen Bildprompt, den man auch benutzen sollte, um Änderungswünsche anzugeben.
Die KI „Redefine creative (Beta) verfügt über verschiedene Stufen und einen Bildprompt, den man auch benutzen sollte, um Änderungswünsche anzugeben.

Für die Neufassung meiner alten 3D-Szene habe ich folgenden Prompt gewählt:

a boy, age 12, ginger hair and freckless, with a husky dog, sitting barefoot on a wooden bridge over an autumn creek, enjoying the sun.

Dies erzeugt dann folgende Vorschaugrafik:

Man kann in Gigapixel 8 Vorschauabschnitte wählen, um sich das mögliche Ergebnis vorab anzeigen zu lassen - akurat übereinstimmend mit dem späteren Ergebnis ist die Vorschau aber meist nicht.
Die KI „Redefine creative (Beta) verfügt über verschiedene Stufen und einen Bildprompt, den man auch benutzen sollte, um Änderungswünsche anzugeben.

Wenn einem der Gesichtsausdruck nicht gefällt, kann man den Prompt auch variieren:

smiling boy, age 12, ginger hair and freckless, with a husky dog, sitting barefoot on a wooden bridge over an autumn creek, enjoying the sun.

Dies erzeugt dann folgende Vorschau:

Ein leicht geänderter Bildpromt ändert den Gesichtsausdruck der Figuren.
Ein leicht geänderter Bildpromt ändert den Gesichtsausdruck der Figuren.

Während die Vorschau noch recht schnell rendert, dauert das vollständige Rendering deutlich länger. Wenn man nicht wie üblich „Credits“ für Cloudrendering ausgeben möchte, kann man bei Gigapixel 8 das Bild auch lokal rendern, was allerdings ebenso lange dauern kann wie 3D-Rendering und auch von der verbauten CPU und Grafikhardware abhängt. Es empfiehlt sich ein System mit sehr viel Grafikspeicher und KI-Beschleunigung. Sonst kann es sehr, sehr lange dauern!

Für das Rendering der KI werden Bilder, ähnlich wie bei 3D-Software, in eine Warteschlange eingereiht.
Für das Rendering der KI werden Bilder, ähnlich wie bei 3D-Software, in eine Warteschlange eingereiht.

Leider kommt es auch nicht selten vor, dass sich das Gesamtergebnis vom Vorschau-Rendering unterscheidet oder dass die KI bei jedem Durchgang und bei unterschiedlich gewählten Ausschnitten zu völlig anderen Ergebnissen kommt.

Generell erzeugen die Einstellungen ab „mittel“ deutlicher erkennbare Unterschiede. Besser werden die Ergebnisse auch, wenn das Vorlagebild nicht zu klein ist, aber die Zielgrafik deutlich größer, man also einen Vergrößerungsfaktor ab 2x wählt – denn dann besteht Bedarf für Änderungen der Vorlage. Allerdings dauert das Rendering umso länger, je größer das Zielbild und dessen Unterschied zur Vorlage ist.

Beim Gesamtbild berücksichtigt die KI von Gigapixel übrigens nicht nur die Figuren, sondern auch die Landschaft. Auch Wasser, Gras und Bäume werden dezent verbessert und wenn man genau hinsieht die Textur des Brückenholzes.

Szene am Bach, re-rendert in Gigapixel 8 mit der Einstellung "mittel".
Szene am Bach, re-rendert in Gigapixel 8 mit der Einstellung „mittel“.

Besonders bei der Betrachtung der Figuren fallen eindeutige Verbesserungen auf: sie sehen deutlich „fotorealistischer“ aus!

Detailausschnitt des mit Gigapixel erneuerten Bildes in der KI-Einstellung "mittel".
Detailausschnitt des mit Gigapixel erneuerten Bildes in der KI-Einstellung „mittel“.

Auf den ersten Blick fällt besonders das viel realistischere Gesicht des Jungen auf – bemerkenswerter erscheinen mir aber die Verbesserungen bei den Haaren (die ein Schwachpunkt auch vieler KI-Generatoren sind), beim Fell des Hundes (der nun aber kein Husky mehr ist) und bei der äußerst gelungen verbesserten Kleidung mit glaubwürdigem Faltenwurf. Der Hund hat ein flauschiges, matt glänzendes Fell, auf der Haut des Jugendlichen scheinen transluzent Blutäderchen durch und die Textur ist äußerst detailiert bis zu Poren, Pigmenten und Härchen. Das Alter wurde aber ignoriert, denn die Figur ist nun definitiv ein Jugendlicher von 16 Jahren, kein Kind. Ohne Frage ist das Ergebnis aber um Klassen detaillierter und realistischer als die originale DAZ-Szene.

Allerdings: Das Ergebnis ist nicht ohne Makel. Auf den zweiten Blick fallen nämlich sehr viele für KI-Generatoren typische Fehler auf. Zum Einen, ganz typisch, fehlerhafte Hände und Füße (auch beim Hund). Allerdings hat die Beta-KI in Gigapixel 8 auch Probleme mit vielen Halluzinationen, denn in der Grafik sind, wie bei einem Wimmelbild – nun viele kleine Hunde und Jungen versteckt. Ich habe die Fehler mal rot markiert:

Markierte Fehler im Re-Rendering mit Gigapixel 8, Einstellung "mittel". Die Fehler sind rot umkreist.
Markierte Fehler im Re-Rendering mit Gigapixel 8, Einstellung „mittel“. Die Fehler sind rot umkreist.

Ohne gründliche nachträgliche Bildretusche in einem Tool wie Photoshop wird man das Ergebnis wohl nicht weiterverwenden können und gerade die Überzähligen Finger und Zehen und besonders die fehlerhaften Pfoten beim Hund dürften schwer zu entfernen sein. Das sind allerdings wohl noch Kinderkrankheiten der Beta-Fassung der KI. Man kann sie übrigens abmildern, indem man einfach die niedrigste Stufe wählt, das hält die KI dann auch in Zaum, Gesichter und Kleidung und besonders die Haare wirken dann allerdings nicht mehr so realistisch.

Re-Rendering der DAZ-Szene mit niedriger Einstellung - diese Einstellung hält sich mehr an das Original, weist damit weniger Halluzinationen auf.
Re-Rendering der DAZ-Szene mit niedriger Einstellung – diese Einstellung hält sich mehr an das Original, weist damit weniger Halluzinationen auf.
Re-Rendering der DAZ-Szene mit Gigapixel 8, niedrige Einstellung, Ausschnitt
Re-Rendering der DAZ-Szene mit Gigapixel 8, niedrige Einstellung, Ausschnitt

Die Ergebnisse mit Gigapixel 8 sind interessant – fehlerfrei ist übrigens aber derzeit auch die niedrige Einstellung meist noch nicht. KI-Typisch sind auch hier Fehler bei Händen und Füßen, je nach Bild auch bei den Augen. Das sind Probleme, die ein Update wohl irgendwann bessern kann.

Beispiel 2: ein alter Wikinger

Da Gigapixel besonders bei Haaren und Hauttexturierung brilliert, kam mir der Gedanke, es doch mal mit einem Motiv zu probieren, mit dem 3D-Programme immer schon Probleme hatten: Senioren.

Vielleicht sind idealtypische Jungmenschen im Internet deshalb so überrepräsentiert, weil es sehr schwierig ist, die natürliche Alterung von Menschen in 3D nachzuformen. Als Beispiel 2 erstellte ich daher eine generische Figur eines Wikingers in Daz3D.

Ein Wikinger, erstellt in DAZ Studio 4.24 mit der aktuellen Genesis 9 Figur.
Ein Wikinger, erstellt in DAZ Studio 4.24 mit der aktuellen Genesis 9 Figur.

Dabei wurde diesmal alles verwendet, was DAZ Studio 4.24 aktuell (Stand August 2025) zu bieten hat: die aktuelle Figur Genesis 9, ein passendes Charaktertemplate für einen alten Mann (Walter HD), Iray-Texturen und ein speziell für Porträts geeignetes Belichtungstemplate mit Umgebungsausleuchtung und drei Spotlights.

Da die gesamte Porträtsszene diesmal in den Grafikspeicher passte, dauerte das Rendering immerhin nur 2 Minuten. Trotz entsprechender Textur und diesmal passender Porträtausleuchtung wirkt das Bild nur mäßig realistisch (im Sinne von natürlich alt):

Alter Wikinger, erstellt in DAZ Studio 4.24 und Genesis 9
Alter Wikinger, erstellt in DAZ Studio 4.24 und Genesis 9

Lässt man Gigapixels Redefinierung über die Grafik laufen (Dauer: 15 Minuten), fallen sofort im Detail einige Verbesserungen auf:

Der alte Wikinger, verbessert mit Gigapixel 8 auf hoher KI-Stufe
Der alte Wikinger, verbessert mit Gigapixel 8 auf hoher KI-Stufe

Damit lässt sich arbeiten, wirklich lohnenswert ist die Vorgehensweise, große 3D-Grafiken so zu verbessern, aber nicht. Für diverse Templates werden (ohne Mitgliedschaft bei DAZ Premiere), gut 100 EUR fällig, der Arbeitsaufwand beträgt, wenn man sich gut mit DAZ Studio und Gigapixel 8 auskennt, auf etwa 40 Minuten. Wenn schon die Vorlage detailliert ist, erzielt Gigapixel 8 auch nicht mehr sehr viel Gewinn.

Ist die Vorlage übrigens kleiner (also maximal 1024 Pixel Länge) und damit weniger detailliert, sieht man bei einer Vergrößerung mit Gigapixel deutlich mehr Unterschiede, auch geht das Rendern dann deutlich schneller (etwa 5 Minuten):

Kleinere Vorlagen erzeugen deutlichere Verbesserungen mit Gigapixel 8
Kleinere Vorlagen erzeugen deutlichere Verbesserungen mit Gigapixel 8
Detailansicht der Verbesserungen - links das Original von DAZ Studio, rechts die verbesserte Version mit Gigapixel 8.
Detailansicht der Verbesserungen – links das Original von DAZ Studio, rechts die verbesserte Version mit Gigapixel 8.

Auch hier brilliert Gigapixel wieder mit deutlich realistischerer Hauttextur inklusive Falten und Altersschäden und wirklich akkuraten Haaren.

Aber war das Ganze überhaupt die Mühe wert? Stattdessen hätte man auch einfach einen KI-Editor wie Stable Diffusion oder Midjourney nehmen können und dort einfach folgendes prompten:

/imagine fullbody portrait of an old and angry viking warrior, age 80, white winter background, in style of photorealistic 3D graphic --ar 2:3 --v 7.0

Man erhält dann gleich vier Entwürfe. Zeitaufwand: 1 Minute, Kosten (geschätzt): 5 Cent.

Wikingerbilder, erstellt mit Midjourney 7
Wikingerbilder, erstellt mit Midjourney 7

Perfekt ist dieser erste Prompt zwar noch nicht, aber deutlich einfacher und schneller als die Szene erst mühsam in 3D nachzustellen. Es sollte somit eigentlich klar sein, dass sich bloß für einfache fotorealistische Einzelbilder weder DAZ Studio noch Gigapixel 8 lohnen, auch wenn Gigapixel 8 besonders aus einfachen 3D-Grafiken erstaunlich viel herausholen kann.

Leistungen und Grenzen von Gigapixel 8

Ein größeres Problem für den produktiven Einsatz dürfte bei Gigapixel 8 die mangelnde Konsistenz gerade bei den Gesichtern sein. Da sich das Gesicht bei jeder Regenerierung ändern, eignet sich diese Methode nur für Einzelbilder, nicht für Bildsequenzen. Auch geht, wenn die Gesichter nicht in Großaufnahme vorliegen, fast immer die Individualität der Originalgesichter verloren. Das mag manchmal erwünscht sein, nicht jedoch, wenn es sich um Gesichter mit Wiedererkennungswert handelt. Die KI „verbessert“ leider fast immer die Gesichter in Richtung Stereotyp. In der aktuellen Form taugt das so eher für Modeshootings denn für echtes Charakterdesign.

Interessant in dieser Hinsicht ist übrigens auch die Texturgenerierung von Gigapixel, welche die KI oft vornimmt. Man kann ihr auch Gemälde geben, um sie dann in fotorealistische Grafiken umzuwandeln, beispielweise ein Charakter, der mit Midjourney erschaffen wurde:

Mädchen in Tudorpagenkleidung, gerendert mit Midjourney 7
Mädchen in Tudorpagenkleidung, gerendert mit Midjourney 7

Die KI von Gigapixel verbessert dann tatsächlich nach Wunsch die Texturen und liefert auch feines Leinen und Brokat. Auch die Haare sind sehr stylisch.

Gigapixel 8 macht aus dem Gemälde des Mädchens quasi ein Foto, brilliert aber bei den Texturen der Kleidungsstoffe.
Gigapixel 8 macht aus dem Gemälde des Mädchens quasi ein Foto, brilliert aber bei den Texturen der Kleidungsstoffe.

Das Gesicht ist aber wieder langweilig klischeehaft und das Gesamtergebnis ist ein ganz typisches KI-Produkt mit den üblichen Schwächen dieser Technik.

Der größte Nachteil dürfte bleiben, dass mit Gigapixel 8 nur fotorealistische Grafiken möglich sind, keine Kunststile – und „fotorealistische“ Grafiken gibt es im Netz, dank KI-Schwemme, eigentlich zuhauf, weshalb sie niemand mehr haben will.

Wozu braucht man dann ein Programm wie Gigapixel dann überhaupt?

Nun gut, eigentlich zum Hochskalieren von alten Grafiken oder solchen in schlechter Qualität. Da ist das Programm sehr gut, solange man keine konsistenten Gesichtszüge braucht. Was übrigens mitskaliert wird, sind auch Schriftzüge, die das Programm auch oft richtig erkennt.

In der aktuellen Version ist die KI für kreatives Re-Design auch noch Beta und eher ein Gimmik, wirklich gut ist die Software zur Verbesserung echter Fotos bei den anderen KIs. Ich würde sie nur dann einsetzen, wenn das Originalbild wirklich eine Überarbeitung wert ist, denn der Zeitaufwand ist deutlich höher, als die Grafik in einem KI-Bildeditor einfach komplett neu generieren zu lassen. Software wie Midjourney bietet inzwischen auch Möglichkeiten, die Konsistenz ganzer Bildreihen zu wahren, sodass man damit wesentlich schneller und einfacher zu brauchbaren Ergebnissen, beispielsweise für Comics, gelangt. Zudem sind sie auch stilistisch vielfältiger, den fotorealistische Grafik bei Standbildern ist eigentlich aus der Mode gekommen.

Wozu Programme wie DAZ Studio gut bleiben…

Durch KI-Bildgeneratoren gibt es sehr viel schnellere und preisgünstigere Möglichkeiten, fotorealistische Einzelgrafiken zu erzeugen.

Was 3D-Programme wie DAZ Studio angeht, bleibt auch dafür eine Nische, allerdings nicht mehr für das Erstellen von Grafiken, sondern eher, wenn die eigentlichen 3D-Modelle editiert und weiterverarbeitet werden sollen, beispielsweise zur Weiterverwendung in Spiele-Engines oder für den 3D-Druck. Das lässt sich DAZ3D mit Extra-Lizenzen bezahlen bei ihren Figuren – sie dürften also nicht pleite gehen trotz KI. Denn bei den eigentlichen 3D-Daten ist DAZ-Studio den KIs noch deutlich überlegen, muss aber zunehmend Konkurrenz von Blender fürchten, das zwar – immer noch – grausam kompliziert zu bedienen ist, aber deutlich leistungsstärker und inzwischen auch sehr viel moderner.

Blender wird auch wesentlich engagierter weiterentwickelt, während die Entwicklung von DAZ Studio eher stagniert – bei DAZ3D liebäugelt man zur Zeit eher damit, die Benutzer in ein künftiges ABO zu locken – eine Maßnahme, die meist nicht der Qualität der Software zugute kommt. Die bisherigen Versuche, KI in DAZ Studio zu integrieren, überzeugen auch nicht, denn niemand braucht eine KI, die Grafiken erstellt, die wie DAZ-Studio-Grafiken aussehen, wenn er DAZ Studio sowieso schon hat, und „State of the Art“ ist dieser Grafiktyp auch nicht mehr.

Das liegt meines Erachtens auch darin begründet, dass viele 3D-Grafiken nur die Wirklichkeit nachahmten und Stereotypen kopierten. Kunst ist das dann so nicht, finde ich, weil es nicht die Bestimmung von Kunst ist, die Realität nachzuahmen. Kunst und Fantasie, soweit bin ich vielleicht noch Romantiker, sind dazu da, neue Wirklichkeiten zu schaffen, Ideen zu verkörpern, nicht bloß Schubladen – und Letzteres war allzu oft in 3D-Grafiken der Fall, weshalb mir gemalte Bilder, ob analog oder digital, auch wesentlich mehr zusagen als „Fotorealismus“.

Modern ist 3D-Grafik jedenfalls aktuell nicht mehr. Aber wer weiß, vielleicht ist Retro auch mal wieder in – bei Pixelgrafik hätte auch niemand gedacht, dass sie mal wieder so verehrt wird, wahrscheinlich aber auch, weil sie echter Kunst näher steht als „virtuelle Fotoapparate“.

Weiterführende Links:

 

 

Über Martin Dühning 1630 Artikel
Martin Dühning, geb. 1975, studierte Germanistik, kath. Theologie und Geschichte in Freiburg im Breisgau sowie Informatik in Konstanz, arbeitet als Lehrkraft am Hochrhein-Gymnasium in Waldshut und ist Gründer, Herausgeber und Chefredakteur von Anastratin.de.