Es ist schon des Öfteren vorgekommen, dass ein Spiel grafisch sich von den ersten Trailern zum tatsächlichen Spiel stark verschlechtert. Oft argumentieren die Entwickler damit, dass man mit den alten Grafikeinstellungen das Spiel nicht flüssig spielen könne. Ein Insider verriet nun, was wirklich dahinter steckt.
Es klingt beinahe wie in einem Krimi: Ein Spieleentwickler, der bei Ubisoft arbeitet, hielt die Praktiken des Entwicklerstudios nicht mehr aus und machte ein Statement, in dem er auf die aktuellen Taten der großen Entwicklerstudios eingeht.
Was wohl die Hauptaussage seines Statements ist: Entwicklerstudios korrigieren die mögliche Spielgraftik sehr häufig nach unten – allerdings nicht weil der PC die bessere Grafik nicht packen würden, es liegt an den Konsolen. Da diese durch schlechtere Hardware als ein guter Gaming-PC nicht unbedingt jeden Effekt, den das Spiel eigentlich bieten sollte, darstellen können, wird darauf einfach verzichtet. Nun stellt sich natürlich die berechtigte Frage, warum man dann die Effekte nicht nur für die PC-Fassung einbaut. Die anonyme Quelle liefert die Antwort: Weil man nicht will, dass die Hardware der Next-Gen-Konsolen viel schwächer wirken als die des Gaming-PCs. Es ist also eher aus Eitelkeit, dass man dem PC-Spieler nicht 100% der Möglichkeiten zuspricht. Zuletzt gab es hitzige Diskussionen über die Grafikreduzierung vom neuesten Ubisoft-Titel Watch Dogs, indem die Grafik durch Mods auf dem PC um ein Vielfaches besser wird und die Basis dafür augenscheinlich auch da ist. Und eine Weitere Befürchtung bestätigt der Entwickler: Auch im kommenden Spiel Tom Clancy’s The Division hat man bereits die Grafik heruntergeschraubt. Das ganze Statement des anonymen Spieleentwicklers findet ihr als Quelle verlinkt.
Was denkt ihr? Sollte man eingestehen, dass die Konsolen nicht mit einem guten PC mithalten können oder gleiche Grafik für Alle bereitstellen?