Call of Duty: Advanced Warfare Benchmarks
Technik
Wir erweitern unser Team und suchen Gaming-Enthusiasten sowie Unterstützung für unsere Video-Produktion.
Details
Obwohl der hauseigene Grafikmotor noch immer nicht ganz an das Level der Frostbite 3 (Battlefield 4) respektive CryEngine 3 (Crysis 3) heranreicht, hinterlässt Advanced Warfare optisch einen deutlich besseren Eindruck als Call of Duty: Ghosts. Neben der Beleuchtung und den Spiegelungen überzeugt auch die Qualität der Charaktere. Kaum ein Ego-Shooter kann mit derart scharfen Texturen und plastischen Gesichtern aufwarten. Wobei man bei genauerem Hinsehen durchaus ein paar Schwächen entdeckt. So hapert es nicht zuletzt an der Glaubwürdigkeit der Augen. Des Weiteren dürfte die Mimik einen Tick »menschlicher« sein.
Auch in anderen Disziplinen schlägt sich Advanced Warfare »nur« ordentlich bis gut. Seien es nun die Effekte (manche Explosionen bzw. Rauchquellen wirken altmodisch) oder die Physik (nicht alle Objekte sind zerstörbar). Ähnliches gilt für die Umgebungstexturen. Während viele Level-Bausteine mit einem hohen Schärfegrad punkten, hätten sich manche Objekte über mehr Detailreichtum gefreut. Hier und da tricksen die Entwickler auch, um bei bestimmten Effekten Leistung zu sparen.
Nichtsdestotrotz liefert das Spiel insgesamt eine gute Vorstellung ab. Zumal es Sledgehammer Games geschafft hat, jeder Mission einen individuellen »Look« zu verpassen. Wie man auf den Screenshots sieht, macht Advanced Warfare farblich und stilistisch einiges her. Ganz zu schweigen von den tollen Animationen und der wuchtigen Klangkulisse.
Schade jedoch, dass auch der neue Call of Duty Ableger nicht 100 % ausgereift ist. Das beginnt bei den happigen Systemanforderungen. Ganze 6 GByte Arbeitsspeicher und ein modernes DirectX-11-System mit 64-Bit-OS gehören zum Pflichtprogramm. Mehr als 50 GByte Festplattenspeicher sind ebenfalls üppig. Hinzu kommen – wie schon bei Ghosts – ein paar technische Bugs. So hatten wir gleich bei unserem ersten Testrechner das Problem, dass Advanced Warfare nach dem Laden mit einer 08/15-Meldung abstürzte. Als Ursache entpuppte sich die Auslagerungsdatei von Windows. Letztere sollte vom System verwaltet und nicht manuell festgelegt sein. Wenn es nach unseren Erfahrungen geht, harmoniert der Ego-Shooter tendenziell besser mit Nvidia Produkten. So ist bei AMD nicht nur Gefahr von Abstürzen höher, sondern auch die Performance etwas schlechter (zumindest in moderaten Settings).
Apropos Settings: Das Grafikmenü besticht mal wieder durch jede Menge Optionen. Zwar hören sich einige Fachbegriffe recht konfus an, jedoch werden die meisten Features halbwegs verständlich erklärt. Dummerweise können sich manche Optionen negativ auf das Spielerlebnis auswirken.
Eine Aktivierung der »Cache Shadow Maps« sorgt hin und wieder dafür, dass nicht die korrekten Texturen geladen werden und Objekte sehr schwammig bleiben (weshalb wir die Option nicht für unsere Tests nutzen). Der Menüpunkt »Shader Preload« führt indes zu extrem hohen Ladezeiten und – je nach Einstellung – zu nervigen Rucklern und Hängern bei den Videos. Da die Performance – soweit wir das beurteilen können – nur geringfügig bis gar nicht steigt, ist der Shader Preload eher kontraproduktiv.
Besitzer von extrem starken Notebooks jubeln derweil über die Möglichkeit, Sumpersampling als Kantenglättungsmodus zu nutzen. Extrem stark deshalb, weil SSAA ungemein rechenintensiv ist. Beispiel gefällig? Bei der GeForce GTX 980M (der Test zum Gigabyte P35X v3 folgt in Kürze) kostet die 2er-Option rund 25 % Leistung, wohingegen vierfaches SSAA die Framerate um knapp 50 % einbrechen lässt. Wer nicht genügend Power zur Verfügung hat, greift einfach zur Postprocessing-Variante FXAA oder SMAA.
Rein inhaltlich kann man erneut über Call of Duty streiten. Während Spieler x die unkomplizierte Hollywood-Action schätzt, bemängelt Spieler y die dumme KI, das veraltete Gameplay (trotz cooler Sci-Fi-Gadgets) und die mäßig geschriebene Story.
Benchmark
Als Benchmark-Sequenz dient uns die erste Minute des fünften Kapitels (»Aftermath«). Nach einer rasanten Landung wird der Protagonist durch ein abgeriegeltes Lager in der US-Stadt Detroit geführt. Aufgrund der zahlreichen Charaktere und Spiegel- bzw. Leuchteffekte ist die Szene recht anspruchsvoll, wobei es im Spielverlauf durchaus Momente gibt, welche die Hardware stärker auslasten. Wie bei Ego-Shootern üblich, sollte die Framerate mindestens 35-40 fps betragen.
Resultate
Bevor wir zu den Benchmark-Ergebnissen kommen, möchten wir Ihnen unsere Grafiksettings präsentieren. Mit Ausnahme der Stufe »Low«, bei der (fast) alle Optionen deaktiviert sind, sieht Advanced Warfare recht schick aus. Die größten Unterschiede offenbaren sich bei der Texturqualität. Je niedriger die Stufe, umso matschiger werden die Objekttapeten. Als hässlich würden wir den Titel jedoch nie bezeichnen. Dieser Umstand äußert sich auch beim Ressourcen-Bedarf.
Passionierte Gamer, die unbedingt mit maximalen Details und zweifachem Supersampling zocken möchten, kommen nicht an einem Grafikchip aus der Oberklasse vorbei. Erst eine GeForce GTX 870M/780M oder Radeon R9 M290X schafft beim Einsatz von 1.920 x 1.080 Pixeln um die 35 fps. Wer sich mit FXAA oder SMAA zufrieden gibt, kann dagegen schon aber einer GTX 850M losziehen.
Normale Settings und 1.366 x 768 Bildpunkte erfordern einen Chip aus der Mittelklasse. So erreicht die GeForce GT 750M im Benchmark knapp 34 fps. Für niedrige Details und 1.024 x 768 Pixel muss es zumindest eine HD Graphics 4600 sein. Schwächere GPUs packen Advanced Warfare überhaupt nicht.
Summa summarum ist der Titel weder ein Notebook-Killer noch ein technisches Leichtgewicht.
Call of Duty: Advanced Warfare | |
1920x1080 Extra / On (Cache Shadow Maps Off), 2x Supersampling AA:2x SM 1920x1080 High / On (Cache Shadow Maps Off) AA:FX 1366x768 Normal / On (Cache Shadow Maps Off) 1024x768 Low / Off (Shader Preload On) | |
GeForce GTX 980, 3770K | |
Radeon R9 290X, 4790K, Intel SSD 530 Series SSDSC2BW240A | |
Radeon R9 280X, 3770K | |
GeForce GTX 880M, 4700MQ | |
GeForce GTX 780M, 4700MQ | |
GeForce GTX 870M, 4700MQ | |
Radeon R9 M290X, 4700MQ | |
GeForce GTX 770M, 4700MQ | |
GeForce GTX 860M, 4700MQ | |
GeForce GTX 850M, 4340M | |
GeForce GTX 765M, 4700MQ | |
GeForce GT 750M, 4702MQ | |
Radeon R7 512 Cores (Kaveri Desktop), A10-7850K, Samsung SSD 470 Series MZ-5PA256/EU | |
Iris Pro Graphics 5200, 4750HQ, Intel SSD 525 Series SSDMCEAC180B3 | |
GeForce GT 740M, 4200M | |
GeForce GT 640M, 2637M, Lite-On LMT-256M3M | |
GeForce GT 720M, 4200M, WDC Scorpio Blue WD10JPVX-22JC3T0 | |
HD Graphics 4600, 4700MQ | |
Radeon HD 8650G, A10-5750M, Samsung SSD 470 Series MZ-5PA256/EU | |
GeForce GT 630M, 3720QM, Seagate Momentus 7200.5 ST9750420AS | |
Iris Graphics 5100, 4258U, Apple SSD SM0256F | |
HD Graphics 4000, 3720QM |
Testsysteme
Vier unserer Testgeräte stammen von Schenker Technologies (mysn.de):
- W504 (Core i7-4700MQ, 8 GB DDR3, GeForce GTX 860M, GTX 870M, GTX 880M, Radeon R9 M290X)
- W503 (Core i7-4700MQ, 8 GB DDR3, GeForce GTX 765M, GTX 770M, GTX 780M)
- M504 (Core i5-4340M, 8 GB DDR3, GeForce GTX 850M)
- M503 (Core i7-4702MQ, 8 GB DDR3, GeForce GT 750M)
Auf diesen Notebooks ist jeweils Windows 7 in der 64-Bit-Edition installiert.
Weitere Testgeräte wurden von Nvidia zur Verfügung gestellt:
- HP Envy 15-j011sg (Core i5-4200M, 12 GB DDR3, GeForce GT 740M)
- MSI CX61-i572M281BW7 (Core i5-4200M, 8 GB DDR3, GeForce GT 720M)
- Acer Aspire Timeline Ultra M3-581TG (Core i7-2637M, 4GB DDR3, Geforce GT 640M)
Intel spendierte uns zudem ein:
- Schenker S413 (Core i7-4750HQ, 8 GB DDR3, Iris Pro Graphics 5200)
Die Desktop-Rechner beinhalten CPUs/APUs von Intel und AMD, SSDs von Micron, Intel und Samsung, Mainboards von Intel und Asus sowie Grafikkarten von Nvidia und AMD.
Verwendete GPU-Treiber: Nvidia 344.60, AMD 14.9.2 Beta, Intel 10.18.10.3960