Notebookcheck Logo

NVIDIA GeForce GTX 675M SLI vs NVIDIA GeForce GTX 680MX

NVIDIA GeForce GTX 675M SLI

► remove from comparison NVIDIA GeForce GTX 675M SLI

Die NVIDIA GeForce GTX 675M SLI ist eine High-End Grafiklösung für Laptops welche auf zwei "Fermi" Chips (GF114) basiert. Die beiden Grafikkarten werden durch eine SLI Bridge verbunden und rendern normalerweise abwechselnd ein Bild (AFR). Dadurch kann es auch zu Mikrorucklern kommen (ungleichmäßige Abstände zwischen zwei Bildern führen zu spürbaren Rucklern trotz flüssiger fps Raten von etwa 30 fps). Die GTX 675M SLI unterstützt DirectX 11 und braucht sehr viel Strom (2x 100 Watt für das gesamte Board inkl 2GB GDDR5) und kommt daher nur in großen und schweren DTR Notebooks zum Einsatz. Die GTX 675M ist auch als SLI-Lösung exakt identisch mit der GTX 580M.

Im Gegensatz zur GeForce GTX 485M basiert jede einzelne GTX 675M auf dem auf Stromverbrauch optimierten GF114 Chip und nicht mehr dem GF104. Die Architektur und Performance pro MHz ist dadurch nicht betroffen, jedoch sind nun höhere Taktfrequenzen bei vergleichbarem Stromverbrauch möglich. Der GF114 basiert auf der Fermi Architektur und bietet im Vollausbau 384 Kerne, 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.

Die Grafikleistung der 675M SLI liegt dank der höheren Taktraten etwas oberhalb der 485M SLI und auf einem Niveau mit der GTX 580M SLI. Dadurch kann man anspruchsvolle Spiele wie Crysis 2, Dirt 3 oder Metro 2033 in 1920x1080 und hohen Details flüssig spielen. Die meisten Spiele sind auch mit Antialiasing und maximalen Details flüssig darstellbar.

Wie auch die GeForce 300M Serie, bietet die Geforce GTX 675M PureVideo HD mit dem VideoProcessor 4 (VP4) und VDPAU Feaure Set C. Dadurch kann die Grafikkarte HD Videos in H.254, VC-1, MPEG-2 und MPEG-4 ASP vollständig dekodieren ohne den Prozessor zu belasten. Mittels Flash 10.1 können auch Flash Videos GPU unterstützt wiedergegeben werden.

Eine Neuheit des GF114 Chips im Vergleich zum GF100 (GTX 480M) ist die Unterstützung der Bitstream Übertragung von HD Audio (Blu-Ray) per HDMI Anschluss. Wie die Radeon HD 5850, kann die GTX 675M Dolby True HD und DTS-HD per Bitstream ohne Qualitätsverlust an einen geeigneten Receiver übertragen.

Die Rendering Cores der Nvidia GeForce GTX 675M können dank CUDA und DirectCompute Unterstützung auch für generelle Berechnungen (z.B. das Encodieren von Videos) verwendet werden. Weiters kann man mittels PhysX die Rechenkerne für Physikberechnungen einsetzen. So kann man z.B. eine Grafikkarte dediziert für PhysX abstellen und die zweite Karte des SLI Verbunds berechnet die Grafikausgabe.

Im Vergleich zu Desktop Grafikkarten, ist die GeForce GTX 675M SLI vergleichbar mit zwei GeForce GTX 560Ti im SLI Modus. Die 560Ti ist jedoch deutlich höher getaktet und dadurch schneller. 

NVIDIA GeForce GTX 680MX

► remove from comparison NVIDIA GeForce GTX 680MX

Die NVIDIA GeForce GTX 680MX ist eine mobile, DirectX 11 fähige Grafikkarte der High-End-Klasse, welche speziell für den Einsatz in Apples iMac vorgesehen ist. Sie basiert wie die GTX 680M auf dem GK104-Chip der Kepler-Architektur (28-nm-Prozess), bietet allerdings statt 1344 alle 1536 1D-Shader. Die Kerntaktrate ist mit 720 MHz jedoch identisch. Der Speichertakt (GDDR5) wurde von 900 auf 1.250 MHz (5.000 MHz effektiv) angehoben, wodurch die Speicherbandbreite von 115.2 auf 160 GB/s steigt.

Architektur

Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK104 verfügt als Kepler-Chip über 8 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 680MX sind alle 8 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.

Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.

Leistung

Die Grafikleistung sollte durch die zusätzlichen Shadereinheiten sowie den deutlich gesteigerten Speichertakt um etwa 15 bis 25 Prozent oberhalb der GTX 680M liegen. Die GTX 680MX ist damit die schnellste mobile Grafikkarte (wenn auch nur in Apples iMac eingesetzt) und sollte das Niveau einer Desktop GTX 580 erreichen. Nahezu alle Spiele des Jahres 2012 sind damit in maximalen Einstellungen und hoher Auflösung flüssig spielbar.

Battlefield 3 zum Beispiel war in der nativen Auflösung mit 30 fps (Ultra Settings ) in unserer Benchmarksequenz noch flüssig spielbar. Für Multiplayergefechte empfiehlt sich jedoch auf Antialiasing zu verzichten, oder auf 1920x1080 (45 fps) zurückzuschalten.

Features

Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angesteuert werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.

Der HD-Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.

Gegenüber der GTX 680M (100 Watt) dürfte die Leistungsaufnahme weiter angestiegen sein, was die Kühlung der Grafikkarte erschwert. Bislang ist uns kein Hersteller bekannt, der die GTX 680MX auch in Notebooks verbauen möchte, sodass sich der Einsatz auf Apples iMac beschränkt. Gerüchte sprechen derzeit von 122 Watt Stromverbrauch. Im Leerlauf kann die GPU mithilfe der Optimus-Technologie zugunsten einer integrierten Grafikeinheit auch vollständig deaktiviert werden (nur ohne 3D Vision).

NVIDIA GeForce GTX 675M SLINVIDIA GeForce GTX 680MX
GeForce GTX 600M Serie
GeForce GTX 680M SLI compare 2688 @ 0.72 GHz2x 256 Bit @ 3600 MHz
GeForce GTX 680MX 1536 @ 0.72 GHz256 Bit @ 5000 MHz
GeForce GTX 675M SLI 768 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 680M compare 1344 @ 0.72 GHz256 Bit @ 3600 MHz
GeForce GTX 670MX SLI compare 1920 @ 0.6 GHz2x 192 Bit @ 2800 MHz
GeForce GTX 675MX compare 960 @ 0.6 GHz256 Bit @ 3600 MHz
GeForce GTX 675M compare 384 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 670MX compare 960 @ 0.6 GHz192 Bit @ 2800 MHz
GeForce GTX 670M compare 336 @ 0.6 GHz192 Bit @ 3000 MHz
GeForce GTX 660M compare 384 @ 0.84 GHz128 Bit @ 4000 MHz
GeForce GTX 680M SLI compare 2688 @ 0.72 GHz2x 256 Bit @ 3600 MHz
GeForce GTX 680MX 1536 @ 0.72 GHz256 Bit @ 5000 MHz
GeForce GTX 675M SLI 768 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 680M compare 1344 @ 0.72 GHz256 Bit @ 3600 MHz
GeForce GTX 670MX SLI compare 1920 @ 0.6 GHz2x 192 Bit @ 2800 MHz
GeForce GTX 675MX compare 960 @ 0.6 GHz256 Bit @ 3600 MHz
GeForce GTX 675M compare 384 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 670MX compare 960 @ 0.6 GHz192 Bit @ 2800 MHz
GeForce GTX 670M compare 336 @ 0.6 GHz192 Bit @ 3000 MHz
GeForce GTX 660M compare 384 @ 0.84 GHz128 Bit @ 4000 MHz
CodenameN12E-GTX2
ArchitekturFermiKepler
Pipelines768 - unified1536 - unified
Kerntakt620 MHz720 MHz
Shadertakt1240 MHz
Speichertakt3000 MHz5000 MHz
Speicherbandbreite256 Bit256 Bit
SpeichertypGDDR5GDDR5
Shared Memoryneinnein
APIDirectX 11, Shader 5.0DirectX 11, Shader 5.0, OpenGL 4.3
Stromverbrauch2x 100 Watt122 Watt
Herstellungsprozess40 nm28 nm
FeaturesOptimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV PlayOptimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV Play
Notebookgrößegroß (17" z.B.)groß (17" z.B.)
Erscheinungsdatum06.01.2011 23.10.2012
Herstellerseitewww.nvidia.comwww.geforce.com
Max. Speichergröße2048 MB
Transistors3.5 Billion

Benchmarks

3DMark 11 - 3DM11 Performance Score
6389 Points (9%)
6883 Points (10%)
3DMark 11 - 3DM11 Performance GPU
6407 Points (6%)
6736 Points (6%)
3DMark Vantage
3DM Vant. Perf. total + NVIDIA GeForce GTX 675M SLI
3DMark Vantage - 3DM Vant. Perf. total
18405 Points (5%)
3DM Vant. Perf. total + NVIDIA GeForce GTX 680MX
25501 Points (7%)
3DM Vant. Perf. GPU no PhysX + NVIDIA GeForce GTX 675M SLI
3DMark Vantage - 3DM Vant. Perf. GPU no PhysX
17631 Points (10%)
3DM Vant. Perf. GPU no PhysX + NVIDIA GeForce GTX 680MX
25270 Points (14%)

Average Benchmarks NVIDIA GeForce GTX 675M SLI → 100% n=4

Average Benchmarks NVIDIA GeForce GTX 680MX → 124% n=4

- Bereich der Benchmarkergebnisse für diese Grafikkarte
- Durchschnittliche Benchmarkergebnisse für diese Grafikkarte
* Smaller numbers mean a higher performance
1 This benchmark is not used for the average calculation

Spiele-Benchmarks

Die folgenden Benchmarks basieren auf unseren Spieletests mit Testnotebooks. Die Performance dieser Grafikkarte bei den gelisteten Spielen ist abhängig von der verwendeten CPU, Speicherausstattung, Treiber und auch Betriebssystem. Dadurch müssen die untenstehenden Werte nicht repräsentativ sein. Detaillierte Informationen über das verwendete System sehen Sie nach einem Klick auf den fps-Wert.

low 1024x768
GeForce GTX 680MX:
72  fps
med. 1366x768
GeForce GTX 680MX:
43.6  fps
high 1920x1080
GeForce GTX 680MX:
26.4  fps
ultra 1920x1080
GeForce GTX 680MX:
14.2  fps
ultra 1920x1080
GeForce GTX 680MX:
133  fps
high 1366x768
GeForce GTX 680MX:
55.4  fps
ultra 1920x1080
GeForce GTX 680MX:
34.4  fps
F1 2012

F1 2012

2012
ultra 1920x1080
GeForce GTX 680MX:
97.5  fps
high 1366x768
GeForce GTX 680MX:
99  fps
ultra 1920x1080
GeForce GTX 680MX:
31.1  fps
low 1024x768
GeForce GTX 680MX:
126  fps
med. 1366x768
GeForce GTX 680MX:
104  fps
high 1366x768
GeForce GTX 680MX:
92  fps
ultra 1920x1080
GeForce GTX 680MX:
45.6  fps
NVIDIA GeForce GTX 680MXlowmed.highultraQHD4K
The Witcher 37243.626.414.2
Dead Space 3133
Hitman: Absolution55.434.4
F1 201297.5
Sleeping Dogs9931.1
Battlefield 31261049245.6
< 30 fps
< 60 fps
< 120 fps
≥ 120 fps


1
1

1
1
1
1
2
1
3
1
1






Eine Liste mit weiteren Spielen und allen Grafikkarten finden Sie auf unserer Seite: Welches Spiel ist mit welcher Grafikkarte spielbar?

Add one or more devices and compare

In the following list you can select (and also search for) devices that should be added to the comparison. You can select more than one device.

restrict list:

show all (including archived), 2024, 2023
v1.26
log 27. 03:13:35

#0 checking url part for id 3147 +0s ... 0s

#1 checking url part for id 3525 +0s ... 0s

#2 not redirecting to Ajax server +0s ... 0s

#3 did not recreate cache, as it is less than 5 days old! Created at Thu, 25 Apr 2024 05:40:10 +0200 +0.001s ... 0.001s

#4 composed specs +0.11s ... 0.111s

#5 did output specs +0s ... 0.111s

#6 start showIntegratedCPUs +0s ... 0.111s

#7 getting avg benchmarks for device 3147 +0.026s ... 0.137s

#8 got single benchmarks 3147 +0.006s ... 0.143s

#9 getting avg benchmarks for device 3525 +0.002s ... 0.145s

#10 got single benchmarks 3525 +0.007s ... 0.152s

#11 got avg benchmarks for devices +0s ... 0.152s

#12 min, max, avg, median took s +0.025s ... 0.177s

#13 before gaming benchmark output +0s ... 0.177s

#14 Got 14 rows for game benchmarks. +0.002s ... 0.179s

#15 composed SQL query for gamebenchmarks +0s ... 0.179s

#16 got data and put it in $dataArray +0.004s ... 0.183s

#17 benchmarks composed for output. +0.015s ... 0.199s

#18 calculated avg scores. +0s ... 0.199s

#19 return log +0.102s ... 0.3s

Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > Benchmarks / Technik > Benchmarks / Technik > Grafikkarten Vergleich - Head 2 Head
Autor: Klaus Hinum,  8.09.2017 (Update:  1.07.2023)