La cuestión es más sencilla. Battlefield 1 es un juego con gran uso de CPU porque tiene que calcular infinidad de físicas, desde destrucción de edificios, fuego, partículas, etc... De hecho no tiene tanto que ver el uso de CPU con la gráfica asociada, ni con el nivel de detalle, sino con la cantidad de frames que tiene que gestionar por segundo. Si buscáis vídeos en Youtube podréis llegar a la misma conclusión.
En ese vídeo se ve la RX 470 4GB con un FX 8320E, un i5 3570K y un i7 6700K. Hay que tener en cuenta que es un vídeo para estresar los micros, se ve como la resolución está puesta en 42%, pues ni de coña la RX470 saca esos FPS en ULTRA.
Es muy curioso porque el 8320E no es capaz de mantener la RX 470 al 100% y tiene importantes bajones. Sin embargo no llega a un 75% del uso de CPU nunca (no está haciendo cuello de botella) pero no es capaz de que la gráfica funcione de forma estable. Supongo que puede tener algo que ver los PCIe 2.0. En el i5 3570K vemos que la gráfica si aguanta al 100% todo el rato, con un uso de CPU rondando el 95% pese a estar oceado a 4,2GHz. Dependiendo del momento es capaz de sacarle los mismos FPS que el i7, pero en otros momentos tiene bajones de hasta 20FPS respecto al i7. Y en el i7 vemos un rendimiento constante, con un uso de CPU entorno al 60%.
Aquí otro vídeo con el mismo ajuste del 42%, en este caso con un i5 2500K y un FX 8350, acompañados de una AMD 7950
A lo largo del vídeo va cambiando los ajustes de LOW, a MEDIUM, a HIGH y a ULTRA. En todos los casos el i5 2500K saca casi 20fps extra que el FX 8350 y el consumo de CPU se ve como baja en el i5 en a la inversa de los ajustes. En el FX 8350 vemos como si fuera con un lastre, no saca el 100% a la gráfica hasta los ajustes ULTRA, mientras que el i5 lo sacaba con ajustes MEDIUM.