• Compra una licencia de Windows 10/11 (10€) u Office (18€) al mejor precio u Office al mejor precio con CDKeyoffer. Entra en este post con las ofertas
  • ¡Bienvenid@! Recuerda que para comentar en el foro de El Chapuzas Informático necesitas registrar tu cuenta, tardarás menos de 2 minutos y te dará valiosa información además de ayudarte en lo que necesites o pasar un rato agradable con nosotros.

tarjetas AMD 290, cúal?

...Si es para fotografía... R9... los drivers de AMD están mejor desarrollados, en cuanto a Gestión de color, y siguen ofreciendo mejores resultados en OpenCL (Nvidia se acerca...)... por ejemplo, con AMD: podrías calibrar tu monitor a 8bits y las Luts internas de un monitor profesional a 10,12 y 14bits.
 
...Si es para fotografía... R9... los drivers de AMD están mejor desarrollados, en cuanto a Gestión de color, y siguen ofreciendo mejores resultados en OpenCL (Nvidia se acerca...)... por ejemplo, con AMD: podrías calibrar tu monitor a 8bits y las Luts internas de un monitor profesional a 10,12 y 14bits.

El OpenCL de nvidia es una caca, sobre todo con maxwell que en temas de ésos de fotografía (que usa precisión doble y tal) no tiene chicha alguna, pero nada. Y como no hay apenas programas de fotografía que usan CUDA, es como si nvidia no existiera en el mercado de gpgpu para retoque fotográfico.

Todo el mundo sabe que las nvidia sólo sacan 16 colores, nada de 6 o 8 bits por comp.color, claro, mucho menos cosas superiores.

Por cierto, ¿qué es eso de las luts? Para ilustrarme claro, ahora que ya sé que nvidia es una mierda.

http://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus

Upps... vaya por dios. Soportando 10 bits de color desde las GTX 200 bajo DX, sólo requiriendo para OpenGL y programas asociados quadro y similares.

PD: Me sé de un tipo que decía que él notaba lo del color de 10 bits y 8 bits, la diferencia, cuando tenía.... un panel de 8 bits con interpolación interna a 10 bits (esto es, que no sirve de absolutamente nada enviar 10 bits en la salida a vídeo, la información extra del monitor para obtener 10 bits se la INVENTABA éste mismo, y de hecho esa "precisión" existía igualmente con salidas de 8 y 10 bits). Sin contar que nvidia lleva más de un lustro dando soporte de 10 bits en todas sus tarjetas, bajo windows y DX.
 
El OpenCL de nvidia es una caca, sobre todo con maxwell que en temas de ésos de fotografía (que usa precisión doble y tal) no tiene chicha alguna, pero nada. Y como no hay apenas programas de fotografía que usan CUDA, es como si nvidia no existiera en el mercado de gpgpu para retoque fotográfico.

Todo el mundo sabe que las nvidia sólo sacan 16 colores, nada de 6 o 8 bits por comp.color, claro, mucho menos cosas superiores.

Por cierto, ¿qué es eso de las luts? Para ilustrarme claro, ahora que ya sé que nvidia es una mierda.

http://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus

Upps... vaya por dios. Soportando 10 bits de color desde las GTX 200 bajo DX, sólo requiriendo para OpenGL y programas asociados quadro y similares.

PD: Me sé de un tipo que decía que él notaba lo del color de 10 bits y 8 bits, la diferencia, cuando tenía.... un panel de 8 bits con interpolación interna a 10 bits (esto es, que no sirve de absolutamente nada enviar 10 bits en la salida a vídeo, la información extra del monitor para obtener 10 bits se la INVENTABA éste mismo, y de hecho esa "precisión" existía igualmente con salidas de 8 y 10 bits). Sin contar que nvidia lleva más de un lustro dando soporte de 10 bits en todas sus tarjetas, bajo windows y DX.


que alboroto... jejeje

Nvidia "gaming" tiene 8bits (=16,2millones de colores) de resolución en la entrada LUT1D (1 por canal) (Esta es una que tabla que almacena los valores del tag VCGT de los perfiles ICM de calibración en la GPU=256 entradas a 16bit de resolución cada una). La Nvidia gamer (e Intel) trucan ese contenido de 8bits por cada entrada=256 entradas (defecto de drivers) cuando calibramos el monitor. Así pues en la calibración, cuanto mayor sea la corrección de Gamma, mayor será el error, y cuanto mayor sea el Gamut del monitor, aun peor. Calibrar entonces con un Nvida significa que se generaran gradientes /escalados en la escala RGB.
Las AMD gaming también tiene salida de 8bits, pero le aplican un dithering =drivers, que corrige esa desviación que Nvidia no hace.
Por contra las de gama profesional (Quadro o FirePRo) cuentan con más de 10bit para esta tarea, evitando estas corrupciones tan habituales de la rampa de gris tras la calibración.

Pero esto no es preocupante si no se calibra el monitor, puedes tener un Nvidia y podemos "pasar" de este tema, si disponemos de monitores de cobertura baja sRGB 7x%... pero no en monitores de cobertura amplia sRGB 9x% y WideGamut=AdobeRGB. 100%

La LUT interna de un monitor (siempre en monitores con calibración interna=profesionales.. ejem: DEll u2413), es el componente que se encarga de recibir la señal de la tarjeta gráfica, y sobre esta, realizar una asignación de colores que será lo que se muestre en pantalla. En un modelo de monitor con una LUT de 14bits significará que los colores con los que puede contar el procesador interno del monitor para realizar la asignación son:

teniendo en cuenta que 1 bit puede tener 2 valores (0 ó 1):
14 bits= 2^14 = 16384 tonos para cada uno de los canales RGB, es decir un total de 16384*16384*16384=4.398.046.511.104 colores en pantalla.
 
que alboroto... jejeje

Nvidia "gaming" tiene 8bits (=16,2millones de colores) de resolución en la entrada LUT1D (1 por canal) (Esta es una que tabla que almacena los valores del tag VCGT de los perfiles ICM de calibración en la GPU=256 entradas a 16bit de resolución cada una). La Nvidia gamer (e Intel) trucan ese contenido de 8bits por cada entrada=256 entradas (defecto de drivers) cuando calibramos el monitor. Así pues en la calibración, cuanto mayor sea la corrección de Gamma, mayor será el error, y cuanto mayor sea el Gamut del monitor, aun peor. Calibrar entonces con un Nvida significa que se generaran gradientes /escalados en la escala RGB.
Las AMD gaming también tiene salida de 8bits, pero le aplican un dithering =drivers, que corrige esa desviación que Nvidia no hace.
Por contra las de gama profesional (Quadro o FirePRo) cuentan con más de 10bit para esta tarea, evitando estas corrupciones tan habituales de la rampa de gris tras la calibración.

Pero esto no es preocupante si no se calibra el monitor, puedes tener un Nvidia y podemos "pasar" de este tema, si disponemos de monitores de cobertura baja sRGB 7x%... pero no en monitores de cobertura amplia sRGB 9x% y WideGamut=AdobeRGB. 100%

La LUT interna de un monitor (siempre en monitores con calibración interna=profesionales.. ejem: DEll u2413), es el componente que se encarga de recibir la señal de la tarjeta gráfica, y sobre esta, realizar una asignación de colores que será lo que se muestre en pantalla. En un modelo de monitor con una LUT de 14bits significará que los colores con los que puede contar el procesador interno del monitor para realizar la asignación son:

teniendo en cuenta que 1 bit puede tener 2 valores (0 ó 1):
14 bits= 2^14 = 16384 tonos para cada uno de los canales RGB, es decir un total de 16384*16384*16384=4.398.046.511.104 colores en pantalla.


Todavia estoy procesando tanta informacion :aleluya:

http://ppbm7.com/index.php/tweakers-page/92-what-video-card-to-use&

Dice esto
General advise
For the moment ONLY nVidia GeForce cards are advised. CS6 does not support AMD cards and AMD is still considered the 'New kid on the block' as far as CC goes. AMD is still in its infancy, the drivers and Adobe support is still too new to effectively compete with nVidia's CUDA acceleration, which has been proven in the past years and have stable drivers from nVidia and stable support from Adobe. nVidia CUDA support is a mature technology with a proven track record. Add to that the recent price increases of AMD cards and they have effectively outpriced themselves in the competition with nVidia. Benchmark results with AMD cards show they are about two times slower than equally priced nVidia cards.
 
Vaya despropósito... con un fanvidia henos topado (el yanki... no tu lord....)... Si bien es verdad que para video, CUDA sigue siendo superior a AMD, Adobe está dejando de lado a Nvidia en sus programas gráficos en especial CC con OpenCL... tan simple, como abrir preferencias en Photoshop, rendimeinto, ajustes avanzados y seleccionar OpenCL como única opción disponible... de momento para Premiere y AE no toca, pero todo llegará...
 
Arriba