Raytracing los primero momento en ordenadores

Activity

Usuario Baneado
Registrado
1 Nov 2014
Mensajes
320
Puntos
0
Edad
48
Os voy a poner noticias y vídeos de los primeros momentos de raytracing para se sepa que alguien investigo en esto,tanto intel como AMD como Nvidia ,como IBM, era algo que se buscaba.

Quake 4 usando Ray tracing en tiempo real

Hablar de RayTracing es hablar de secuencias generadas por ordenador que son indistinguibles de la realidad. El inconveniente de esta técnica es que, sus requerimientos de procesador son tan enormes, que cada fotograma requiere varios minutos para generarse. Debido a esto, el uso de esta técnica en videojuegos era impensable, quedando limitada a la industria del cine y a las aplicaciones de CAD. Sin embargo, el incremento en la potencia de los procesadores puede hacer que, en un futuro mas o menos próximo, esta técnica también pueda utilizarse en videojuegos.


En primer lugar, ¿Que es el RayTracing? En los juegos actuales, el proceso para generar un fotograma de pantalla comienza con los modelos 3D de los objetos, siendo cada modelo una lista de polígonos que definen el modelo. El primer paso es seleccionar los polígonos que se ven en pantalla; luego, a cada polígono se le aplica las transformaciones necesarias (si recibe luz, se le aplica un brillo correspondiente con esa luz; si debe mostrar alguna imagen, se le imprime dicha imagen, …), luego se le aplican los escalados y giros necesarios, y por ultimo se imprime en pantalla. En RayTracing, partimos de los pixels de pantalla; para cada pixel, seguimos su línea de visión (la línea que recorrería el rayo de luz que lo "ilumina"), hasta llegar al objeto que "produce" ese rayo de luz. Si, a su vez, el objeto es un espejo o un cristal (es decir, no tiene un color propio, sino que transforma la luz que recibe), entonces continuamos el proceso; seguimos el rayo de luz que indice sobre ese punto del objeto, y así sucesivamente hasta llegar a la fuente original de luz.

Dicho con otras palabras, que el RayTracing funciona al reves que las técnicas de rendering convencionales; si en estas el punto de partida es el objeto y llegamos hasta la pantalla, en RayTracing el punto de partida es la pantalla y desde ahí llegamos hasta los objetos. Y aquí es donde reside el problema; en las técnicas de rendering convencionales, partimos de una estructura de alto nivel (la definición del objeto 3D), que vamos descomponiendo en piezas mas pequeñas y simples, hasta llegar a un flujo de números sobre el que hay que realizar operaciones aritméticas; es decir, buena parte del trabajo son algoritmos de bajo nivel susceptibles de ser implementados en hardware, en coprocesadores específicos (las GPUs).

En cambio, en RayTracing todo el trabajo se hace sobre las definiciones 3D de los objetos, lo que implica que todo el proceso son algoritmos de alto nivel para los que es muy dificil crear un hardware específico que produzca una mejora visible del rendimiento. De hecho, para generar las escenas para películas cinematográficas se utilizan granjas de PCs totalmente convencionales, sin ningún tipo de hardware específico.

Pero las cosas están cambiando; un equipo alemán ha desarrollado openRT, una librería para realizar raytracing en tiempo real, librería que está disponible para descarga. Así, un estudiante llamado Daniel Pohl ha reescrito los motor es de renderización de Quake 3 y Quake 4 para basarse en dicha librería, con lo que estos juegos han pasado a funcionar sobre raytracing. ¿Los resultados? Podemos verlos en estas dos páginas:

Quake 3 sobre OpenRT
Quake 4 sobre OpenRT
Y aquí tenemos los vídeos:


Quake 3 con raytracing


Quake 4 con raytracing

Lo mas impresionante de estas demos no son los juegos en si, sino sus requerimientos: el equivalente a un procesador de 36Ghz; mas concretamente, para efectuar este renderizado se utilizo un cluster de 20 procesadores Athlon-XP. ¿Veremos algún día juegos con RayTracing? Por supuesto, todo dependerá de que se consigan crear tarjetas gráficas específicas; de momento, los creadores de OpenRT han creado saarcor, un coprocesador que implementa el soporte de RayTracing. Según explica, con la ayuda de este chip estas versiones de Quake pueden funcionar en un Athlon-XP convencional.

Quake 4 usando Ray tracing en tiempo real >> Teleobjetivo

--------------------------------------------------------------------------------

Intel también trabaja en el ray-tracing

Una de las bromas del April’s fool day fue el anuncio de DirectX 11, que supuestamente soportaría ray-tracing. Lo que si que es cierto es que todos los grandes de la electrónica están trabajando en el ray-tracing, entre ellos Intel.

Ray-Tracing es una técnica de iluminación tremendamente pesada, por lo que es imposible utilizarla para la generación de gráficos en tiempo real; así, su uso se ha visto limitado al cine, donde lo importante es la calidad gráfica y no el tiempo que tarde en generarse cada fotograma.

Actualmente, los ordenadores personales ya empiezan a tener suficiente potencia como para poder producir ray-tracing en tiempo real, para poder utilizarlo en videojuegos. De hecho, en Teleobjetivo ya hablé de unas versiones de Quake que utilizaban Ray-Tracing; se basaban en OpenRT, un motor gráfico de raytracing implementado como unas extensiones de OpenGL. También he hablado de un software de ray-tracing para Cell desarrollado por IBM, que mostraron en una demo que corría sobre PS3.

Intel no podía quedar fuera de esta carrera, así que también ha presentado sus propias demos; a continuación podemos ver una demo de ray-tracing a tiempo real sobre un procesador de ocho núcleos.


Una de las peculiaridades de Ray-Tracing es que es una técnica gráfica que se ha de implementar en software. Aunque se han diseñado algunos procesadores específicos, como el SaarCOR, la mejor manera de implementar ray-tracing es mediante procesadores multinúcleo de propósito general. Una mala noticia para los fabricantes de tarjetas gráficas, aunque NVidia se ha puesto las pilas y sus últimas GPU son combinados CPU/GPU con procesamiento de proposito general.

En cualquier caso, para alegría de los gamers, se da por seguro que la llegada del ray-tracing será el final de las tarjetas gráficas dedicadas. Una buena noticia para Intel y AMD, pero muy mala para NVidia.

Intel tambien trabaja en el ray-tracing >> Teleobjetivo

-----------

Primer Juego con Ray Tracing llegará en 2012

Al ritmo de avance en TFLOPS de las GPU actuales tendremos potencia de sobra para entonces.

En la presentación del USS Hornet AMD presentó más que Eyefinity o Lanzamientos de puro papel, BSN reporta que se encuentra en desarrollo lo que será posiblemente el primer juego en utilizar Ray Tracing en tiempo real, pero el proyecto no acaba ahí, se trata de una película basada en un Manga que será interactiva, de modo que el juego sirva para dar un final diferente al original.

Jules Urbach mostró un demo de diez segundos corriendo en hardware ATi Evergreen que como ya habrán leído en el review de CHW, se abalanzó sobre el título del GPU más rápido del oeste y que trae características compatibles con aplicaciones más allá del rendereo de imágenes que conocemos actualmente.

El desarrollo está a cargo de Big Lazy Robot que trabajó en transformers (Motor raytracing/voxel en tiempo real) y ha hecho trabajos para la misma ATi desde la salida de la serie Radeon 4000 con el demo de Cinema 2.0

lightstage_movie_games_00.jpg


No les fue permitido revelar el nombre del desarrollador Japonés que trabaja con ellos. (Empresa)

Otros involucrados en el proyecto son: OTOY Games que provee una nube de renderizado y Lightstage, empresa de digitalización de modelos humanos y animales, que al momento de publicar muestra en su portada alguien que se parece a Ruby (Personaje de ATi)

AMD está apostando fuerte en la industria de videojuegos recientemente y nos muestra un cambio de posición a una un poco más agresiva, con apuestas interesantes.

Sin más preámbulo les dejo las capturas que lograron los enviados de BSN en las que podrán observar un poco el nivel de detalle prestado al trabajo

lightstage_movie_games_01.jpg


lightstage_movie_games_02.jpg


lightstage_movie_games_04.jpg


lightstage_movie_games_03.jpg


Fuente: Bright Side Of News

Primer Juego con Ray Tracing llegara en 2012

Intel muestra Larrabee en la IDF

Intel ha mostrado por primera vez Larrabee en la "Intel Developer Forum", ofreciendo una demostración con ray-traced de una demo de Quake Wars. Al terminar, Intel comentó que las primeras GPUs Larrabee serán comercializadas el año que viene.

Durante la demostración Bill Mark, científico senior de investigación de Intel, comentó que sacaron el contenido, las texturas y la geometría del juego y las pusieron en su motor de ray-tracing. Mark describió la tecnología ray-tracing como algo que permite simular la interacción de la luz de una forma precisa haciendo que resulte más fácil generar efectos de luces y sombras.


Según Mark el agua de la demo, realizada con C++, está hecha con sólo 10 líneas de código.

Intel muestra Larrabee en la IDF

---------------------------------------------------------------------------

Intel Larrabee, ¿podrá acabar con el dominio de ATI y NVIDIA en gráficos 3D?.

IDF 2009. Intel ha realizado una demostración con la solución que pretende destronar a las tarjetas gráficas dedicadas de NVIDIA y ATI en rendimiento 3D. Una propuesta de nombre en clave “Larrabee” tan ambiciosa como sorprendente -ya que se trata de un chip x86- que plantea todavía muchas dudas en la industria.
Intel prepara el asalto a un terreno hasta ahora vedado para el gigante del chip, que domina el mercado de gráficas integradas gracias al tirón de la marca y el bajo coste y consumo de sus chipset, pero que está a años luz del rendimiento gráfico que ofrecen las tarjetas gráficas tanto integradas como dedicadas de NVIDIA o ATI.
Intel pretende ponerse a su altura con Larrabee del que ha realizado una demostración gráfica mediante una escena renderizada con Ray Tracing del esperado id Software, Enemy Territory: Quake Wars, con un rendimiento gráfico (dice Intel) a la altura nada menos que el de la NVIDIA GTX 285, hasta ayer con el lanzamiento de la ATI Radeon 5870, la más potente del mercado.

12209_large_larrabee_demo.png


Sea cierto o no, la comparación entre ambas soluciones no es fácil ya que Larrabee presenta una arquitectura completamente distinta a la utilizada por las gráficas dedicadas, basada en un procesador multinúcleo (hasta 48 ) programable, con instrucciones x86, multi-threading y memoria caché. No está claro si se tratará de un concepto más cercano a GPGPU, o a una GPU con núcleos de procesamiento multipropósito. Tampoco sabemos cuantos núcleos harán falta para superar los 1.600 procesadores de shaders de las últimas ATI 5000, ni su coste, un aspecto esencial.

Sí sabemos que (en teoría) a los desarrolladores les sería más fácil programar en esta arquitectura y que Intel aquí tiene el monopolio de las x86. Intel anuncia su llegada en el primer semestre de 2010 así como un sistema SoC con Larrabe para competir con soluciones como el ION de NVDIA.

http://www.theinquirer.es/2009/09/2...io-de-ati-y-nvidia-en-graficas-dedicadas.html

GPU “Larrabee” de Intel cancelado

FAIL

¿Qué tan complicado puede ser desarrollar una GPU con un nuevo concepto de arquitectura diferente a los que estamos acostumbrados hoy? Parece ser tan difícil como hacer gárgaras boca a abajo con pasta dental. El punto es que a Intel se le acabó la paciencia tratando y terminó por cancelar el ambicioso proyecto conocido como “Larrabee”.

intelfail.jpg


Por si ustedes no sabían, “Larrabee” era la próxima arquitectura a estrenarse en el ámbito de la computación gráfica. Básicamente es era un GPU que trabajaría de manera similar a una CPU, dotado de muchos núcleos de procesamiento y cuya especialidad sería el Ray-Tracing. Si bien era una buena idea para impulsar las gráficas del mañana, ya estaban 1 año atrasados, y fue tiempo suficiente para que Intel desenchufara la aventura hace poco.

En otras palabras, este proyecto no verá la luz nunca, y por supuesto olvídense de las tarjetas gráficas que llegarían al mercado el 2010. Sin embargo, Larrabee no está del todo muerto, porque algunos chips se usarán en algunas estaciones de desarrollo interno y externo, además de algunos HPC. Ahora todo pasó a ser un proyecto más de Software que de Hardware.

Seguramente Intel intentará materializar su nueva GPU en una especie de “Larrabee 2″ en un futuro cercano. No botarán billetes a la basura sólo porque la primera vez no les resultó, sólo harán borrón y cuenta nueva.

Links:
- Intel “Larrabee” GPU Cancelled (VR-Zone)
- Intel kills consumer Larrabee, focuses on future variants (SemiAccurrate)
- First-gen Larrabee not going retail, project moves ahead (TechConnect)
- Intel: Initial Larrabee graphics chip canceled (CNET News)
- Intel’s Larrabee graphics processor delayed, downsized to mere software development platform (Engadget)

http://www.chw.net/2009/12/gpu-larrabee-de-intel-cancelado/
 

Activity

Usuario Baneado
Registrado
1 Nov 2014
Mensajes
320
Puntos
0
Edad
48
GAIKING: ¿la fusión del cine y los videojuegos?.

gaiking3.png


Si, se trata del avance de la nueva película parte de la saga Heavy Metal Series llamada Enter GAIKING (Daikyu Maryu Gaiking conocida en Latinoamérica como “El Gladiador” y de la cual hubo una temporada llamada Gaiking Legend of Daikyu Maryu), película a estrenarse en el 2012 será diriguida por Mathew Gratzner, y enteramente creada usando las tecnologías de Light Stage (raytracing apoyado por AMD con su tecnología AMD Cinema) capturando modelos de robots a escala real 1:1 de entre 15 a 20 metros de altura construidos específicamente para el film. Un juego usando la misma tecnología se está desarrollando paralelamente, y corren rumores de que tendrá múltiples finales interactivos.

Theo Valich afirma que cuando estén terminados de construir no perderá la oportunidad de ir a verlos. Ojalá publique aunque sea unas fotos para deleitarnos, pero por lo pronto tendremos que conformarnos con su impresionante tráiler:


Toda la noticias aquí:

Resultados de buscador - FayerWayer

Intel: Larrabee está vivo y coleando

El GPU Intel Larrabee ha sido anunciado desde hace mucho, prometiendo rivalizar en rendimiento 3D con las gamas altas de ATI y Nvidia, para luego anunciar que se cancelaba su versión enfocada al mercado de los juegos 3D, y hace apenas 2 meses anunciar su retorno. En una entrevista realizada durante una conferencia de inversores de Intel. Paul Otellini. El CEO de Intel, afirmó que el proyecto Larrabee aún tiene mucha vida. Quizá simplemente se sobreestimaron sus capacidades en las primeras etapas.

larrabee1.jpg


Si cometimos algún error en la evolución de Larrabee, probablemente fue haber hablado de algo que era de alto riesgo y a largo plazo.

Según Otellini, el factor de riesgo es lo que llevó a que Larrabee sea removido de los roadmaps de Intel para los próximos años, a pesar de que previamente se haya anunciado los planes de Intel en el mercado gráfico. Sin embargo esto no significa que Intel no está trabajando en el proyecto, sino que está esperando la oportunidad adecuada para lanzarlo.

Tomamos el riesgo asociado fundamentalmente con la nueva arquitectura Larrabee, en nuestro plan de trabajo durante los próximos años, así que tenemos la flexibilidad necesaria para mantener su competitividad mientras continuamos trabajando en él.

Hemos enviado SDVs (software development vehicles) y estamos viendo cómo y cuándo llevarlo al mercado. Larrabee aún promete mucho en áreas de procesamiento de cómputo, y en términos de ser un motor gráfico reprogramable que usa pequeños núcleos IA (arquitectura x86 Intel), aún nos sigue gustando la idea.

larrabee-pci.gif

Esquema de la versión PCIe de Larrabee

Esperemos que tantas palabras se traduzcan en un producto real, y no en un continuo ir y venir de interminables rumores y promesas al más puro estilo Duke Nukem Forever.

Link: Intel: Larrabee is still alive and kicking (Thinq)

Intel: Larrabee esta vivo y coleando

Intel describe la arquitectura MIC: Many Integrated Core.

Hace poco vimos el resurgir de Larrabee de Intel en su versión para computo HPC la cual usa una arquitectura a la que Intel denomina MIC (Many Integrated Core) y el cGPU en concreto tiene por nombre código: “Knights Corner” y vendrá en variadas versiones de hasta más de 50 núcleos x86.

larrabee2-518x350.jpg


Como se vió en la noticia anterior, el anuncio de Larrabee se hizo en el evento Supercomputing 2010 desde el cual nos llega un video que los de Intel subieron a Youtube, donde muestran el performance de cálculo de Larrabee, en este caso el prototipo probado contó con 32 núcleos los cuales gracias a algún tipo de función SMT (quizá un HyperThreading más evolucionado) es capaz de procesar 128 hilos.

Link: Intel discusses Many Integrated Core Architecture (Larrabee) (video) (Guru3D)

Intel describe la arquitectura MIC: Many Integrated Core
 
Arriba