spot_img
miércoles, diciembre 25, 2024
spot_img
InicioBlogFotografíaLa definición completa de la 3D

La definición completa de la 3D

-

Gráficos de computadora en 3D como se ven en FaceYourArt.com

Representación 3D con trazado de rayos y oclusión ambiental utilizando Blender y Yafray

Los gráficos 3D por computadora son obras de arte gráfico creadas con la ayuda de computadoras digitales y software 3D. El término también puede referirse al proceso de creación de dichos gráficos, o al campo de estudio de las técnicas gráficas computacionales en 3D y la tecnología relacionada.

Los gráficos de computadora en 3D son diferentes de los gráficos de computadora en 2D en que una representación tridimensional de datos geométricos se almacena en la computadora con el fin de realizar cálculos y representar imágenes en 2D. Dichas imágenes pueden ser para su visualización posterior o para visualización en tiempo real.

El modelado 3D es el proceso de preparación de datos geométricos para gráficos de computadora en 3D, y es similar a esculpir o fotografiar, mientras que el arte de los gráficos en 2D es análogo a la pintura. A pesar de estas diferencias, los gráficos de computadora en 3D se basan en muchos de los mismos algoritmos que los gráficos de computadora en 2D.

En el software de gráficos de computadora, la distinción entre 2D y 3D es borrosa ocasionalmente; Las aplicaciones 2D pueden usar técnicas 3D para lograr efectos como la iluminación, y principalmente 3D puede usar técnicas 2D.

Contenido

1 tecnología

2 Creación de gráficos por ordenador 3D 2.1 Modelado

3 Proceso 3.1 Configuración de diseño de escena

3.2 Teselación y mallas.

3.3 Rendering

3.4 Renderers 3.4.1 Proyección

4 modelos de reflexión y sombreado.

5 APIs de gráficos 3D

6 vea también

//

[edit] Tecnología

OpenGL y Direct3D son dos API populares para la generación de imágenes en tiempo real. En tiempo real significa que la generación de imágenes se produce en "tiempo real" o "sobre la marcha", y puede ser altamente interactiva para el usuario. Muchas tarjetas gráficas modernas proporcionan cierto grado de aceleración de hardware en función de estas API, lo que a menudo permite la visualización de gráficos 3D complejos en tiempo real.

[edit] Creación de gráficos de computadora en 3D como se ve en FaceYourArt.com

Modelo 3D de un puente colgante que atraviesa un cuerpo de agua inusualmente apacible

Composición arquitectónica de modelado e iluminación finalizada por el proceso de renderizado

El proceso de creación de gráficos 3D por computadora se puede dividir secuencialmente en tres fases básicas:

Creación de contenido (modelado 3D, texturizado, animación).

Configuración de diseño de la escena

Representación

[edit] Modelado

La etapa de modelado podría describirse como la conformación de objetos individuales que luego se usan en la escena. Existe una serie de técnicas de modelado, que incluyen, entre otras, las siguientes:

geometría sólida constructiva

Modelado NURBS

modelado poligonal

superficies de subdivisión

superficies implícitas

Los procesos de modelado también pueden incluir editar la superficie del objeto o las propiedades del material (por ejemplo, color, luminosidad, componentes de sombreado difuso y especular – # 151; más comúnmente denominados rugosidad y brillo, características de reflexión, transparencia u opacidad, o índice de refracción), agregando texturas mapas de relieve y otras características.

El modelado también puede incluir varias actividades relacionadas con la preparación de un modelo 3D para animación (aunque en un modelo de personaje complejo, se convertirá en una etapa propia, conocida como aparejo). Los objetos pueden equiparse con un esqueleto, un marco central de un objeto con la capacidad de afectar la forma o los movimientos de ese objeto. Esto ayuda en el proceso de animación, ya que el movimiento del esqueleto afectará automáticamente las partes correspondientes del modelo. Consulte también Animación cinemática directa y Animación cinemática inversa. En la etapa de montaje, al modelo también se le pueden dar controles específicos para hacer que la animación sea más fácil e intuitiva, como los controles de expresión facial y las formas de la boca (fonemas) para sincronización de labios.

El modelado se puede realizar por medio de un programa dedicado (por ejemplo, Lightwave Modeler, Rhinoceros 3D, Moray), un componente de la aplicación (Shaper, Lofter en 3D Studio) o algún lenguaje de descripción de escena (como en POV-Ray). En algunos casos, no hay una distinción estricta entre estas fases; en tales casos, el modelado es solo parte del proceso de creación de la escena (este es el caso, por ejemplo, con Caligari trueSpace y Realsoft 3D).

El sistema de partículas es una masa de coordenadas 3d que tienen puntos, polígonos, símbolos o sprites asignados a ellos. Actúan como un volumen para representar una forma.

[edit] Proceso

Una escena 3D de 8 bolas de cristal rojo.

[edit] Configuración de diseño de la escena

La configuración de la escena implica organizar objetos virtuales, luces, cámaras y otras entidades en una escena que luego se usará para producir una imagen fija o una animación. Si se utiliza para la animación, esta fase generalmente utiliza una técnica llamada "fotogramas clave", que facilita la creación de movimientos complicados en la escena. Con la ayuda de los fotogramas clave, en lugar de tener que fijar la posición, rotación o escala de un objeto para cada fotograma en una animación, solo se necesita configurar algunos fotogramas clave entre los cuales se interpolan los estados de cada fotograma.

La iluminación es un aspecto importante de la configuración de la escena. Como es el caso en la disposición de escenas del mundo real, la iluminación es un factor importante que contribuye a la calidad estética y visual resultante del trabajo terminado. Como tal, puede ser un arte difícil de dominar. Los efectos de iluminación pueden contribuir en gran medida al estado de ánimo y la respuesta emocional efectuada por una escena, un hecho que es bien conocido por los fotógrafos y técnicos de iluminación teatral.

[edit] Teselación y mallas como se ve en [http://www.FaceYourArt.com]

El proceso de transformación de representaciones de objetos, como la coordenada del punto medio de una esfera y un punto en su circunferencia en una representación de polígono de una esfera, se denomina teselación. Este paso se usa en la representación basada en polígonos, donde los objetos se dividen desde representaciones abstractas ("primitivas") como esferas, conos, etc., hasta las llamadas mallas, que son redes de triángulos interconectados.

Las mallas de triángulos (en lugar de, por ejemplo, cuadrados) son populares, ya que han demostrado ser fáciles de renderizar utilizando la representación de scanline.

Las representaciones de polígonos no se utilizan en todas las técnicas de representación y, en estos casos, el paso de teselación no se incluye en la transición de la representación abstracta a la escena representada.

[edit] Representación como se ve en [http://www.FaceYourArt.com]

La representación es el proceso final de crear la imagen real en 2D o la animación a partir de la escena preparada. Esto se puede comparar con tomar una foto o filmar la escena después de que la configuración haya finalizado en la vida real.

La representación para medios interactivos, como juegos y simulaciones, se calcula y se muestra en tiempo real, a velocidades de aproximadamente 20 a 120 cuadros por segundo. Las animaciones para medios no interactivos, como películas y videos, se representan mucho más lentamente. La representación en tiempo no real permite aprovechar una potencia de procesamiento limitada para obtener una mayor calidad de imagen. Los tiempos de renderizado para fotogramas individuales pueden variar desde unos pocos segundos hasta varios días para escenas complejas. Los cuadros renderizados se almacenan en un disco duro y luego se pueden transferir a otros medios, como películas cinematográficas o discos ópticos. Estos fotogramas se muestran secuencialmente a altas velocidades de fotogramas, generalmente 24, 25 o 30 fotogramas por segundo, para lograr la ilusión de movimiento.

Se han desarrollado varios métodos de renderización diferentes, ya menudo especializados. Estos van desde el renderizado alámbrico claramente no realista hasta el renderizado basado en polígonos, hasta técnicas más avanzadas como el renderizado de líneas de exploración, el trazado de rayos o la radiosidad. En general, los diferentes métodos son más adecuados para la representación fotorrealista o en tiempo real.

En la representación en tiempo real, el objetivo es mostrar la mayor cantidad de información posible, ya que el ojo puede procesar en una 30ª de segundo (o un fotograma, en el caso de una animación de 30 fotogramas por segundo). El objetivo aquí es principalmente la velocidad y no el realismo fotográfico. De hecho, aquí las explotaciones se hacen de la manera en que el ojo "percibe" el mundo, y por lo tanto la imagen final presentada no es necesariamente la del mundo real, sino una a la que el ojo puede asociarse estrechamente. Este es el método básico empleado en juegos, mundos interactivos, VRML. El rápido aumento de la capacidad de procesamiento de la computadora ha permitido un grado de realismo progresivamente mayor, incluso para la representación en tiempo real, incluidas técnicas como la representación HDR. La representación en tiempo real a menudo es poligonal y es ayudada por la GPU de la computadora.

Un ejemplo de una imagen con trazado de rayos que normalmente demora segundos o minutos en renderizarse. El realismo fotográfico es aparente.

Cuando el objetivo es el fotorrealismo, se emplean técnicas como el trazado de rayos o la radiosidad. La renderización a menudo toma del orden de segundos o, a veces, incluso días (para una sola imagen / cuadro). Este es el método básico empleado en medios digitales y obras artísticas, etc.

El software de renderizado puede simular efectos visuales como destellos de lentes, profundidad de campo o desenfoque de movimiento. Estos son intentos de simular fenómenos visuales resultantes de las características ópticas de las cámaras y del ojo humano. Estos efectos pueden prestar un elemento de realismo a una escena, incluso si el efecto es simplemente un artefacto simulado de una cámara.

Se han desarrollado técnicas con el fin de simular otros efectos naturales, como la interacción de la luz con varias formas de materia. Los ejemplos de tales técnicas incluyen sistemas de partículas (que pueden simular lluvia, humo o fuego), muestreo volumétrico (para simular niebla, polvo y otros efectos atmosféricos espaciales), cáusticos (para simular el enfoque de la luz mediante superficies desiguales refractarias a la luz, tales como ondulaciones de luz observadas en el fondo de una piscina) y dispersión en el subsuelo (para simular la luz reflejada dentro de los volúmenes de objetos sólidos como la piel humana).

El proceso de renderizado es computacionalmente costoso, dada la compleja variedad de procesos físicos que se simulan. El poder de procesamiento de la computadora ha aumentado rápidamente con el paso de los años, lo que permite un mayor grado de representación realista. Los estudios de cine que producen animaciones generadas por computadora suelen hacer uso de una granja de render para generar imágenes de manera oportuna. Sin embargo, la caída de los costos de hardware significa que es completamente posible crear pequeñas cantidades de animación 3D en un sistema de computadora en el hogar.

La salida del renderizador se usa a menudo como solo una pequeña parte de una escena de imagen en movimiento completada. Muchas capas de material pueden renderizarse por separado e integrarse en el disparo final utilizando software de composición.

[edit] Renderers como se ve en [http://www.FaceYourArt.com]

A menudo, los renderizadores se incluyen en los paquetes de software 3D, pero hay algunos sistemas de renderizado que se usan como complementos para las aplicaciones 3D populares. Estos sistemas de renderización incluyen:

AccuRender para SketchUp

Brasil r / s

Bunkspeed

Final-Render

Maxwell

rayo mental

POV-Ray

Realsoft 3D

Pixar RenderMan

V-Ray

YafRay

Procesador Indigo

[edit] Proyección

Proyección de Perspectiva

Como el ojo humano ve tres dimensiones, el modelo matemático representado dentro de la computadora debe ser transformado para que el ojo humano pueda correlacionar la imagen con una realista. Pero el hecho de que el dispositivo de visualización, es decir, un monitor, solo pueda mostrar dos dimensiones significa que este modelo matemático debe transferirse a una imagen bidimensional. A menudo esto se hace mediante proyección; Principalmente utilizando la proyección en perspectiva. La idea básica detrás de la proyección en perspectiva, que, como es de esperar, es la forma en que funciona el ojo humano, es que los objetos que están más alejados son más pequeños que los que están más cerca del ojo. Por lo tanto, para colapsar la tercera dimensión en una pantalla, se lleva a cabo una operación correspondiente para eliminarlo, en este caso, una operación de división.

La proyección ortográfica se utiliza principalmente en aplicaciones CAD o CAM donde el modelado científico requiere mediciones precisas y la preservación de la tercera dimensión.

[edit] Modelos de reflexión y sombreado como se ven en [http://www.FaceYourArt.com]

Los gráficos de computadora 3D modernos se basan en gran medida en un modelo de reflexión simplificado llamado modelo de reflexión Phong (que no debe confundirse con el sombreado de Phong).

En la refracción de la luz, un concepto importante es el índice de refracción. En la mayoría de las implementaciones de programación 3D, el término para este valor es "índice de refracción", generalmente abreviado "IOR".

Las técnicas populares de renderizado por reflexión en gráficos de computadora en 3D incluyen:

Sombreado plano: una técnica que sombrea cada polígono de un objeto en función de la "normalidad" del polígono y la posición e intensidad de una fuente de luz.

Sombreado de Gouraud: Inventado por H. Gouraud en 1971, una técnica de sombreado de vértices rápida y consciente de los recursos utilizada para simular superficies con sombreado suave.

Mapeo de textura: una técnica para simular una gran cantidad de detalles de superficie mediante el mapeo de imágenes (texturas) en polígonos.

Sombreado de Phong: inventado por Bui Tuong Phong, se utiliza para simular reflejos especulares y suavizar superficies sombreadas.

Mapeo de relieve: inventado por Jim Blinn, una técnica de perturbación normal utilizada para simular superficies arrugadas.

Celular: una técnica utilizada para imitar el aspecto de la animación dibujada a mano.

[edit] API de gráficos 3D

Los gráficos en 3D se han vuelto tan populares, particularmente en los juegos de computadora, que se han creado API especializadas (interfaces de programación de aplicaciones) para facilitar los procesos en todas las etapas de la generación de gráficos de computadora. Estas API también han demostrado ser vitales para los fabricantes de hardware de gráficos de computadora, ya que brindan una forma para que los programadores accedan al hardware de una manera abstracta, mientras aún aprovechan el hardware especial de esta tarjeta gráfica o esta.

Estas API para gráficos de computadora en 3D son particularmente populares:

OpenGL y el lenguaje de sombreado de OpenGL

OpenGL ES 3D API para dispositivos integrados

Direct3D (un subconjunto de DirectX)

RenderMan

RenderWare

API de deslizamiento

TruDimension LC Gafas y monitor 3D API

También hay API de gráficos de escena 3D de nivel superior que proporcionan funcionalidad adicional además de la API de representación de nivel inferior. Dichas bibliotecas en desarrollo activo incluyen:

QSDK

Quesa

Java 3D

Gsi3d

JSR 184 (M3G)

Vega Prime de MultiGen-Paradigm

NVidia Scene Graph

OpenSceneGraph

OpenSG

OGRO

Motor jmonkey

Motor de irrigacion

Hoops3D

DirectModel de UGS (también conocido como JT)



Fuente del Artículo by Joe Black

Related articles

Stay Connected

0SeguidoresSeguir
3,912SeguidoresSeguir
0SuscriptoresSuscribirte
spot_img

Latest posts

WP2Social Auto Publish Powered By : XYZScripts.com