Renderizado y composición
Renderizado y composición
El último paso a la hora de generar una imagen aumentada es obtener una vista del objeto virtual a ubicar en la imagen real desde el punto de vista de la cámara -obtenido en los pasos anteriores- y componerlas ambas.
Para ello se emplea la librería OpenGL, que, a partir de un modelo 3D de un objeto, permite generar una vista plana de éste desde cualquier punto de vista. En general, los modelos pueden venir en distintos formatos, como el 3ds de 3D Studio. Mediante las funciones apropiadas de la librería el modelo se carga y se renderiza la vista desde la posición de la cámara obtenida. Este paso nos da un objeto "flotando" sobre un fondo homogéneo.
Una vez obtenida esta imagen, sólo resta componerla con la imagen real del marcador, capturada para llevar a cabo todo este proceso. La composición puede llevarse a cabo de distintas maneras, la más sencilla de las cuales consiste simplemente en sustituir los píxeles del fondo homogéneo por los píxeles de la imagen original que ocupan su misma posición (recordemos que las cámaras real y virtual ocupan la misma posición).

Este proceso se repite reiteradamente para cada imágen capturada, lo cual daría sensación de continuidad siempre y cuando se puedan procesar más de 16 imágenes por segundo (preferiblemente 24). Nótese que la cantidad de imágenes que pueden generarse dependerá como mínimo de los siguientes factores:
- Capacidad de la unidad de proceso (móvil, PC, tablet ...)
- Tarjeta gráfica disponible
- Número de potenciales patrones a reconocer
- Complejidad del objeto virtual a renderizar