La evolución del procesador de gráficos moderno comienza con la introducción de las primeras tarjetas complementarias 3D en 1995, seguida de la adopción generalizada de sistemas operativos de 32 bits y computadoras personales asequibles.

La industria gráfica que existía antes de esto consistía en una arquitectura 2D más prosaica, sin PC, con tarjetas gráficas más conocidas por las convenciones de nomenclatura alfanumérica de sus chips y sus grandes etiquetas de precio. Los gráficos de PC de virtualización y juegos en 3D se fusionaron finalmente a partir de varias fuentes, como juegos de arcade y consolas, simuladores militares, robóticos y espaciales, e imágenes médicas.

Los primeros días de los gráficos de consumo en 3D fueron un salvaje oeste de ideas en competencia. Desde cómo se implementa el hardware, hasta el uso de diferentes técnicas de renderizado y su implementación e interfaces de datos, así como la hipérbola de naming permanente. Los primeros sistemas gráficos tenían una arquitectura que seguía una tubería de función fija (FFP) y una ruta de procesamiento muy estricta que utilizaba tantas API de gráficos como los fabricantes de chips 3D.

Si bien los gráficos 3D hacen de la aburrida industria de las PC un espectáculo ligero y mágico, deben su existencia a generaciones de esfuerzos innovadores. Esta es una serie de cuatro artículos que analizan de manera integral la historia de la GPU, en orden cronológico. Estamos pasando de los primeros días de los gráficos de consumo 3D al cambio de juego de 3Dfx Voodoo, la consolidación de la industria en el cambio de siglo y la GPGPU moderna de hoy.

1976-1995: Los primeros días de los gráficos de consumo 3D

Los primeros gráficos 3D reales comenzaron con los primeros controladores de pantalla conocidos como modificadores de video y generadores de direcciones de video. Sirvieron como transición entre el procesador principal y la pantalla. El flujo de datos entrante se convirtió en una salida de video de mapa de bits en serie, como brillo, color y sincronización compuesta vertical y horizontal, que conservó la línea de píxeles durante una representación y sincronizó cada línea sucesiva (el tiempo entre el intervalo). termina una línea de exploración y comienza la siguiente).




La fiebre del diseño llegó en la segunda mitad de la década de 1970 y sentó las bases para los gráficos 3D tal como los conocemos. Por ejemplo, el chip de video "Pixie" de RCA (CDP1861) de 1976 era capaz de emitir una señal de video compatible con NTSC con una resolución de 62x128 o 64x32 para la consola maliciosa RCA Studio II.




El chip de video fue seguido un año después por el Adaptador de interfaz de televisión (TIA) 1A, que se integró en el Atari 2600 para leer capturas de pantalla, efectos de sonido y controladores de entrada. El desarrollo de TIA fue dirigido por Jay Miner, quien luego dirigió el diseño de chips personalizados para la computadora Commodore Amiga.







En 1978, Motorola presentó el generador de direcciones de video MC6845. Esto se convirtió en la base para las tarjetas Adaptador de pantalla monocromática y en color (MDA / CDA) de IBM PC de 1981, que proporciona la misma funcionalidad para Apple II. Motorola agregó el generador de imágenes de video MC6847 en el mismo año, que irrumpió en varias computadoras personales de primera generación, incluida la Tandy TRS-80.

Una solución similar de la subsidiaria MOS Tech de Commodore, VIC, proporcionó salida de gráficos para las computadoras domésticas Commodore heredadas de 1980-83.




En noviembre del año siguiente, ANTIC (Controlador de interfaz de televisión alfanumérico) de LSI y Coprocesador CTIA / GTIA (Adaptador de interfaz de televisión en color o gráfica) se introdujo en Atari 400. Instrucciones de pantalla 2D procesadas por ANTIC utilizando acceso directo a memoria (DMA). Como la mayoría de los coprocesadores de video, CTIA puede generar gráficos de juegos (fondo, pantallas de título, pantalla de puntuación) al representar colores y objetos en movimiento. Yamaha y Texas Instruments proporcionaron circuitos integrados similares a varios proveedores de computadoras domésticas heredadas.




Los siguientes pasos en la evolución gráfica se dieron principalmente en los campos profesionales.

Intel utilizó el chip gráfico 82720 como base para la tarjeta multimodo del controlador de gráficos de video iSBX 275 de $ 1000. Podría mostrar datos de ocho colores a una resolución de 256x256 (o monocromático a 512x512). 32 KB de memoria de pantalla fueron suficientes para dibujar líneas, arcos, círculos, rectángulos y mapas de bits de caracteres. El chip también tenía funciones de zoom, partición de pantalla y desplazamiento.

SGI siguió rápidamente a IRIS Graphics para estaciones de trabajo: una tarjeta gráfica GR1.x que proporciona placas enchufables (secundarias) separadas para opciones de color, geometría, búfer Z y Overlay / Pad.

La tarjeta multimodo del controlador de gráficos de video iSBX 275 de Intel de $ 1000 era capaz de mostrar datos de ocho colores a una resolución de 256x256 (o monocromática a 512x512).

La virtualización 3D industrial y militar se desarrolló relativamente bien en ese momento. Se han realizado varios proyectos que requieren tecnología para simulaciones militares y espaciales con IBM, General Electric y Martin Marietta (quien adquirirá la división de aviación de GE en 1992), varios contratistas militares, institutos de tecnología y la NASA. La Marina también desarrolló un simulador de vuelo utilizando virtualización 3D de la computadora Whirlwind del MIT en 1951.

Además de los contratistas de defensa, había empresas que se lanzaban a los mercados militares con gráficos profesionales.

Evans & Sutherland, que proporcionará series de tarjetas gráficas profesionales como libertad ve REALimage - además Simulador de vuelo CT5Un paquete de $ 20 millones Anfitrión DEC PDP-11. El cofundador de la empresa, Ivan Sutherland, desarrolló un programa informático llamado Sketchpad en 1961; este programa permitía dibujar formas geométricas y visualizarlas en tiempo real en un CRT usando un lápiz óptico.

Este es el precursor de la moderna interfaz gráfica de usuario (GUI).

En el ámbito menos esotérico de la computación personal, el EGA (Adaptador de gráficos extendido) de la serie 82C43x de Chips and Technologies proporcionó una competencia muy necesaria para los adaptadores de IBM y se implementó en muchos clones de PC / AT alrededor de 1985. Commodore Amiga también viene con el chipset OCS. El conjunto de chips constaba de tres chips de componentes principales (Agnus, Denise y Paula), que permitían que una cierta cantidad de gráficos y sonido dependiera de la CPU.

En agosto de 1985, tres inmigrantes de Hong Kong, Kwok Yuan Ho, Lee Lau y Benny Lau, fundaron Array Technology Inc en Canadá. Al final del año, el nombre era ATI Technologies Inc. cambiado a.

ATI recibió su primer producto como tarjeta de emulación de color OEM al año siguiente. Se utilizó para enviar texto de fósforo monocromático verde, amarillo o blanco a un monitor TTL sobre un fondo negro con un conector DE-9 de 9 pines. La tarjeta está equipada con al menos 16 KB de memoria y fue responsable de la mayor parte de las ventas de $ 10 millones de ATI en el primer año de operación de la compañía. Esto se hizo en gran parte a través de un contrato que proporcionaba a Commodore Computers alrededor de 7000 chips por semana.

La tarjeta de emulación de color de ATI vino con al menos 16 KB de memoria y fue responsable de la mayoría de las ventas de $ 10 millones de la compañía en su primer año de operación.

La llegada de los monitores a color y la falta de un estándar entre los competidores finalmente llevaron a la formación de la Asociación de Estándares de Electrónica de Video (VESA), de la cual ATI es miembro fundador, con NEC y otros seis fabricantes de adaptadores gráficos.

En 1987, ATI agregó la línea Graphics Solution Plus a la línea de productos de los OEM utilizando el bus PC / XT ISA de 8 bits para las PC IBM basadas en Intel 8086/8088 de IBM. El chip admitía modos gráficos MDA, CGA y EGA con interruptores DIP. Básicamente era un clon de la tarjeta Plantronics Colorplus, pero tenía espacio para 64 kb de memoria. PEGA1, 1a y 2a (256kB) de Paradise Systems, publicado en 1987, eran clones de Plantronics.

La serie EGA Wonder 1-4 alcanzó los $ 399 en marzo, brindando 256 KB de DRAM y compatibilidad con emulación CGA, EGA y MDA de hasta 640x350 y 16 colores. Una EGA ampliada estaba disponible para las series 2, 3 y 4.

El relleno de alta gama era el EGA Wonder 800 con emulación VGA de 16 colores y soporte de resolución 800x600, y era una tarjeta VGA Enhanced Performance (VIP), esencialmente una EGA Wonder con la adición de digital-analógico (DAC). compatibilidad limitada con VGA. El segundo es $ 449 más $ 99 por el módulo de expansión de Compaq.

ATI estaba lejos de ser la única en la ola de apetito de los consumidores por la informática personal.

Ese año llegaron muchas empresas y productos nuevos, entre ellos Trident, SiS, Tamerack, Realtek, Oak Technology, LSI's G-2 Inc., Hualon, Cornerstone Imaging y Winbond, todas fundadas en 1986-87. Mientras tanto, empresas como AMD, Western Digital / Paradise Systems, Intergraph, Cirrus Logic, Texas Instruments, Gemini y Genoa habrían producido sus primeros productos gráficos durante este tiempo.

La serie Wonder de ATI continuó recibiendo increíbles actualizaciones durante los próximos años.

En 1988, la solución de gráficos Little Wonder (para emulación CGA y MDA) con puerto de controlador y opciones de salida compuesta, así como el EGA Wonder 480 y 800+ con EGA extendido y soporte VGA de 16 bits, y también VGA estuvieron disponibles. Wonder y Wonder 16 con compatibilidad adicional con VGA y SVGA.

El Wonder 16 estaba equipado con 256 KB de memoria por $ 499, mientras que la variante de 512 KB costaba $ 699.

La serie VGA Wonder / Wonder 16 actualizada llegó en 1989, incluida la VGA Edge 16 de bajo costo (serie Wonder 1024). Las nuevas características incluyen un puerto bus-mouse y soporte para el conector de características VESA. Este era un conector de dedo dorado similar a un conector de ranura de bus acortado y se conectaba mediante un cable plano a otro controlador de video para evitar un bus obstruido.

Las actualizaciones de la serie Wonder continuaron ganando impulso en 1991. La tarjeta Wonder XL agregó compatibilidad de color VESA 32K y un Sierra RAMDAC que aumenta la resolución máxima de pantalla a 72Hz u 800x600 @ 60Hz. Los precios oscilaron entre $ 249 (256 KB), $ 349 (512 KB) y $ 399 para la opción de 1 MB de RAM. También estaba disponible una versión de bajo costo llamada Cargador VGA basada en el Basic-16 del año anterior.

La serie Mach fue lanzada con Mach8 en mayo de ese año. Se vende como un chip o placa que permite la descarga de operaciones de dibujo 2D limitadas, como el dibujo de líneas, el relleno de color y la combinación de mapas de bits (Bit BLIT) a través de una interfaz de programación (AI). XL que contiene el chip Creative Sound Blaster 1.5 en un PCB extendido. A partir de los archivos mono de Sound Blaster conocidos como VGA Stereo-F / X, el estéreo pudo simular algo parecido a la calidad de radio FM.

Las tarjetas gráficas como la ATI VGAWonder GT ofrecían una opción 2D + 3D, combinando Mach8 con el núcleo gráfico de VGA Wonder + (28800-2) para tareas 3D. Wonder y Mach8 llevaron a ATI al hito de ventas de 100 millones de CAD durante todo el año, en gran parte por detrás de la adopción de Windows 3.0 y el aumento de las cargas de trabajo 2D que podrían usarse con él.

S3 Graphics se fundó a principios de 1989 y produjo el primer chip acelerador 2D y una tarjeta gráfica S3 911 (o 86C911) dieciocho meses después. Las características clave para este último incluyen 1 MB de VRAM y soporte de color de 16 bits.

El S3 911 fue reemplazado por el 924 ese mismo año - era básicamente un 911 revisado con color de 24 bits - y se actualizó nuevamente el año siguiente con aceleradores 928 y 801 y 805 que agregaron color de 32 bits. El 801 usa una interfaz ISA, mientras que el 805 usa VLB. Entre la introducción del 911 y la llegada del acelerador 3D, el mercado estuvo lleno de diseños de GUI 2D basados ​​en el original del S3, especialmente de los laboratorios Tseng, Cirrus Logic, Trident, IIT, Mach32 de ATI y MAGIC RGB de Matrox.

En enero de 1992, Silicon Graphics Inc (SGI) lanzó OpenGL 1.0, una interfaz de programación de aplicaciones (API) independiente del proveedor multiplataforma para gráficos 2D y 3D.

Microsoft estaba desarrollando una API de la competencia llamada Direct3D y se aseguró de que OpenGL funcionara lo mejor que podía en Windows, y no se preocupe.

OpenGL evolucionó a partir de la API patentada de SGI llamada IRIS GL (Biblioteca de gráficos del sistema de imágenes ráster integrado). Fue un intento de mantener la funcionalidad no gráfica de IRIS y permitir que la API se ejecute en sistemas que no son SGI, ya que los proveedores competidores comenzaban a aparecer en el horizonte con sus propias API patentadas.

Originalmente, OpenGL estaba dirigido a mercados profesionales basados ​​en UNIX, pero se adoptó rápidamente para juegos en 3D con soporte amigable para desarrolladores para la implementación de extensiones.

Microsoft estaba desarrollando una API de la competencia llamada Direct3D, y no hizo falta sudar mucho para asegurarse de que OpenGL funciona tan bien como puede ser en los sistemas operativos Windows más nuevos.

Unos años más tarde, cuando id Software John Carmack, anteriormente Doom revolucionado en los juegos de PC, movió Quake para usar OpenGL en Windows y criticado directamente Direct3D.

El conflicto de Microsoft se ha intensificado en Windows 95, ya que impide la concesión de licencias de Mini-Client Driver (MCD) de OpenGL, lo que permite a los proveedores elegir qué funciones pueden acceder a la aceleración de hardware. SGI respondió desarrollando un controlador de cliente instalable (ICD), que no solo proporciona la misma capacidad, sino que es incluso mejor, ya que MCD solo cubre operaciones de rasterización y agrega iluminación ICD y funcionalidad de transformación (T&L).

Durante el auge de OpenGL, que inicialmente ganó fuerza en el campo de las estaciones de trabajo, Microsoft estuvo ocupado rastreando el mercado de juegos emergente con diseños en sus propias API patentadas. En febrero de 1995, compraron RenderMorphics, cuya API de Reality Lab competía con los desarrolladores y se convirtió en el núcleo de Direct3D.

Al mismo tiempo, Brian Hook de 3dfx estaba escribiendo la API Glide que será la API dominante para el juego. Esto se debió en parte a la participación de Microsoft en el proyecto Talisman (un ecosistema de renderizado basado en mosaicos), que diluyó los recursos diseñados para DirectX.

Como D3D se usa ampliamente detrás de la adopción de Windows, S3d (S3), Matrox Simple Interface, Creative Graphics Library, C Interface (ATI), SGL (PowerVR), NVLIB (Nvidia), RRedline (Rendition) y Glide comenzaron a desaparecer con los desarrolladores.

No ayudó a algunas de estas API patentadas a aliarse bajo una presión cada vez mayor con los fabricantes de tarjetas para agregarlas a una lista de características en rápida expansión. Esto incluyó mejoras en la calidad de la imagen, como resoluciones de pantalla más altas, mayor profundidad de color (de 16 bits a 24 y 32) y suavizado. Todas estas características requerían un mayor ancho de banda, eficiencia de gráficos y ciclos de producto más rápidos.

En 1993, la volatilidad del mercado ya había obligado a varias empresas gráficas a retirarse o ser adoptadas por competidores.

El año 1993 provocó una oleada de nuevos concursantes gráficos, especialmente Nvidia, fundada por Jen-Hsun Huang, Curtis Priem y Chris Malachowsky en enero de ese año. Huang fue anteriormente Director de Coreware en LSI; Priem y Malachowsky provienen de Sun Microsystems, que desarrollaron previamente. Arquitectura de gráficos GX basada en SunSPARC.

Los recién llegados Dynamic Pictures, ARK Logic y Rendition pronto se unieron a Nvidia.

La volatilidad del mercado ya ha obligado a varias empresas gráficas a retirarse o ser adoptadas por competidores. Estos incluyeron Tamerack, Gemini Technology, Genoa Systems, Hualon, Headland Technology (adquirido por SPEA), Acer, Motorola y Acumos (adquirido por Cirrus Logic).

Sin embargo, una empresa que se fue fortaleciendo fue ATI.

Como precursor de la serie All-In-Wonder, el chip decodificador de TV para PC 68890 de ATI, lanzado en Video-It, fue anunciado a finales de noviembre. tarjeta. El chip pudo capturar video a 320x240 @ 15 fps o 160x120 @ 30 fps gracias al Intel i750PD VCP (Procesador de compresión de video) integrado y lo comprimió / expandió en tiempo real. También pudo comunicarse con la tarjeta gráfica a través de la tarjeta de datos, eliminando así la necesidad de dongles o puertos y cables planos.

Video-It! Si bien un modelo con menos funciones llamado Video-Basic completó la clasificación, se vendió por $ 399.

Cinco meses después, en marzo, ATI introdujo un acelerador de 64 bits con retraso; Mach64.

El año fiscal no ha sido amable con ATI, con una pérdida de CAD 2,7 millones, ya que cayó en el mercado en medio de una fuerte competencia. Las placas rivales incluyeron S3 Vision 968, adquirido por muchos proveedores de paneles, y Trio64, que recibió contratos OEM de Dell (Dimension XPS), Compaq (Presario 7170/7180), AT&T (Globalyst), HP (Vectra VE 4). ) y DEC (Venturis / Celebris).

Lanzado en 1995, Mach64 destacó una serie de novedades importantes. Fue el primer adaptador de gráficos disponible para computadoras PC y Mac como Xclaim ($ 450 y $ 650 dependiendo de la memoria integrada) y ofreció aceleración de reproducción de video en movimiento completo con el S3 Trio.

Mach64 es también la primera tarjeta gráfica profesional de ATI, 3D Pro Turbo y 3D Pro Turbo + PC2TVSale a la venta a $ 599 por la opción de 2 MB y a $ 899 por la de 4 MB.

El mes siguiente, surgió una startup tecnológica llamada 3DLabs de la división de gráficos Pixel de DuPont. subsidiaria comprada Junto con el procesador GLINT 300SX de la casa matriz, capaz de crear, mecanizar y rasterizar OpenGL. Debido a sus altos precios, las tarjetas de la empresa estaban originalmente destinadas al mercado profesional. El Fujitsu Sapphire2SX 4MB se vende por $ 1600-2000, mientras que el ELSA GLoria 8 de 8MB cuesta $ 2600-28. Sin embargo, el 300SX fue diseñado para el mercado de los juegos.

S3 parecía estar en todas partes en ese momento. Las marcas OEM de alta gama dominaron los conjuntos de chips Trio64 de la compañía, integrando un DAC, un controlador de gráficos y un sintetizador de reloj en un solo chip.

1995 Game GLINT 300SX contenía mucho menos 2 MB de memoria. Usó 1 MB para las texturas y el búfer Z y el otro para el búfer del marco, pero vino con la opción de aumentar la VRAM para Direct3D en $ 50 adicionales del precio base de $ 349. La tarjeta no se abrió paso en un mercado ya abarrotado, pero 3DLabs ya estaba trabajando en un sucesor de la serie Permedia.

S3 parecía estar en todas partes en ese momento. Las marcas OEM de alta gama dominaron los conjuntos de chips Trio64 de la compañía, integrando un DAC, un controlador de gráficos y un sintetizador de reloj en un solo chip. También utilizaron un búfer de fotogramas combinado y una capa de video de hardware compatible (una parte reservada de la memoria de gráficos para representar el video para la aplicación). Trio64 y su hermano de bus de memoria de 32 bits, Trio32, estaban disponibles como unidades OEM y tarjetas independientes de proveedores como Diamond, ELSA, Sparkle, STB, Orchid, Hercules y Number Nine. Los precios de Diamond Multimedia oscilaron entre $ 169 por una tarjeta basada en ViRGE y $ 569 por un video Diamond Stealth64 basado en Trio64 + con 4 MB de VRAM.

El principal mercado incluía ofertas de Trident, un antiguo proveedor OEM de adaptadores de gráficos 2D sencillos, que recientemente agregó el chip 9680 a su línea. El chip tenía la mayoría de las especificaciones del Trio64 y las tarjetas generalmente tenían un precio de alrededor de $ 170-200. Dentro de este soporte, tienen una buena reproducción de video, ofreciendo un rendimiento 3D aceptable.

Otros nuevos participantes en el mercado principal incluyeron Power Player 9130 de Weitek y ProMotion 6410 de Alliance Semiconductor (a menudo visto como Alaris Matinee o OptiViewPro de FIS). Si bien ambos ofrecen un escalado excelente con la velocidad de la CPU, el último combinó el potente motor de escalado con circuitos antibloqueo para lograr una reproducción de video fluida que es mucho mejor que los chips anteriores como ATI Mach64, Matrox MGA 2064W y S3 Vision968.

Nvidia lanzó el primer chip gráfico, NV1Se convirtió en el primer procesador de gráficos comercial capaz de renderizado 3D, aceleración de video y aceleración de GUI integrada.

Se asociaron con ST Microelectronic para fabricar el chip en procesos de 500 nm, y este último también presentó la versión STG2000 del chip. Aunque no fue un gran éxito, representó el retorno financiero inicial de la empresa. Desafortunadamente para Nvidia, justo cuando las primeras placas de proveedores comenzaron a enviarse en septiembre (específicamente Diamond Edge 3D), Microsoft terminó y lanzó DirectX 1.0.

La API de gráficos D3D verificó que NV1 se basa en la representación de polígonos triangulares mediante el mapeo de textura cuádruple. Se agregó compatibilidad limitada con D3D a través del controlador para envolver los triángulos como superficies cuadráticas, pero la falta de juegos adaptados para NV1 consideraba que la tarjeta era un conector de todos los procesos, no era la maestra de ninguno.

La mayoría de los juegos se tomaron de Sega Saturn. En septiembre de 1995, se vendió una NV1 de 4 MB a los puertos integrados de Saturn (dos por soporte de expansión que se conectan a la placa mediante un cable plano) por unos 450 dólares.

Los últimos cambios de Microsoft y el lanzamiento de DirectX SDK dejaron a los fabricantes de tarjetas no pueden acceder directamente al hardware para reproducción de video digital. Esto significaba que casi todas las tarjetas gráficas discretas tenían problemas de funcionalidad en Windows 95. Los controladores bajo Win 3.1 de varias empresas eran en general todo lo contrario.

Su primer espectáculo público tuvo lugar en la conferencia de videojuegos E3 celebrada en Los Ángeles en mayo del año siguiente. La tarjeta en sí estuvo disponible un mes después. 3D Rage combinó el núcleo 2D de Mach64 con capacidad 3D. ATI anunció el primer chip acelerador 3D, 3D Rage (también conocido como Mach 64 GT) en noviembre de 1995.

Las revisiones tardías de la especificación de DirectX significaron que 3D Rage tenía problemas de compatibilidad con muchos juegos que usaban la API, principalmente una falta de búfer de profundidad. Con el búfer de trama RAM EDO de 2 MB incorporado, la modalidad 3D se limitaba a 640x480x16 bits o 400x300x32 bits. Probar el color de 32 bits a 600x480 a menudo provocaba distorsión del color de la pantalla y la resolución 2D alcanzaba un máximo de 1280x1024. Si el rendimiento del juego es mediocre, la capacidad de reproducir MPEG en pantalla completa ha desaparecido de alguna manera, al menos en el equilibrio del conjunto de funciones.

3Dfx Voodoo Graphics destruyó efectivamente toda la competencia y terminó antes de que comenzara la carrera de rendimiento.

ATI revisó el chip y en septiembre comenzó Rage II. Se corrigieron los problemas de D3DX del primer chip y la compatibilidad con la reproducción de MPEG2. Sin embargo, las primeras tarjetas todavía se envían con 2 MB de memoria, lo que dificulta el rendimiento y tiene problemas con la conversión de perspectiva / geometría, ya que Serial Rage II + se expandió para incluir DVD y 3D Xpression +, las opciones de capacidad de memoria crecieron a 8 MB.

Cuando ATI comercializaba con una solución de gráficos 3D por primera vez, no pasó mucho tiempo antes de que aparecieran en escena otros competidores con diferentes ideas de aplicaciones 3D. A saber, 3dfx, Interpretación y VideoLogic.

3Dfx Interactive gana Rendition y VideoLogic en la carrera por llevar nuevos productos al mercado. Sin embargo, la actuación terminó antes de que comenzara la carrera y 3Dfx Voodoo Graphics destruyó efectivamente toda la competencia.

Este artículo es la primera entrega de las cuatro series. Si te gusta, sigue leyendo mientras damos un paseo por el camino de la memoria hasta la joven empresa llamada 3Dfx, Rendition, Matrox y Nvidia.