Si lo pensamos bien, una tarjeta gráfica es imprescindible en el ordenador, ya que es el componente que nos envía información visual a través del monitor pantalla y debería estar por lógica hoy integrado en la placa base o en el procesador. Si bien existen las gráficas integradas a día de hoy, la realidad originalmente dicha capacidad venía en forma de tarjeta de expansión, al menos en el PC. Es por ello que hemos decidido hablaros del origen de las mismas
Todo tiene un porqué y un propósito y muchas veces si lo pensamos nos encontramos con cosas que inicialmente las damos por sentado, en realidad si lo pensamos bien no tienen sentido desde el punto de vista de la lógica pura. Y es que en caso de la tarjeta gráfica, esta debería haber formado parte siempre del hardware básico y, por tanto, no existir como un elemento complementario.
La primera tarjeta gráfica fue por una limitación
Por aquel entonces no había búfer de imagen, es decir, no se generaba todo el fotograma en una memoria para luego transmitirlo a la pantalla por el hecho que la RAM era extremadamente cara, tampoco existían memorias de doble puerto, por lo que en el periodo en el que el sistema de vídeo estaba accediendo a la memoria para dibujar en pantalla para dibujarla con el haz de electrones el sistema no podría acceder a la memoria. ¿Qué problema había? Pues que si tenemos en cuenta el tiempo total de todo ello nos daremos cuenta de que deja muy poco tiempo para el resto de funciones como ejecutar el programa.
Cuando Steve Wozniac diseño el Apple II se dio cuenta de que este accedía a la RAM a la misma frecuencia que la del propio procesador, entonces decidió hacer una trampa que no fue otra que usar memoria al doble de velocidad de reloj del procesador central, lo que permitía que un ciclo de reloj se asignará a la CPU y el otro ciclo al sistema de vídeo. Gracias a ello, en el modo texto podía dibujar por línea de escaneo hasta 40 caracteres.
El problema vino cuando se descubrió que para trabajar en modo texto, esto era muy poco, por lo que se requería un hardware de vídeo a 2 MHz y esto rompía por completo el timing entre la CPU y la RAM. ¿La solución? Usar uno de los puertos de expansión para añadir una tarjeta gráfica que permitiese 80 columnas de texto. Y sí, sabemos que a día de hoy hablar de ello es primitivo, pero su origen no fue el de mover videojuegos, como muchos creen.
80 columnas versus 40 columnas
En la época una forma de diferenciar si un sistema estaba pensado para usarse en los negocios o para que reproduzca videojuegos era por el soporte del modo de vídeo de 80 columnas o no. Por otro lado, no existían chips gráficos todavía que hicieran ambas funciones debido a que no se había llegado a tal nivel de integración, por lo que los diseñadores de cualquier ordenador de la época debían decidir si dirigirlo hacia el mercado doméstico o al profesional.
¿Y qué hay de la tarjeta gráfica en el primer PC de IBM?
Ya hemos visto que los primeros ordenadores domésticos no fueron el PC de IBM, sin embargo, fue el que popularizo el set de registros e instrucciones x86 que seguimos usando a día de hoy. Dado que no era un procesador muy usado, se tuvo que convertir todo el software, pero fue elegido por IBM por el hecho de que era mejor CPU que el 8080 en arquitectura y en una cosa en la que destacaba era su direccionamiento de 20 bits. Es decir, permitía añadir hasta 1 MB de RAM.
Inicialmente y por costes no existían los módulos de memoria RAM como los conocemos ahora y la memoria del sistema iba soldada. ¿La solución? Añadir puertos de expansión que permitiesen la ampliación. Si a eso le sumamos que la CPU de Intel no tenía pines para periféricos, sino que se comunica con ellos a través de la RAM del sistema, pues, con ello ya tenemos la capacidad de conectar tarjetas de expansión. No olvidemos de que el IBM 5150 no se pensó para el mercado empresarial y no para venderse en los hogares, sino en el mercado corporativo.
La pluralidad de monitores también influyo
Ahora bien, IBM podría haber escogido colocar toda la circuitería extra en la placa del primer PC, sin embargo, por aquel entonces no existía un estándar sobre que tipo de monitores iban a utilizar los usuarios. Por lo que la solución termino siendo la de vender una misma máquina base con opciones a diferentes tarjetas gráficas según las necesidades de cada usuario.
Dicha decisión les permitía ahorrar en costes de fabricación, pero de retruco permitió que muchos usuarios del los PC y PC XT pudiesen actualizar su tarjeta gráfica a una EGA. Momento histórico en el cual se inició el actual mercado de tarjetas gráficas para ordenador y en el que la división según el tipo de mercado se esfumó, unificando el mercado y convirtiendo al PC en la navaja suiza que sigue siendo a día de hoy.
Fuente: https://hardzone.es
Comentarios