Camino al futuro (7 page)

Read Camino al futuro Online

Authors: Peter Rinearson Bill Gates

BOOK: Camino al futuro
8.5Mb size Format: txt, pdf, ePub

Cuando se graba una canción en un casete a partir de un disco de vinilo, todas las imperfecciones del disco se transfieren de manera permanente a la cinta, y a estas imperfecciones se añadirán otras nuevas, porque los cáseles convencionales son también dispositivos analógicos. La información pierde calidad cada vez que se vuelve a grabar o a transmitir.

En el disco compacto, la música se almacena en forma de series de números binarios. Cada bit se representa por una depresión microscópica en la superficie del disco. Los CD de la primera generación, populares desde mediados de los anos ochenta, contienen más de 5000 millones de depresiones. El rayo láser reflejado en el disco y contenido en el interior de un reproductor de discos compactos (un dispositivo digital) lee cada una de las depresiones para decidir si está en posición de cero o uno, y luego vuelve a convertir esa información en la música original generando las señales eléctricas correspondientes que los parlantes convienen en ondas de sonido. El sonido es exactamente igual cada vez que se pone el disco.

Es muy conveniente que pueda convertirse todo tipo de información en representaciones digitales pero el número de bits puede aumentar rápidamente. Si hay demasiados bits de información, pueden superar la memoria de la computadora o hacer que se larde mucho tiempo en transmitirlos de una computadora a otra. Por esto resulta tan útil, y lo será cada vez más, la capacidad de la computadora para comprimir los datos digitales, almacenarlos o transmitirlos y luego expandirlos para devolverlos a su forma original.

Por decirlo de manera rápida, he aquí cómo realiza estas proezas la computadora. Hay que remontarse, para explicarlo, a Claude Shannon, el matemático que descubrió en los años treinta de este siglo que la información podía expresarse en forma binaria. Durante la Segunda guerra mundial, Shannon comenzó a desarrollar una descripción matemática de la información y fundó un campo de conocimiento que después ha llegado a conocerse como Teoría de la información. Shannon definió la información como la reducción de la incertidumbre. De acuerdo con esta definición, si sabemos ya que es sábado y alguien nos dice que es sábado, no hemos conseguido ninguna información nueva. Y al contrario, si no estamos seguros del día que es y alguien nos dice que es sábado, se nos ha dado información porque se ha reducido nuestra incertidumbre.

Los trabajos de Shannon sobre la teoría de la información condujeron finalmente a otros adelantos. Uno fue el de la eficaz compresión de datos, vital tanto para la informática como para las comunicaciones, A primera vista, lo que él dijo, que dio lugar a la compresión de dalos, resulta obvio: las porciones de datos que no proporcionan información específica son redundantes y pueden eliminarse. Los que escriben los titulares de los periódicos eliminan las palabras que no son esenciales del mismo modo que quienes tienen que pagar por palabras cuando envían un telegrama o insertan un anuncio clasificado por secciones. Shannon dio un ejemplo de redundancia, y fue el de la letra «u», que es redundante cada vez que se escribe la letra «q». Todos sabemos que la «u» seguirá siempre a la «q», de manera que la «u» puede eliminarse de un mensaje sin afectar al significado del mismo.

En el medio siglo transcurrido desde que Shannon presentó la teoría de la información e ideó uno de los primeros esquemas de compresión, los ingenieros han inventado métodos brillantes para eliminar la redundancia de la información. No es raro que el tamaño de un texto quede reducido a la mitad mediante la compresión. Esto permite transmitirlo con el doble de rapidez.

Los principios de Shannon se han aplicado a la compresión tanto de sonidos como de imágenes. No resulta inaudito que una imagen digital se comprima a sólo 5% de su tamaño original después de que se le haya suprimido la información redundante. Si 12 píxeles (los diminuios elementos de la imagen o puntos en una pantalla) de una fila son del mismo color, describir el color una vez e indicar que se tiene que repetir una docena de veces requiere muchos menos bits de información que describir el color 12 veces. El vídeo contiene generalmente gran cantidad de información redundante. La compresión se consigue almacenando la información sobre el modo como los colores cambian, o no, de un marco a otro, al tiempo que se almacena información sobre los colores mismos sólo una vez cada cierto tiempo.

La red Internet actual hace uso de la compresión principalmente para transmitir gráficos, audio y vídeo en la Word Wide Web; pero la compresión por sí misma no satisfará la enorme necesidad de capacidad para las comunicaciones. Necesitamos transmitir cada vez más cantidad de bits de un lado a otro. Los bits viajan a través del aire. De cables de cobre y cables de fibra óptica. La fibra óptica son cables de cristal o plástico tan suave y puro que si se mira a través de una pared de 70 millas de grosor se puede ver una vela encendida en el otro lado. Las señales binarias, en forma de luz modulada, recorren largas distancias a través de esta fibra óptica. Una señal no se mueve más rápidamente a través de fibra óptica que a través de cables de cobre; ambas dependen di; la velocidad de la luz. La ventaja que ofrece el cable de fibra óptica frente al de cobre es su ancho de banda. El ancho de banda es una medida del número de bits que pueden moverse a través de un circuito en un segundo.

Realmente es como una autopista. Una carretera de ocho carriles tiene más espacio para más vehículos que una carretera estrecha y sucia. A mayor cantidad de carriles mayor es el ancho de banda. Los cables con ancho de banda limitado se utilizan para transmitir texto o voz y se conocen como circuitos de banda angosta. Los cables con más capacidad, utilizados para transmitir imágenes y animaciones limitadas, tienen capacidad de banda media. Aquellos con gran ancho de banda, que pueden transmitir señales de vídeo y audio múltiples, se dice que tienen capacidad de banda ancha.

Antes de que una red interactiva de banda ancha sea posible, la fibra óptica deberá llegar a más gente y el desempeño y la capacidad de los chips deberán continuar mejorando hasta que la compresión llegue a ser mejor y más barata. Instalar fibra óptica seguirá siendo relativamente costoso, mientras que los chips serán mejores y más baratos todo el tiempo.

En 1965, Gordon Moore, que después fundaría Intel junto con Bob Noyce, predijo que la capacidad de la computadora se duplicaría anualmente. Dijo esto después de haber examinado la relación precio/rendimiento de los chips de computadora durante los tres anos anteriores y proyectando este examen hacia el futuro. El mismo Moore no creyó que esta tasa de mejora durase mucho. Pero diez años más larde su predicción ha demostrado ser cierta, y entonces predijo que la capacidad se duplicaría cada dos años.

Hasta hoy sus predicciones se han mantenido, y los ingenieros llaman Ley de Moore al índice medio de incremento de la capacidad, que se duplica cada 18 meses.

Ninguna de las experiencias que tenemos en nuestra vida diaria nos prepara para entender las implicaciones de un número que se duplica una gran cantidad de veces: mejoras exponenciales. La siguiente fábula lo explica muy bien. El rey Shirham de la India se sintió tan complacido cuando uno de sus ministros inventó el juego del ajedrez que le dijo que le pidiese cualquier recompensa.

«Majestad», dijo el ministro, «le pido que me dé un grano de trigo por la primera casilla del tablero, dos granos por la segunda, cuatro granos por la tercera, etc, de manera que cada vez se duplique el número de granos hasta que completemos cada una de las 64 casillas». El rey se simio conmovido por la modestia de la petición y pidió que trajesen un costal de trigo.

El rey pidió que se contasen y pusiesen en el tablero los granos prometidos. En la primera casilla de la primera fila se puso un solo grano, en la segunda se colocaron dos granos de trigo. En la tercera se pusieron 4, después 8, 16. 32, 64, 12S. En la casilla octava, al final de la primera fila, el maestro de provisiones del rey Shirham había contado 255 granos. Probablemente el rey no se preocupó. Puede que hubiese algo más de trigo en el tablero de lo que él había esperado, pero no había ocurrido nada sorprendente. Si suponemos que contar cada uno de los granos llevaba un segundo, el tiempo transcurrido hasta aquí había sido sólo cuatro minutos. Si una fila se hace en cuatro minutos, tratemos de adivinar cuánto tiempo llevaría contar el trigo para las 64 casillas del tablero ¿cuatro horas, cuatro días, cuatro años?

Cuando se completó la segunda fila, el maestro de provisiones había trabajado 18 horas contando 65.535 granos de la casilla lo. Al final de la tercera de las ocho filas, se habían necesitado °7 días para contar los 8,4 millones de granos de la casilla 24. Y aún quedaban 40 casillas vacías.

Puede suponerse con seguridad que e! rey rompió su promesa al ministro.

La casilla final hubiera contenido 18.446.744.073.709.551.615 granos de trigo y se hubiera tardado en contarlos 584 mil millones de años.

En la actualidad, se calcula que la edad de la Tierra es de 4500 millones de años. De acuerdo con la mayor parte de las versiones de la leyenda, el rey Shirham se dio cuenta en algún momento del cónico de que había sido engañado e hizo que decapitaran a su inteligente ministro.

El crecimiento exponencial nos parece mentira incluso cuando nos lo explican.

Es probable que la Ley de Moore se mantenga durante otros veinte años. Si esto es así, un cálculo que ahora tarda un día se podrá hacer diez mil veces más rápidamente, con lo cual se tardará poco menos de diez segundos.

Los laboratorios están ya operando transistores «balísticos» que tienen tiempos de conmutación del orden de un femtosegundo.

Es decir, 1/1000.000.00O.O0O.OO0 de segundo, unos diez millones de veces más rápidos que los transistores en los microprocesadores actuales. El reto es reducir el tamaño de los circuitos del chip y el flujo actual, de modo que los electrones al moverse no choquen con nada, ni siquiera con los demás electrones. La próxima etapa es el «transistor de electrón simple», en el cual un simple bit de información se representa por un único electrón.

Esto sería lo último en la computación de bajo poder, al menos de acuerdo con nuestros conocimientos actuales de la física. Con el fin de utilizar las increíbles ventajas de velocidad a nivel molecular, las computadoras tendrán que ser muy pequeñas, incluso microscópicas. Ya conocemos la ciencia que nos permitiría construir estas computadoras súper rápidas. Lo que necesitamos ahora es un progreso de la ingeniería, y este progreso suele venir rápidamente.

El almacenamiento de estos bits tampoco deberá ser un problema. En la primavera de 1983, IBM lanzó su PC/XT, la primera computadora personal de la compañía con un disco duro. El disco servía como dispositivo de almacenamiento interno y tenía una capacidad de diez megabytes, o megas, de información, unos diez millones de caracteres u ochenta millones de bits. Los clientes que deseaban añadir estos diez megas a su computadora original, podían hacerlo pagando un determinado precio. IBM ofreció un kit de 3000 dólares completo con toma de corriente separada para expandir el almacenamiento de la computadora. Es decir, eran 300 dólares por megabyte. Gracias al crecimiento exponencial descrito por la Ley de Moore, en la primavera de 1996 una computadora personal con una capacidad de almacenamiento de l,6gigas —6 mil millones de caracteres de información— se vendía a 225 dólares; ¡Es decir a US$ 0.14 por megabyte!, y estamos esperando una mejora exótica, llamada «memoria holográfica», que puede almacenar terabytes de caracteres en menos de una pulgada cúbica de volumen. Con tal capacidad, una memoria holográfica del tamaño de nuestro puño puede contener toda la biblioteca del Congreso.

A medida que la tecnología de las comunicaciones se digitaliza. Se encuentra sujeta a las mismas mejoras exponenciales que han hecho que una computadora portátil de 2.0ÜO dólares actual tenga más capacidad que una computadora mainframe de IBM de 10 millones de dólares de hace veinte años.

En algún punto no lejano en el futuro, un simple hilo que llegue a cada casa podrá transportar lodos los datos digitales de un hogar. El hilo será de fibra, que es como se transportan las llamadas telefónicas de larga distancia hoy en día, o ser un cable coaxial, que es el que normalmente nos trae las señales de la televisión por cable, o el simple cable «trenzado» que conecta el teléfono en el hogar con el sistema telefónico local. Incluso puede ser una conexión inalámbrica. Si los bits que llegan a la casa se interpretan como llamadas de viva voz, el teléfono sonará. Cuando sean imágenes de vídeo, se mostrarán en el apáralo de televisión o en una PC. Si son noticias, nos llegarán como textos escritos e imágenes en una pantalla de computadora.

Esta simple conexión a la red en realidad llevará mucho más que llamadas telefónicas, películas o noticias. Pero no podemos imaginar qué es lo que transportarán las autopistas de información en banda ancha dentro de veinticinco años, lo mismo que un hombre de la Edad de piedra que utilizaba un rudo cuchillo tampoco podía haber previsto las puertas del baptisterio de Ghiberti en Florencia. Sólo con la evolución de la red Internet entenderemos todas esas posibilidades.

Capítulo 3 — Lecciones de la industria informática

El éxito es un pésimo profesor. Seduce a la gente inteligente y la lleva a pensar que no puede perder. También es una guía poco fiable para el futuro. Lo que parece ser el plan de negocios perfecto o la última tecnología hoy, puede estar obsoleto dentro de poco, como el magnetófono, la televisión de válvulas de vacío o los mainframes. He visto que estas cosas pasan. Sin embargo, la historia es una buena maestra y la observación de muchas empresas durante un largo periodo puede enseñarnos principios que nos ayudarán a la hora de adoptar las estrategias para los años venideros.

Las empresas que inviertan en las redes interactivas tratarán de no repetir los errores que se han cometido en la industria informática durante los últimos veinte años. Creo que pueden entenderse estos errores si contemplamos unos cuantos factores críticos: las espirales negativas y positivas, la necesidad de iniciar tendencias en lugar de seguirlas, la importancia del software como opuesto al hardware y el papel de la compatibilidad y de la retroalimentación positiva que puede generar.

No podemos contar con la sabiduría convencional, que solo tiene sentido en las industrias convencionales. Durante las últimas tres décadas, el comportamiento de las industrias del hardware y del software informáticos ha sido definitivamente no convencional. Grandes empresas bien situadas que un día hicieron ventas por valor de miles de millones de dólares y contaron con una enorme cantidad de clientes satisfechos han desaparecido en un corlo tiempo. Nuevas empresas, como Apple, Compaq, Lotus, Oracle, Sun y Microsoft, aparecieron y pasaron de la nada a obtener beneficios de miles de millones de dólares en un instante. Los éxitos se debieron en parle a lo que yo llamo una espiral positiva.

Other books

Hot Pursuit by Jo Davis
Amish Country Arson by Risner, Fay
Breaking the Silence by Diane Chamberlain
Null-A Continuum by John C. Wright
Barbara Cleverly by The Palace Tiger
The Handmaid's Tale by Margaret Atwood
Coffee, Tea or Me? by Trudy Baker, Rachel Jones, Donald Bain, Bill Wenzel