HISTORIA DE INTERNET


La historia de Internet

Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.

Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.

Orígenes de Internet

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).

El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.

Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.

A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.

Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz).

El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).

A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .

El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).

Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de “storage displays” ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.

Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.

Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.

En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación “estrella”: el correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.

En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.

Conceptos iniciales sobre Internetting

La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.

Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para “federar” redes.

Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.

Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).

En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.

No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.

Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.

Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.

Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado “Transmisson-Control Protocol/Internet Protocol” (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.

Ideas a prueba

DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar.

Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos.

Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa ( desktop ), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.

La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.

En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de una pocas redes con un modesto número de hosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.

En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).

Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.

El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. Esto llevó a la invención del DNS ( Domain Name System , sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo, http://www.acm.org o http://www.ati.es ) en direcciones de Internet.

El incremento del tamaño de Internet resultó también un desafío para los routers . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol , protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de pasarela) usado para mantener unidas las regiones.

El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers , también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing , enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.

A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora.

BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet.

Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión.

La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción “Yo sobreviví a la transición a TCP/IP”).

TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.

Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.

La transici1ón hacia una infraestructura global

Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.

El Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS ( National Science Foundation , Fundación Nacional de la Ciencia) de Estados Unidos.

La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como “postales”. Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado.

Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8).

Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que “la conexión estuviera disponible para todos los usuarios cualificados del campus”.

En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines.

La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board , Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 (“Requisitos para pasarelas de Internet”) que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.

El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos.

El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información.

El papel de la documentación

Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente a las especificaciones de los protocolos.

Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes.

En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC ( Request For Comments , petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo “lento”. Pero cuando el FTP ( File Transfer Protocol , protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP.

Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online . Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día.

El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación.

Con el paso del tiempo, las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.

El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet- promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas.

El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización.

Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo, cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el documento, éste puede ser distribuido como una RFC.

Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.

El futuro: Internet 2

Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores.

Sus objetivos están enfocados a la educación y la investigación académica. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda.

Z vocabulario


Z

Zettabyte

Un zettabyte es 2 a la 70 potencia, o 1,180,591,620,717,411,303,424 bytes. Un zettabyte son 1,024 exabytes y precede al yottabyte. Ya que un zettabyte es un tamaño tan enorme, esta unidad de medida se usa muy poco. Su símbolo es ZB.

ZIF

Un ZIF (Zero Insertion Force) es la forma fisica como los microprocesadores Intel’s 486 y Pentium hasta el Pentium II conectan la tarjeta madre (motherboard) de la computadora con el Bus de Data. Un socket de ZIF contiene una “palanca” que se abre y se cierra, asegurando que el microprocesador se mantenga en su lugar.

Zipear

Se refiere a la acción de comprimir en un solo archivo a un grupo de archivos que por lo general se comprimen también para que ocupen el menor espacio posible en la computadora y aminore el tiempo en que se transmiten a través de Internet. El resultado final es un archivo único con extensión “.zip” el cual para poder leer tenemos que revertir el proceso, o sea descomprimirlo utilizando los mismos programas. Dentro de los programas más usados de este tipo esta WinZIP.

Zips

Medio externo para usar los discos de almacenamiento llamado Zip, que tenía anteriormente una de las mayores capacidades de almacenaje (100-150MB aprox) y casi del tamaño de un disquete 3.5″, por ende fácil de transportar. Tuvo éxito es sus tiempos. Otros medios de almacenamiento más eficientes y de mayor capacidad a una fracción del precio, como los CD (750MB) y DVD (4-8GIG) han desplazado esta tecnología a lo obsoleto.

Zmodem

Protocolo utilizado para transferir archivos de un servidor a una computadora conectada vía modem, el cual es principalmente usado para extraer archivos de un BBS. Más rápido que Xmodem.

 

Y vocabulario


Y

Yahoo!

Yahoo!, a diferencia de los “spiders” o “crawlers” (como google por ejemplo) es un directorio, editado por humanos. El número de websites en el directorio difícilmente puede crecer más rápido que el trabajo automatizado de un robot, (i.e. googlebot). Yahoo! sigue siendo muy popular pero ya no es el número uno en lo que a buscadores de internet se refiere, posición que mantuvo por muchos años. Incluso, ya el directorio no es la atracción principal del sitio, que ofrece desde emails gratuitos, hasta información financiera casi en vivo. www.yahoo.com

Ymodem

Es un protocolo de transferencia de archivos para PC. Utiliza el método de detección de errores por CRC, bloques de 1024 bytes y un bloque extra al principio de la transferencia que incluye el nombre del archivo, el tamaño y la fecha.

Yottabyte

Unidad de información que equivale a 1000 zettabytes o 10^24 bytes (1,208,925,819,614,629,174,706,176 bytes). Símbolo YB.

Youtube.com

Sitio web con millones de videos que provienen de cualquiera que tenga una camara digital en adelante. Fue adquirido por Google en 2006 por sumas astronomicas de dinero. En nuestro concepto, valio la pena. Youtube.com

Ytalk

Programa en ambiente UNIX similar a IRC que permite la comunicación en tiempo real entre varios usuarios.

YUV

Método que define a una señal de video que separa los componentes de luminancia (Y) y crominancia (UV). La visión humana es mucho más sensitiva a las variaciones de intensidad que a las variaciones de color. El proceso de codificación YUV toma ventajas de este fenómeno y provee un ancho de banda mayor para la información de luminancia que para la de crominancia. Individualmente, las letras YUV significan Intensity, Hue, y value. (Intensidad, matíz y valor).

X vocabulario


X

X window

Entorno gráfico no exclusivo que se usa frecuentemente en Unix / Linux, de fuente abierta. Fue desarrollado en MIT y es independiente del hardware o del sistema operativo.

X.25

Protocolo de transmisión de datos para conectar a computadoras a redes públicas de paquetes conmutados. Ha sido reemplazado ampliamente por otras tecnologías, como el frame relay.

X.400 (X.400)

Estándares de CCITT e ISO para correo electrónico. Utilizados principalmente en Europa y Canadá, se han ido integrando progresivamente en Internet.

xDSL

x Digital Subscriber Line. Líneas de Subscripción Digital. Tecnología de transmisión que permite que los hilos telefónicos de cobre convencionales transporten hasta 16 Mbps (megabits por segundo) mediante técnicas de compresión. Hay diversos modalidades de esta tecnología, tales como ADSL, HDSL y RADSL, siendo la ADSL la más utilizada actualmente.

Xeon

Es un microprocesador Pentium de 400 MHz hecho por Intel para servidores y estaciones. En una tarjeta madre de Intel para servidores, hasta 8 o más procesadores Xeon pueden hacer multiprocesos usando el mismo bus de 100 Mhz. Xeon esta reemplazando al Pentium Pro, y esta diseñado para Internet, grandes bases de datos, asi como para ingenieros, graficas y aplicaciones multimedia que requieren de mucho movimiento de data de forma rapida. En la linea de Pentium, Xeon es actualmente el mas poderoso (siendo Celeron el menos poderoso).

XHTML

Siglas del ingles eXtensible HyperText Markup Language. XHTML es basicamente HTML expresado como XML valido. Es más estricto a nivel tecnico, pero esto permite que posteriormente sea más fácil al hacer cambios, buscar errores, etc

XML

eXtensible Markup Language. Lenguaje Extensible de Marcado. Lenguaje desarrollado por el W3 Consortium para permitir la descripción de información contenida en el WWW a través de estándares y formatos comunes, de manera que tanto los usuarios de Internet como programas específicos (agentes) puedan buscar, comparar y compartir información en la red. El formato de XML es muy parecido al del HTML aunque no es una extensión ni un componente de éste.

Xmodem

Protocolo utilizado para transferir archivos de un servidor a una computadora conectada vía modem, el cual es principalmente usado para extraer archivos de un BBS.

XSLT

Acrónimo del ingles “Extensible Style Sheet Language Transformation”. Aunque XML es un lenguaje de estándares, no todos los documentos XML usan el mismo tipo de formato. Por lo tanto, estos documentos a veces necesitan ser “transformados” o modificados para que otro programa pueda leerlos. XSLT hace esta transición posible.

XUL

eXtensible User-interface Language. Un lenguaje de marcación similar a HTML y basado en XML. XUL se usa para definir como aparecerá la interfaz para los usuarios de un software. XUL se usa para escoger cuales botones, barras de desplazamiento, campos de texto estarán utilizados en una interfaz, pero no para establecer la apariencia de los botones, etc. (por ej., su color). El ejemplo más conocido de XUL es probablemente el explorador web Firefox en lo cual la interfaz entera está definida en el idioma XUL.

W vocabulario


W

W3C

El World Wide Web Consortium (W3C) es un consorcio internacional en donde organizaciones, los usuarios y empleados de tiempo completo desarrollan estándares y especificaciones relacionados al WWW. Se creo en 1994 por Tim Berners-Lee, inventor del World Wide Web y otros. http://www.w3.org/

WAN

Siglas del inglés Wide Area Network (Red de Área Amplia). Es una red de computadoras conectadas entre sí, usando líneas terrestres o incluso satélites para interconectar redes LAN en un área geográfica extensa que puede ser hasta de miles de kilómetros.

WAP

Wireless Application Protocol. Protocolo de Aplicación Inalámbrica. Permite a los usuarios de celulares el acceso a servidores web especializados, visualizando la información en el visor del teléfono.

Wardriving

Es el nombre que se le ha dado en ingles al acto de buscar redes Wi-Fi, en un carro o vehiculo en movimiento, usando laptops, pda o celulares con WiFi.

warez

En el argot de Internet, se refiere a software que haya sido pirateado o copiado ilegalmente.

wav

Extensión de tipo de formato de sonido. Tamaño variable que depende de si es de 8 o 16 bits, si es sonido estéreo o mono, etc.

Wavelet

Función matemática usada en la compresión de imágenes y procesamiento de señal digital. El transformador wavelet permite reconstruir imágenes u otras señales en una superposición de wavelets. Esto se puede usar como punto de inicio para estrategias de compresión (por ejemplo, MPEG-4), que proveen una versión comprimida de buena calidad, de una imagen que consume un cuarto del espacio de un jpeg.

Web 2.0

No hay un significado preciso para Web 2.0; principalmente se usa como un termino para referirse de forma general, a todo sitio que sea más que páginas estáticas. Los sitios Web 2.0 permiten al usuario mayor interactividad y realizar cosas que en sitios normales no se puede. Por ejemplo, el “arrastre” (drag and drop) de fotos u otros elementos, haciendo de la experiencia web algo más parecido al uso de la PC o Mac. Una técnica de programación que permite que esto sea posible es conocida como Ajax. Sitios como Gmail, de Google, fue uno de los primeros en usar esta tecnica para el web email a nivel masivo; tambien con Google Maps, permitiendo al usuario “mover” un mapa con el mouse.

Web page

Web site

Sitio web. Conjunto de páginas web que usualmente comparten un mismo tema e intención.

Webcam

Cámara Web. Cámara de video cuyas imágenes, bien en directo bien en diferido, son difundidas por Internet desde un sitio web.

Webmail

Servicio que permite gestionar el correo electrónico desde un sitio web el cual es de gran utilidad para personas que tienen que desplazarse con frecuencia y lo ofrecen habitualmente los proveedores de acceso a Internet. Entre los más utilizados están Hotmail, Yahoo mail y Gmail.

Webmaster

Administrador de Web – Persona responsable de la gestión y mantenimiento de un servidor web, principalmente desde el punto de vista técnico; por lo que no debe ser confundido con un editor de web. Por ejemplo, el webmaster es el que usualmente recibe los emails enviados por el servidor, anunciando errores o cualquier tipo de actividad.

Webring

Conjunto de sitios web, normalmente dedicados a un tema específico, que el usuario puede recorrer.

WHOIS

Programa que permite a los usuarios hacer búsquedas en una base de datos sobre personas y otras entidades de Internet, tales como dominios, redes y sistemas centrales.

Widget

Termino en inglés para referirse a cualquier objeto que acepta “input” (entrada) del usuario, como son los botones de radio, las listas “drop down”, etc. Principalmente nos encontramos estos objetos en páginas web. La palabra es también usada en algunos otros ambientes, por ejemplo en el Mac OS (sistema operativo de Mac) para denominar el programa basado en HTML que corre en el nivel de “dashboard” del sistema, donde se presenta en la pantalla cualquier información que el usuario determine.

WiFi

Abreviatura en inglés para “wireless fidelity”. Un tipo de red inalámbrica (WLAN – wireless local area networks), que usa el protocolo inalámbrico de alcance limitado IEEE 802.11b, que transmite datos en banda ancha en el rango espectral de 2.4 GHz. Ha ganado aceptación en mucho ambientes como una alternativa viable a los LANs cableados. Muchos hoteles, restaurantes, aeropuertos, etc. ofrecen acceso público a Internet por medio de WiFi. A estos lugares se les conoce como hotspots. Se deben tomar las medidas mínimas de seguridad (firewall) en las computadoras con capacidad WiFi, y sobretodo en los routers inalámbricos para proteger el acceso a la red por personas ajenas a la misma. Sin los controles necesarios, cualquier persona cerca al radio de transmisión de su router inalámbrico puede conseguir conexión a Internet, navegar con su ancho de banda e incluso hackear su red privada.

Wii

Wii es el nombre de la videoconsola de séptima generación de Nintendo, que es la sucesora de Nintendo GameCube. La principal característica de Wii es el control inalámbrico de la consola, bautizado como Wii Remote o también Wiimote por su parecido a un control remoto de TV (Remote Control en Inglés), que es capaz de detectar el movimiento y rotación en un espacio de tres dimensiones.

Wiki

Un website que permite que los usuarios editen contenido. Si uno tiene algo que aportar o corregir, puede oprimir el boton de editar, que usualmente esta arriba o al final de la pagina, y escribir. Para tener su propio wiki se necesita software especial.

Wikipedia

Una enciclopedia de contenido gratuito, multilenguaje (por lo menos 200 lenguajes), escrita por miles de voluntarios alrededor del mundo y patrocinado por la fundación sin fines de lucro, Wikimedia. Tiene tópicos de enciclopedia, almanaque y eventos actuales. Es un wiki así que Todos los usuarios registrados pueden editar y agregar segmentos en los artículos. Por lo tanto, el contenido siempre es actual y en crecimiento. http://wikipedia.org/

WiMAX

WiMAX, también conocido como “IEEE 802.16,” es parecido a WiFi, pero a diferencia del WiFi, que solo tiene un alcance de algunos cientos de pies, una señal WiMAX puede ser usada para proveer de Internet a grandes áreas, como por ejemplo edificios corporativos completos o ciudades enteras, desde una sola estación inalámbrica.

Win.ini

Windows INItialization. Archivo leído por Windows al iniciarse la computadora, que contiene datos acerca del entorno actual, escritorio, fuentes, sonidos y aplicaciones individuales.

Windows

Sistema operativo desarrollado por la empresa Microsoft cuyas diversas versiones (3.1, 95, 98, NT, 2000, XP, Vista, 7) han dominado el mercado de las computadoras personales, aunque no se puede decir lo mismo del mercado de redes corporativas. Windows proporciona una interfaz estándar basada en menús desplegables, ventanas en pantalla y un dispositivo señalador como el ratón.

WLAN

Acrónimo en inglés para Wireless Local Area Network. Red inalámbrica de área local permite que un usuario móvil pueda conectarse a una red de área local (LAN) por medio de una conexión inalámbrica de radio. Hoy en día puede cubrir áreas desde 20 a 70 metros dentro de edificios y hasta 350 metros afuera. Este sistema de transmisión inalámbrica permite velocidades de hasta 3 a 4 Mbps. WLAN es un término genérico para referirse a una Red inalámbrica de área local, mientras que WiFi se refiere al set de estándares para la Red inalámbrica de área local.

WML

Wireless Markup Language. Lenguaje en el que se escriben las páginas que aparecen en las pantallas de los teléfonos móviles y los asistentes personales digitales (PDAs) dotados de tecnología WAP. Es una versión reducida del lenguaje HTML que facilita la conexión a Internet de dichos dispositivos.

Word

Programa de la empresa Microsoft, parte del paquete de software “Office”. Word es un procesador de palabras que permite la elaboración de documentos. Existe una versión gratuita de un programa similar a Microsoft Office, que es compatible con word, excel y powerpoint, creado por la empresa SUN. Recomendamos que lo pruebe, descárguelo en www.openoffice.org.

World Wide Web

Comúnmente conocido como WWW. Es el sistema de información basado en hipertexto, cuya función es buscar y tener acceso a documentos a través de la red de forma que un usuario pueda accesar usando un navegador web. Creada a principios de los años 90 por Tim Berners-Lee, investigador en el CERN, Suiza. La información transmitida por el www puede ser de cualquier formato: texto, gráfico, audio y video.

Worm

Ver Gusano.

WYSIWYG

La edición visual, también llamada WYSIWYG por What You See Is What You Get (en inglés, Lo Que Ve Es Lo Que Obtendrá), consiste en dar formato a su texto a medida que lo escribe. El editor visual va creando el código HTML “por detrás” mientras usted escribe. Tipos de letra, enlaces e imágenes se ven tal y como aparecerán en Internet, en el caso de un editor de HTML. Otros ejemplos, Microsoft Word es un procesador de palabras wysiwyg.

V vocabulario


V

V42.bis

Protocolo de detección de errores y comprensión de datos que puede mejorar la velocidad de un enlace vía módem hasta en un 400%.

VBR

(Variable Bit Rate) – Es una tecnica de compresión de datos que produce streams de datos variables entre un rango máximo y un mínimo a través del tiempo. En palabras sencillas, esta técnica permite ir variando la calidad mientras la tasa de transmisión se mantiene constante.

VBScript

Virtual Basic Script. Lenguaje de programación desarrollado por Microsoft. VBScript y JavaScript son muy similares, aunque javascript fue desarrollado primero.

VDS

Virtual Dedicated Server (Servidor Virtual Dedicado), también conocido como VPS de Virtual Private Server, es un método de particionar un servidor físico en múltiples servidores, de forma que se comportan como servidores independientes, con sus mismas capacidades. Cada servidor virtual puede tener su propio sistema operativo, y cada servidor puede ser reiniciado o apagado, independiente uno del otro. El poder computacional de hoy en día hace que la virtualización de servidores sea más factible.

Veronica

Very Easy Rodent Oriented Net-wide Index to Computerized Archives. Desarrollado en la Universidad de Nevada, es una herramienta para buscar en indices que contienen todos los servidores de titulos de gopher en el mundo.

VGA

Video Graphics Array. Norma de visualización de gráficos para computadoras creada en 1987 por IBM. La tarjeta de video VGA se convirtio en el estándar más aceptado para PCs. Con varios modos de visualización con resoluciones distintas, entre 16 colores a 640×480, o 256 colores a 320×200. Las tarjetas de video actuales son capaces de resoluciones mucho mayores.

Video conferencia

Sistema que permite la transmisión en tiempo real de video, sonido y texto a través de una red; ya sea en una red de área local (LAN) o global (WAN). El hardware necesario se compone de a) tarjeta de sonido y vídeo, vídeo cámara, micrófono y bocinas. La velocidad de transmisión lograda actualmente es de 10 cuadros por segundo y se incluye un soporte vía módem.

Vínculo

Link. Apuntadores hipertexto que sirven para saltar de una información a otra, o de un servidor web a otro, cuando se navega por Internet <–esto es un vínculo

Virtual

Término de frecuente utilización en el mundo de las tecnologías de la información y de las comunicaciones el cual designa dispositivos o funciones simulados.

Virus

Programa que se duplica a sí mismo en un sistema informático incorporándose a otros programas que son utilizados por varios sistemas. Este tipo de programas pueden actuar de diversas maneras como son:
a) Solamente advertir al usuario de su presencia, sin causar daño aparente.
b) Tratar de pasar desapercibidos para causar el mayor daño posible.
c) Adueñarse de las funciones principales (infectar los archivos de sistema).
Los virus no pueden viajar en mensajes de correo electrónico, ya que únicamente utilizan el formato de 7 bits para transferir texto. La única manera en que pueden viajar es por archivos binarios que se envían mediante un adjunto (attachment) al mensaje de texto (y que el MIME convierte automáticamente). Es recomendable revisar estos archivos con un antivirus antes de su lectura. También existen otros tipos de virus, como por ejemplo el que afecta la función de macros de Word y Excel.

Visita

En internet, una visita es el recorrido que un usuario hace por un sitio web. Dicho recorrido puede ser corto o largo en el tiempo, accediéndose a una o más páginas del sitio web visitado y pudiendo ser controlado desde éste por medio de cookies, lo que puede ser un riesgo para la intimidad del usuario. Ver Tráfico de un sitio web.

Visita Única

Unidad de medida neta relacionada al recorrido hecho por los usuarios en un sitio web dado la cual está basada en la cantidad de direcciones IP o computadoras “únicas” que visitaron al sitio en un determinado período de tiempo (1 mes).

Visual Basic

Lenguaje de programación de Microsoft orientado a eventos y utilizado principalmente para realizar consultas a bases de datos de Microsoft como Fox Pro, SQL, etc. que funcionan en servidores Windows.

Vlog

Lo mismo que un blog pero únicamente conformado por video, sin textos.

VoIP

La Voz sobre IP (VoIP, Voice over IP) es una tecnología que permite la transmisión de la voz a través de redes IP en forma de paquetes de datos. La Telefonía IP es una aplicación inmediata de esta tecnología, de forma que permita la realización de llamadas telefónicas ordinarias sobre redes IP u otras redes de paquetes utilizando un PC, gateways, teléfonos IP y teléfonos estándares. En general, servicios de comunicación – voz, fax, aplicaciones de mensajes de voz – que son transportadas vía redes IP, Internet normalmente, en lugar de ser transportados vía la red telefónica convencional.

VRML

Lenguaje de Modelación de Realidad Virtual. Lenguaje de programación utilizado para hacer presentaciones de realidad virtual en el WWW. Puede ser un navegador propio o integrado a través de un Plugin. En agosto de 1995 se anunció la especificación 2.0 como un nuevo estándar. VRML 1.0 permite crear mundo estáticos en tercera dimensión los cuales contienen objetos que pueden girar libremente alrededor de su eje, pero sin ningún movimiento interactivo real. VRML 2.0 por su parte permite manipular los objetos y cuenta con censores de proximidad y sonido.

 

U vocabulario


U

UBE

En inglés, Unsolicited Bulk Email. Email masivo no solicitado. Se refiere a cualquier email enviado de forma masiva a un grupo de usuarios (pueden ser millones!), sin que estos lo hayan solicitado o aceptado. Aunque el receptor se deleite con el mensaje recibido (generalmente es comercial), sigue siendo un email que no fue solicitado. Otro término común para este problema es Spam.

Ubuntu

Distribución de Linux basada en Debian. Se puede descargar gratuitamente aqui.

UDP

Acrónimo en inglés de User Datagram Protocol. Protocolo de Datagramas de Usuario. Protocolo dentro del TCP/IP que convierte mensajes de datos en paquetes para su envío vía IP pero que no pide confirmación de la validez de los paquetes enviados por la computadora emisora (no verifica que hayan sido entregados correctamente). Este protocolo es actualmente usado para la transmisión de sonido y vídeo a través de Internet. El UDP está diseñado para satisfacer necesidades concretas de ancho de banda y como no reenvía los datos perdidos, es ideal para el tráfico de voz digitalizada debido a que un paquete perdido no afecta la calidad del sonido. Entre las aplicaciones que utilizan este protocolo encontramos a Real Audio.

Unicast

Comunicación establecida entre un solo emisor y un solo receptor en una red.

Unidad Aritmético / Lógica

Esta unidad realiza cálculos (suma, resta, multiplicación y división) y operaciones lógicas (comparaciones). Transfiere los datos entre las posiciones de almacenamiento. Tiene un registro muy importante conocido como: Acumulador ACC Al realizar operaciones aritméticas y lógicas, la UAL mueve datos entre ella y el almacenamiento. Los datos usados en el procesamiento se transfieren de su posición en el almacenamiento a la UAL. Los datos se manipulan de acuerdo con las instrucciones del programa y regresan al almacenamiento. Debido a que el procesamiento no puede efectuarse en el área de almacenamiento, los datos deben transferirse a la UAL. Para terminar una operación puede suceder que los datos pasen de la UAL al área de almacenamient o varias veces.

Unidad de control

Es en esencia la que gobierna todas las actividades de la computadora, así como el CPU es el cerebro de la computadora, se puede decir que la UC es el núcleo del CPU. Supervisa la ejecución de los programas Coordina y controla al sistema de cómputo, es decir, coordina actividades de E/S. Determina que instrucción se debe ejecutar y pone a disposición los datos pedidos por la instrucción. Determina donde se almacenan los datos y los transfiere desde las posiciones donde están almacenado. Una vez ejecutada la instrucción la Unidad de Control debe determinar donde pondrá el resultado para salida ó para su uso posterior.

Unidad de Paquete

Pequeño programa situado entre la tarjeta de red y el programa de TCP de manera que proporciona un interfaz estándar que los programas pueden usar como si se tratase de una unidad de disco.

UNIX

Sistema operativo especializado en capacidades de multiusuario y multitarea. Alta portabilidad al estar escrito en lenguaje C, lo que lo hace independiente del hardware. Para más info. haz click aqui

Upload

Proceso de transferir información desde una computadora personal a generalmente un servidor.

UPS

Siglas en ingles de Uninterruptible Power Suply, es un aparato que incluye una batería que en caso que se vaya la electricidad, puede, por ejemplo, mantener una computadora funcionando lo suficiente para que el usuario pueda apagarla y guardar data importante. El poder de cada UPS depende del voltaje, mientras mas voltaje más caro es el equipo, pero asi mismo puede soportar más tiempo.

URL

Acrónimo de Uniform Resource Locator. Localizador Uniforme de Recurso. Es el sistema de direcciones en Internet. El modo estándar de escribir la dirección de un sitio especifico o parte de una información en el Web. El URL está conformado por
a) El protocolo de servicio (http://);
b) El nombre de la computadora (www.panamacom.com); y
c) El directorio y el archivo referido.

Usabilidad

En informática, usabilidad se refiere a la elegancia y claridad con la cual la interfase de usuario de un programa o website es diseñado. Por ejemplo, un experto en usabilidad puede observar y conversar con los usuarios del programa o website para mejorar fallas en el diseño que no hayan sido anticipadas. También ver arquitectura de información.

USB

Universal Serial Bus – Estándar utilizado en las PCs con el fin de reconocer los dispositivos hardware (impresora, teclado, etc.) y ponerlos en funcionamiento de forma rápida y sencilla. Elimina la necesidad de instalar adaptadores en la PC.

Usenet

Proviene de User Network. Sistema de redes que transmite miles de grupos de noticias en forma de foros de charla globales y públicos sobre muchos temas diversos. Usenet transmite miles de grupos de noticias sobre todo tipo de tópicos.

User ID

Identificación de usuario. Conjunto de caracteres alfanuméricos los cuales sirven para identificar a un usuario para su acceso a algún sistema, por ejemplo web sites, banca electrónica, emails, etc.

Usuario

Persona que tiene una cuenta en una determinada computadora por medio de la cual puede acceder a los recursos y servicios que ofrece una red. Puede ser tanto usuario de correo electrónico como de acceso al servidor en modo terminal. Un usuario que reside en una determinada computadora tiene una dirección única de correo electrónico.

Utilitario

Programa diseñado para realizar una función particular, problemas muy enfocados o relacionados con el manejo de sistema de computadora.

UUDECODE

Unix to Unix Decoding. Decodificador Unix a Unix. Programa utilizado para convertir archivos ASCII (archivo de texto) enviados por correo electrónico (codificados con UUENCODE), a un formato binario.

UUENCODE

Unix to Unix Encoding. Codificador Unix a Unix. Método para convertir archivos binarios a formato ASCII (archivo de texto) para que puedan ser enviados vía correo electrónico. En los últimos años está siendo sustituido por programas tipo ZIP que son más eficientes desde el punto de vista de la compresión de los datos.