Nueva Revista 044 > El español en Internet

El español en Internet

Francisco A. Marcos Marín

Documento sobre la importancia del la lingüística en Internet, el español como asignatura pendiente en la red.

File: El español en Internet.pdf

Referencia

Francisco A. Marcos Marín, “El español en Internet,” accessed November 25, 2024, http://repositorio.fundacionunir.net/items/show/866.

Dublin Core

Title

El español en Internet

Subject

Documentos

Description

Documento sobre la importancia del la lingüística en Internet, el español como asignatura pendiente en la red.

Creator

Francisco A. Marcos Marín

Source

Nueva Revista 044 de Política, Cultura y Arte, ISSN: 1130-0426

Publisher

Difusiones y Promociones Editoriales, S.L.

Rights

Nueva Revista de Política, Cultura y Arte, All rights reserved

Format

document/pdf

Language

es

Type

text

Document Item Type Metadata

Text

EL ESPAÑOL EN INTERNET m Francisco A. Marcos Marín Lingüísticamente, Internet es una red en inglés; pero no solo en inglés: sus posibilidades amplían el uso lingüístico tanto como el cine sonoro amplió las del cine mudo. Un usuario de un servicio a través de Internet puede elegir, sin ninguna dificultad técnica, la lengua en la que quiere ser servido o de la que quiere servirse. El mercado lingüístico se abrirá doblemente: ciertas lenguas pequeñas pagarán por estar presentes; otras, las internacionales, serán lenguas de los consumidores. La cuestión es quiénes serán los productores en esa lengua: ¿Nos limitaremos los hispanoamericanos a ser espectadores pasivos y consumidores o seremos capaces de desarrollar nuestra propia industria del idioma en el nuevo mercado? A lo largo de 1995 se consolidó una de las mayores transformai ciones en la historia de las comunicaciones humanas, si no la mayor. Son más de cincuenta mil las redes conectadas en Internet, las direcciones electrónicas, es decir, las personas físicas o jurídicas que tienen acceso al correo electrónico son al menos veintidós millones. El correo electrónico es la solución para el problema de la correspondencia comercial y privada y el intercambio de originales y pruebas de modo mucho más efectivo que el correo ordinario. Las cuentas bancarias y toda clase de transacciones se manejan por conexión desde el domicilio al servicio electrónico del banco o entidad financiera, las compras y pedidos de un amplísimo número de proveedores se hacen también a través de Internet. Publicidad y propaganda de todo tipo se abren fácil camino por la red electrónica. Es inmediato el acceso a los catálogos por ordenador para recibir una información bibliográfica mucho más completa que la media, incluso para quien accede a varias bibliotecas por desplazamientos personales en los que emplea un tiempo incomparablemente superior, durante veinticuatro horas al día. La posibilidad de recibir información regular y al día mediante los boletines electrónicos es un hecho; para suscribirse basta con enviar una simple línea por correo electrónico al ordenador que hace de distribuidor de ese boletín, el llamado servidor. El intercambio de opiniones y la constitución de equipos que se distribuyan racionalmente, en su espacio geográfico propio, los trabajos de campo, está resuelta con los sistemas de conferencia electrónica. A ello podemos añadir la transmisión de radio, de música, de películas, no parece haber más límite que el de la imaginación humana. No hay duda de que las sociedades se dividen implacablemente en dos clases: las que se organizan en torno a este nuevo e importantísimo parámetro y las que se quedan al margen, obsoletas y sin futuro. Nada de ello habría adquirido la dimensión actual de no haber sido por el crecimiento exponencial de los usos comerciales de la red, que ya a fines de 1995 sobrepasaban a cualesquiera otros. El cambio fundamental se debe a que las imágenes y los sonidos se pueden digitar. El formato digital se transmite por las redes (principalmente haciendo uso de la infraestructura telefónica), con unos programas que hacen que cualquier usuario con una computadora conectada a la red tenga acceso a ese intercambio total de información. Estos programas que se sitúan entre el ordenador y el usuario y que facilitan el acceso de éste a los complejos procesos de aquél se llaman interfaces. Dos son las interfaces que han simplificado tan notablemente el acceso a la información total, Mosaic y Netscape. Las dos requieren una instalación informática multimedial, que está compuesta por Windows como interfaz con el sistema operativo y un ordenador con cierta velocidad de proceso (mínimo un 386), dotado además de un lector de discos compactos de solo lectura o CDRoms y una tarjeta de sonido. Para ver solo los textos, no las imágenes, puede usarse otro programa, Lynux. A la red puede accederse básicamente de dos maneras: mediante una tarjeta de conexión, si se hace la conexión institucional, por ejemplo desde una universidad o centro de investigación, o mediante un modem, si se hace la conexión individualmente. En este segundo caso caben también dos posibilidades, la conexión individual a un centro educativo o cultural que lo permita, o el acceso a través de un proveedor de servicios de Intenet (ISP). Telefónica calcula que, para España, el número de estos proveedores llegará al millar. Las vías de comunicación que se pueden formar de esta manera constituyen una red tupida que recibe el nombre de autopistas de la información. Su existencia implica una revolución de las comunicaciones y de la transmisión de información, con unas características que debe conocer cualquier persona bien informada. Un gran número de usuarios actuales tiene sobre su mesa computadoras dotadas de gran capacidad de almacenamiento, incluso de gráficos y de audio, conectadas a la red. Por ello se ha desarrollado el modelo clienteservidor. Los usuarios pueden tener en sus máquinas un software específico, llamado «cliente», con la peculiaridad de poder utilizar las posibilidades de su ordenador y añadirles las derivadas de la comunicación con un servidor por la red. Estos clientes proporcionan una interfaz intuitiva y amistosa con el usuario, permiten el uso de mecanismos apuntadores, como el ratón, y aprovechan otros rasgos del sistema local. El cliente envía las peticiones del usuario a un servidor gracias a un formato estándar, que se llama protocolo, y el servidor contesta en un formato condensado que el cliente reconvierte para que el usuario pueda leer cómodamente la información o utilizar los datos en su sistema. La complejidad de posibilidades que nos ofrece la conexión remota hace que nuestra participación a través de mensajes se convierta, en la práctica, en la realización de un hipertexto, en el que integramos nuestra propia escritura, el correo, la información de los boletines y conferencias, los datos de las bases de datos, las órdenes de compra y los pagos, así como todo tipo de textos, desde los clásicos hasta la nota de última hora. Todo el mundo es un gran tejido de información, cuyos hilos vamos separando y atando a nuestro propio aire. El punto de partida individual Necesitamos un ordenador personal, un modem y un programa de comunicaciones. Con ello nos conectaremos a una institución con salida a la red o a una de las muchas compañías proveedoras de servicios o ISP (.Internet Service Provider). Algunos de estos proveedores de servicios son internacionales, es decir, cambiando el número telefónico de conexión, puede usarse la misma cuenta individual en varios países. El ordenador personal debe tener libre una salida de la tarjeta serie (estándar RS232) por un puerto serie que será COMÍ, si es tarjeta serie (estándar RS232) por un puerto serie que será COMÍ, si es el primero, o 2,3,4, si bien pueden presentarse problemas de configuración si se usan COM3COM4. El modem se conecta por un lado al puerto serie y por otro a la línea telefónica, con un conector estándar. En caso de desplazarse a otros países con el modem, puede ser necesario comprar un adaptador de conexión telefónica, que se encuentra habitualmente en los establecimientos dedicados a artículos eléctricos y de telefonía. En ocasiones el modem tiene que conectarse a la red eléctrica para recibir energía, otras veces le basta con la que recibe de la propia red telefónica, al igual que el teléfono, o de otro componente de la computadora, como el teclado. El modem debe ser preferiblemente estándar Hayes, lo que permitirá usar el conjunto estándar de mandatos Hayes AT. AT quiere decir «atención» y es la primera señal que se envía desde el programa de comunicaciones al modem cuando se establece contacto. La comunicación requiere un modem en el ordenador de salida y otro en el de llegada (para que uno module y otro desmodule, es decir, cambien la señal digital a analógica y de nuevo a digital, pasen de 0,1 a ondas o impulsos y de éstas de nuevo a 0,1). No olvidemos que analógico es lo perteneciente o relativo a la representación por medio de cantidades físicas que varían continuamente, mientras que digital se refiere a la representación por medio de dígitos, que en este caso son 0 y 1, puesto que se trata de un código binario. Para que uno y otro modem intercambien señales y se establezca un canal de comunicación por la línea telefónica deben «estrecharse las manos», handshaking. Aunque, en general, este proceso no plantea dificultades, a veces los modem no se entienden. Los programas de comunicación más completos permiten cambiar la modalidad de handshaking, hasta que se encuentre la adecuada. Es conveniente asegurarse de que nuestro modem es compatible con el del ordenador al que nos conectaremos habitualmente. Asegurada esa compatibilidad, necesitaremos saber los parámetros de conexión. El primero de ellos es la velocidad de transmisión expresada en baudios. Para entendernos digamos que un baudio es el equivalente de la transmisión de una raya en Morse. Aunque los modem modernos se ajustan automáticamente, está claro que no podemos emitir a 14.400 baudios para un modem receptor de 1.200, aunque sí al contrario. En otro parámetro definiremos el puerto serie al parámetros más: la paridad y si hay un bit de parada o no. A veces no vemos lo que estamos tecleando en el ordenador remoto, en ese caso, conviene establecer el parámetro echo remote para no escribir a ciegas. Los bits se transmiten en serie, desde el ordenador al modem, éste los modula, se transmiten por la red telefónica, llegan al modem receptor, éste los desmodula y vuelve a transmitir bits en serie al segundo ordenador. La suma de los bits transmitidos ha de ser siempre par (even) o impar (odd) y debemos definir ese parámetro en función del ordenador receptor. También en función del receptor debemos decidir si transmitimos siete u ocho bits y si hay un bit de parada o no, es decir, un bit redundante añadido para saber si se han producido errores de transmisión o no. La transmisión se somete a una verificación de paridad. Si la verificación detecta un error, se vuelve a enviar automáticamente el conjunto de bits que ha dado fallos, si el error se reitera, el programa se interrumpe. Normalmente podemos definir también cuántas veces debe reintentarse la transmisión si se ha detectado un error. Si nos conectamos a un ordenador y empezamos a recibir símbolos extraños en la consola, lo más fácil es que haya un error de paridad: no hay que asustarse, salimos del programa, cambiamos la paridad, volvemos a conectarnos y lo normal es que funcione. El arreglo de un error de paridad al conectarse está al alcance de todos. El propio programa de comunicaciones se encarga de incluir los parámetros, que podemos teclear en un fichero específico de configuración, que el ordenador leerá cuando se invoque el programa. Además podemos incluir otras muchas opciones, el tipo de terminal que estamos usando o que queremos emular, los teléfonos de los ordenadores a los que llamamos más frecuentemente, si queremos cambiar la pantalla de blanco y negro a color y cómo configurar los colores, si deseamos que se ejecuten algunas macros al conectarnos. Lo fundamental, desde luego, es el tipo de terminal, porque es el medio por el que enviamos la información al otro ordenador y como recibimos su respuesta en pantalla. También aquí lo más frecuente es emular un terminal VT100, un terminal Digital, cuya correspondencia con el IBM no es perfecta, especialmente en las teclas de función. Una tabla de correspondencias y algunos intentos producen buenos resultados. Además de la conexión necesitamos, para salir a la red, un protocolo (IP, Internet Protocol) o conjunto de programas de intercomunicaciones. El protocolo estándar, que une máquinas de muy diversas características y sistemas operativos, se llama TCPIP (Transmission Control ProtocolInternet Protocol). Los datos se transmiten y se reciben agrupados en los llamados «paquetes», conjuntos de octetos o bytes, cada uno con la dirección electrónica del destinatario. Gracias al protocolo, los paquetes se abren y se agrupan de modo que el mensaje sea transmitido y recibido (sea texto, imagen o sonido, pues todo es código digital). Cada paquete sigue su recorrido independientemente, lo que da una enorme seguridad al envío. Conectividad Internet en España El proceso de conexión de España a Internet se inició a mediados de 1990. El Plan Nacional de I+D, por medio de la CICYT, patrocinó la Red Académica y de Investigación (Redlris) la cual inició un experimento piloto con la conexión de cuatro centros a Internet. Ya es sabido cómo esas cifras se han disparado exponencialmente en poquísimo tiempo. En abril de 1995 la agencia norteamericana NFS, que financiaba los servicios de Internet, dejó de hacerlo, para que los operadores nacionales e internacionales gestionaran y administraran la red, en régimen de libre competencia. Se crean así los NAPS (Network Access Points), centros de comunicaciones a los que se tienen que conectar todos los operadores. En lo que se refiere a la utilización comercial en España, GOYA, Servicios Telemáticos S.A., primero, y Servicom, S.A., posteriormente, introdujeron la conexión a Internet con fines comerciales. A primeros de 1995 empieza a crecer el número de empresas (ISP, Internet Service Provider) que ofrecen este servicio, suministrado también por compañías multinacionales, como CompuServe, entre otras. La oferta básica de un servicio de conexión a Internet incluye los siguientes aspectos: —correo electrónico, bien interactivo, es decir, durante el tiempo de la conexión, bien en modo pospuesto, mediante programas que copian el correo recibido al ordenador personal, lo que permite al receptor desconectarse telefónicamente, leer los mensajes y contestarlos, para, al volverse a conectar, enviar las respuestas por teléfono a la red, con el consiguiente abaratamiento del tiempo de conexión. El más común de estos programas es el Eudora. —www, World Wide Web, tanto para recibir información (texto, imagen fija o en movimiento y sonido), como, sobre todo, para crear la propia página de entrada al web y poder ofrecer los propios productos y venderlos a través de Internet. —Ftp (file transfer protocol), para transferencia rápida de ficheros —Telnet, para conexión del ordenador personal como terminal de un ordenador principal en el que se tiene una cuenta abierta. Es un proceso muy habitual en los medios de investigación y docencia, menos en los comerciales. —otros servicios, que no hace falta detallar, incluyen protocolos como Gopher y Wais, servidores de nombres u otras conexiones. Montar una de estas empresas es muy sencillo y barato: el funcionamiento es bueno si los modems utilizados son de velocidad alta, sobre todo de 28.800 baudios, y si hay un número amplio de bocas de conexión. De lo contrario se producen cuellos de botella, sobre todo a las horas más concurridas. Sin embargo, el problema se plantea de modo más acuciante en la conexión ulterior. Todos los ISP españoles se conectan a Internet a través de sus enlaces internacionales, lo cual es caro y muy poco eficiente, por excesivamente lento. En otros países, este problema se ha resuelto mediante la creación de cix (Commercial Internet eXchangers) o NIX (Neutral Internet eXchangers). Los proveedores de servicios (ISP) establecen unas normas de conexión y comparten los gastos de mantenimiento de la infraestructura. En España el problema se centra en la necesidad de disponer de un Punto Neutro de Interconexión Nacional, en lo cual todos parecen estar de acuerdo. No hay acuerdo, en cambio, en cómo debe constituirse éste. Telefónica es el único proveedor de circuitos, además de patrocinar un ISP, Infovía. Se hace necesario encontrar una solución que permita que el punto neutro lo sea y lo parezca, para acabar con los recelos de los otros proveedores, algunos de los cuales, como GOYA, SARENET o Servicom, tienen una amplia experiencia y buen número de suscriptores. No tiene sentido que si un usuario de Madrid desea conectarse a otra máquina de Madrid a través de Internet tenga que hacerlo a través de Nueva York porque no hay un sistema nacional de conexión. Técnicamente existen diversas soluciones, que se resumen así: —conexiones bilaterales entre distintos proveedores. Requiere n*(nl)2 enlaces, lo cual acaba siendo imposible, ante el número de proveedores y su crecimiento. —establecimiento de un punto neutro, con dos variantes: —un único router compartido: solución tipo cix, en desuso por la imposibilidad de acuerdos de todos los proveedores, reales y posibles. —un punto neutro basado en un medio físico o red local, compartido, ubicado en un lugar donde cada proveedor pueda utilizar su propio router conectado a la red local neutra, por un lado, y a su línea de acceso, por otro. Cada proveedor gestiona su propio router y, a través del medio compartido, intercambia información de routing y tráfico con el resto de los proveedores según acuerdos bilaterales y multilaterales. Es el modelo más potente y flexible, seguido por la mayoría de los puntos neutros de interconexión: NAPS [2], MAEEAST O GIX, MAEWEST [3], LINX [5], cixp [6], hkix [7], Que la segunda variante de la segunda solución es la que se impone resulta indiscutible. El problema es el de cómo garantizar a todos los proveedores la neutralidad de ese punto neutro y, de acuerdo con ello, resolver el problema de la entidad gestora. La solución compete a los técnicos en estas cuestiones, que nos hemos limitado a exponer. La infopista El interesado en consultar una de las más conocidas enciclopedias mundiales, en breve, no necesitará ningún espacio para almacenarla. Hoy necesitaría el pequeño lugar requerido por los trece gramos de un disco compacto y su caja de plástico, hace cinco años necesitaba casi un metro cúbico de espacio para ese fin. En los dos últimos casos, el usuario era propietario y se veía obligado, para la adquisición, a desembolsar una suma de cierta consideración. Responsable de esa evolución imparable, cuyas consecuencias empiezan a preocupar (nunca es tarde) a políticos y economistas, es un sistema complejo y aparentemente anárquico de comunicaciones, la red de redes o Internet. Originada en 1969 como proyecto del Pentágono, para favorecer el intercambio de información y de recursos informáticos entre instituciones militares y centros de investigación relacionados con la defensa, ARPANET (red de la Advanced Research Projects Agency) pasó pronto a servir a las comunicaciones entre universidades y centros de investigación, de donde se extendió a los individuos que trabajaban en estos lugares y, por último, a las empresas comerciales. Desde 1988, Internet, como se llama la red desarrollada desde ese embrión, dobla cada año su tamaño. Es muy posible que ya a mediados de 1995 fuera utilizada por más de veinte millones de usuarios. La primera de las breves observaciones que caben en estas páginas es la de quién paga los gastos de la red. La respuesta más sencilla es que, salvos algunos intentos como los de Chile y Nueva Zelanda, entre otros, el usuario no paga directamente. Puede pagar si se conecta a través de alguna compañía de servicios informáticos (servicios online o isp). Para los grandes servicios online hay un mercado de mil trescientos millones de dólares anuales que dominan Prodigy, CompuServe y America Online. Lo que paga el usuario, en ese caso, no es la conexión a Internet, sino el servicio de la compañía. La conexión, en último término, no la paga nadie. Las líneas telefónicas existen y las redes que forman Internet no pagan más que el leasing. El parasitismo es posible porque la información digital, comparada con la analógica, ocupa una pequeña parte del tráfico de la red. El acceso multimedial, sin embargo, puede cambiar todo esto de modo espectacular, porque el sonido y la imagen en vídeo requieren transmisiones digitales muchísimo mas largas que el texto escrito. La ventaja es que la utilidad de una línea telefónica es directamente proporcional al número de usuarios, lo que incide en su abaratamiento, en la misma proporción. En consecuencia, los países que disponen de un cableado mejor y más extenso se benefician más que otros de todas las posibilidades que la red abre. El crecimiento del número de ordenadores huéspedes en Internet, sin embargo, no es mayor en esos países, porque la diferencia absoluta es todavía muy grande. Así, los Estados Unidos, con 3.372.600 y un incremento del 100% en el 9495 ocupa el primer lugar en lo primero, pero no en lo segundo. África, con solo 27.100 huéspedes, creció a un ritmo del 148% en el mismo período, Iberoamérica al 116% y Europa Oriental al 132%. Europa occidental, con 1.039.200 huéspedes y un crecimiento del 88% en ese período, ocupa claramente el segundo lugar, a gran distancia del primero y del tercero (Oceania, 192.400, 69%), según datos de Internet Society publicados por The Economist (julio 1995). El mercado se encuentra muy lejos de la saturación. Que las compañías son bien conscientes de ello se observa con facilidad en diversos rubros. Si los proveedores de Internet, según Forrester Research, facturaron en 1994, 123 millones de dólares, en el año 2000 se calcula que serán más de cuatro mil millones. No extraña por ello que Microsoft incorpore el acceso a Internet en Windows 95, que America Online haya pagado treinta millones de dólares por BookLink Technologies (una empresa de hojeadores o browsers) o que CompuServe haya satisfecho cien millones a cambio de Spy Inc., empresa que factura cerca del 10% de los hojeadores del mercado. Un hojeador es un programa que permite leer un texto electrónico, pero no escribir. Otra noción que ha cambiado es la de ordenador o computadora huésped. Coincidente en principio con las grandes máquinas (mainframes), muchos de ellos son hoy pes, la mayoría con alguna variante de UNIX como sistema operativo. El abaratamiento de estas máquinas ha sido esencial para la evolución de Internet, asequible hoy al usuario medio. De estas ventajas se han beneficiado, claramente, las empresas comerciales que, según Network Wizzards, también recogida por el citado número de The Economist, han pasado de ser el segundo grupo en julio del 91, con un 269%, a ser el primero en enero del 95, con un 271% que es considerablemente más si se tiene en cuenta que el grupo de «otros» (353%) está constituido, básicamente, por empresas comerciales fuera de los Estados Unidos y solo es el primero aparentemente. Disminuye el porcentaje de educación, militar y de los gobiernos y se amplia el de otras organizaciones y otras redes que se interconectan. El correo electrónico, la base inicial de la red, ha dejado de ser un elemento fundamental, como tal, aunque siga siendo el fundamento de muy distintos tipos de comunicación. Ciento seis naciones se conectan por correo electrónico y son más de un millón las máquinas que tienen acceso al correo electrónico como huéspedes, no como usuarios simplemente, ni tampoco interactivamente, según datos de Internet (habría que multiplicar esa cifra al menos por cinco, en ese caso). El número de ordenadores con acceso a comunicaciones por redes, para 1995, puede calcularse entre los cuarenta y los cincuenta millones en todo el mundo. Solo en España, en 1991, había doscientos dieciséis servicios de información electrónica en formato ASCII, hoy son ya muchos más. Pregunta inmediata es la de quién controla la red. La respuesta es tan simple como la anterior: nadie. Nadie y todos, sería más exacto. El éxito del sistema se basa en que las transmisiones se hacen agrupando los datos codificados (ristras de 0,1) en paquetes, cada uno de los cuales lleva su identificación y puede caminar por distintas líneas hasta que se reúnen en el ordenador de destino y, por decirlo así, se «recomponen» gracias al protocolo estándar TCPIP, como hemos dicho. El camino más rápido y eficaz de Madrid a Barcelona no tiene por qué ser Zaragoza, puede ser Amsterdam, o Nueva York. La cara positiva de la ausencia de un control centralizado es la libertad, omnímoda, la negativa es el peligro de verse limitada por legislaciones diversas, que pueden incidir en su funcionamiento. Ya se han alzado voces serias contra el uso de Internet para la comisión de crímenes o de delitos de diversa consideración, como la transmisión de la pornografía (hay un serio aviso en revistas tan típicas de ciertos grupos como Time o Selecciones del Readers Digest). Las leyes sobre la pornografía son muy diferentes en distintos países y van desde la permisividad total hasta el castigo penal. El tráfico pornográfico por la red ya no se limita a las imágenes enlatadas. Existen servicios en donde se transmiten electrónicamente imágenes en movimiento y sonidos de mujeres (suponemos que también de hombres) que realizan diversos actos a petición de sus clientes electrónicos. 450.620 imágenes pornográficas fueron descargadas 6.432.297 millones de veces a usuarios finales en tan solo seis meses, según un estudio de Carnegie Mellon University. En estos casos, evidentemente, Internet no es responsable, lo será la compañía suministradora de los datos, pero es el medio que hace posible éstos. Es el mismo dilema de las líneas telefónicas usadas por malhechores, no se puede hacer responsable a las compañías del teléfono. Sin embargo, a través de Internet es mucho más difícil controlar a esos malhechores, sin contar con la posibilidad que éstos tienen de codificar los mensajes, que hoy llega a hacerlos indescifrables para quien no tenga la clave, por potentes que sean sus medios electrónicos. Internet como fuente de ganancias o vía de negocio es otra de las cuestiones más suscitadas. En estos momentos, podemos diferenciar tres aspectos, el de los negocios que se mueven directamente a través de Internet, las compras en la red, que suponen una cifra relativamente pequeña, el de la repercusión de Internet en las ventas de ordenadores y equipo electrónico, que es notable, y el de la publicidad a través de la red, que es, de momento, la actividad fundamental de casi el 50% de los usuarios, es decir, de las compañías comerciales. Si una empresa como PC Gifts and Flowers, de Bill Tobin, vendió en 1994 cuatro millones de dólares de flores a través del servicio Prodigy, no extraña que los doscientos cuarenta y cinco millones de 1994 en ventas electrónicas (Internet y Cable TV) puedan ser 4.800 millones en 1998, según estima Forrester Research. En 1990 había mil empresas en la red, que eran ya veinticuatro mil en el 94, con más de setenta mil direcciones comerciales y treinta millones de dólares invertidos en accesos y estructuras básicas. La consultora neoyorquina Júpiter Communications estima que la suma de trescientos mil clientes que realizan en la actualidad sus operaciones bancarias a través de un ordenador personal se elevará a 46 millones en 1997. Los inversores que hicieron sus negocios por la red son unos cuatrocientos mil. 35 millones de dólares pagaron el Bank of America y Nations Bank por la casa productora de Managing Your Money, Meca Software. Los usuarios pagan una pequeña suma por estos servicios. Las inversiones de las grandes compañías telefónicas y de comunicación se dividen en dos grandes grupos, por un lado están las inversiones estructurales, como el backbone regional del Cono Sur que monta Telintar en la Argentina, para unir la red de la República Argentina con Brasil y Uruguay por un cable de fibra óptica, Unisut, y con Chile por el tendido terrestre de comunicaciones, ejemplos similares pueden buscarse por doquier; por otra parte están los desembolsos para hacerse con otras empresas implantadas en un sector de la red de tanto futuro como los servicios online, que son muy significativas: parecen modestos los cincuenta millones de AT&T para ZiffDavis en el lanzamiento de InterChange frente a los más de dos mil millones de dólares de MCI para Delphi, de News Corp (Robert Murdoch), o los 2.500 millones de us West, por ejemplo, pero AT&T OnLine, una nueva compañía en puertas, podría acceder a una parte del mercado y ofrecer modems a 28.800 baudios a precios de mayorista. En lo que concierne a la publicidad, hay que tener en cuenta las características de la nueva generación, o generación x. Se trata de jóvenes acostumbrados a reaccionar con rapidez ante la pantalla, a quienes no impresiona la imagen digital. Es también un sector con medios económicos, lo que hace que, ante la publicidad emitida por la red, un 10% se ponga en contacto con el publicista para requerir mayor información, frente a una respuesta habitual entre el 1 y el 2% por los medios tradicionales. La propuesta publicitaria electrónica, no obstante, tiene que adaptarse a ciertos usos, pues no gusta que la red se utilice con fines comerciales y es relativamente fácil inundar el ordenador de una compañía con miles de mensajes de protesta, que la paralizan. Por ello se ha desarrollado el advertainment, una mezcla de publicidad con juego, donde se realizan ofertas comerciales, pero los usuarios pueden interactuar y modificar a su gusto las imágenes de los productos ofertados. España y los países hispanohablantes tienen poco que decir, al menos de momento, en este conjunto. En el gráfico de uso de Internet que recoge también The Economist es España el primero de estos países en el número de ordenadores huéspedes por tanto por mil de la población. Finlandia es líder, por delante de los EE.UU., Australia y Nueva Zelanda. Somos de momento el vigésimoprimer país, detrás de la República Checa, Japón y Suráfrica, que nos preceden en ese orden, con grandes posibilidades de seguir retrocediendo. No hay datos de ningún otro país ibérico. Lingüísticamente, Internet es una red en inglés; pero no solo en inglés. Las posibilidades de la www amplían el uso lingüístico tanto como el cine sonoro amplió las del cine mudo. Un usuario de un servicio de películas, documentales, informativos, publicidad o compras a través de Internet puede elegir, sin ninguna dificultad técnica, la lengua en la que quiere ser servido o de la que quiere servirse. El mercado lingüístico se abre por tanto, en el doble sentido. Ciertas lenguas pequeñas pagarán por estar presentes, como ya es el caso del catalán en los actuales procesadores de texto, otras, las lenguas internacionales, serán lenguas de los consumidores y la pregunta es quiénes serán los productores en esa lengua, es decir, si los hispanoamericanos nos limitaremos a ser espectadores pasivos y consumidores en el nuevo mercado o si seremos capaces de desarrollar nuestra propia industria del idioma. El desarrollo que hace todo esto posible es el paso a una red multimedia, lo cual se debe a una telaraña mundial, la triple w, World Wide Web o, simplemente, Web. Originariamente diseñado en 1989 por Tim BernersLee para compartir información científica, a partir del laboratorio europeo de física nuclear de Ginebra, European Laboratory for Particle Physics, CERN, desde 1994 se ha convertido (con un crecimiento del 50% mensual, doblando su tamaño cada cincuenta y tres días) en un fenómeno comparable a la expansión de los PCS, si no superior. Interfaces como Mosaic y Netscape hacen el uso de www tan simple como pulsar un botón del ratón sobre distintos iconos. Imagen, sonido y movimiento están a disposición del usuario. Las posibilidades son inmensas, porque la técnica de hipertexto permite ligar cualquier ordenador con otro y de nuevo con otro y recorrer todo el mundo obteniendo información, sin necesidad de almacenarla en el mismo sitio. El concepto que subyace a www es el de hipertexto. Es un nuevo concepto de escritura vinculado a la flexibilidad de los nuevos medios, especialmente los ordenadores multimediales. Esta idea de multimedia implica unir alrededor de la computadora un conjunto de tecnologías diferentes. El ordenador es el que organiza, jerarquiza y redistribuye la información aportada por esos medios distintos. Cuando leemos un libro, lo escribimos, escribimos una carta o un programa de ordenador, la información que presentamos o recuperamos es de carácter lineal. Es cierto que se ha desarrollado mucho el tipo de escritura que permite obviar esa linearidad, interrumpiendo un capítulo, volviendo atrás, empezando un libro o continuándolo por cualquier parte, logrando en cada ocasión una nueva línea argumentai, en cierto modo, un nuevo texto. También es cierto que cuando leemos un libro de ciencia nos encontramos con varios tipos de referencias cruzadas: una nota a pie de página que puede remitirme a otra parte del libro, o a una nota a fin de capítulo o de libro, a una referencia bibliográfica, a una imagen, tabla o figura, así vamos, no solo de una información a otra, sino también de un tipo de información a otro, en donde siempre podemos parar el proceso y regresar al inicio. Todo ello, no obstante, es muy limitado comparado con la nueva dimensión hipertextual de la lectura. Tampoco el hipertexto es una noción reciente. Vannevar Bush, en 1945, diseñó un sistema llamado Memex, en el que se planteaba la búsqueda de un procedimiento cibernético para complementar la memoria humana. Las características de los computadores de la época tampoco permitían mucho más. La preocupación básica, la de complementar la memoria del hombre, está en la raíz de un invento tan fundamental como es la escritura. Lo característico del hipertexto, sin embargo, es que permite una construcción totalmente personal y diferenciada de cada acceso a la información. El usuario que entra en hipertexto puede desplazarse por la información que el ordenador contiene, por medio de botones que indican dónde empiezan nuevos caminos, a base de posiciones en la pantalla, que amplían la información contenida en esa parte de la imagen o del monitor. Además, la información no tiene por qué ser escrita, ni siquiera gráfica. Puedo estar leyendo un hipertexto sobre Beethoven, tocar con un dedo u oprimir el botón del ratón en una parte de la pantalla donde aparezca, por ejemplo, «Bonn», y ver inmediatamente una imagen de la ciudad renana o incluso un vídeo, con una explicación de la ciudad y su relación con el músico. Al llegar a la catedral puedo «pinchar» en el lugar en el que aparezca algún rasgo típicamente gótico y pasar a un texto o una imagen sobre el gótico, o sobre el gótico alemán, e ir de allí a la reforma protestante, o al barroco bávaro o, pinchando en otro lugar, escuchar la Novena Sinfonía, incluyendo la posibilidad de que una cadena de notas determinada nos permita oír a Mozart y leer cómo cierto problema técnico ha sido tratado de manera similar por ambos músicos. Seguir desde allí el hilo para llegar al Romanticismo y pasar al problema de los nacionalismos y del estudio de los pueblos salvajes o de ahí a la ecología del siglo xx son saltos fáciles. Todo lo anterior es simplemente una caricatura de las posibilidades hipertextuales, un universo autocontenido. La aportación de www a este mecanismo hipertextual abre las puertas de ese universo, en el sentido más amplio. Hasta hace muy poco estábamos limitados por la capacidad de nuestras máquinas para contener la información. Ahora no, ahora podemos unir un ordenador a otro por lazos hipertextuales o hiperenlaces, de manera que cuando quiero saber el horario del BART, el ferrocarril suburbano de la bahía de San Francisco, y estoy en Buenos Aires, no tengo que tener esa información permanentemente almacenada en mi computadora. Me basta con una conexión, un hiperenlace, con la dirección electrónica de San Francisco en donde radica la información sobre el BART. Si luego quiero saber el tiempo que hace en Bangkok, paso por otro hiperenlace a un ordenador tailandés que me informe y luego salto al catálogo de la Biblioteca Nacional de España o de la Biblioteca del Congreso de la Nación, regresando así a Buenos Aires. Necesitamos para ello, además del acceso a www, mediante las oportunas conexiones clienteservidor, una relación de direcciones electrónicas, llamadas URL o Universal Resource Locator, localizadores universales de recursos que funcionan, por decirlo así, como índices que apuntaran a una dirección que funciona de modo similar a los números de teléfono en el ya viejo sistema telefónico, los llamados IP# o números de protocolo de Internet. El sistema permite almacenar esas direcciones y añadir fácilmente las nuevas a las que vamos accediendo, con lo cual cada uno construye su red o telaraña propia. Por ejemplo, si quiero extraer la información y los textos del corpus de referencia de la lengua española contemporánea, que está físicamente en una computadora del Laboratorio de Lingüística Informática en Madrid, puedo entrar directamente al servidor de web con la instrucción: http:www.lllf.uam.es o bien hacer ftp como usuario anónimo a lola.lllf.uam.es, o usar su número IP, 150.244.82. Si uso www, me basta con señalar que deseo un acceso por ftp a una máquina llamada lola situada en un laboratorio de lingüística, lenguas modernas, lógica y filosofia de la ciencia (que es lo que significa lllf), en la Universidad Autónoma de Madrid, España. También puedo señalar que quiero entrar en el subdirectorio pubcorpus, e incluso apuntar al nombre concreto del fichero que me interesa, todo ello con una simple instrucción cuando abro www, algo como: ftp:lola.lllf.uam.espubcorpus www incluye, además, el acceso a otros servicios de la red, como la transferencia de ficheros (ftp, file transfer protocol, que acabamos de ejemplificar) o el sistema de menúes informativos, Gopher, además de la posibilidad propia de dejarnos copiar los ficheros o enviárnoslos por correo electrónico en otros casos. Su carácter total es la razón de su éxito, indudablemente. Esta globalidad se apoya asimismo en un lenguaje estándar, HTML (hypertext markup language) y en un protocolo, HTTP (hypertext transfer protocol). Se trata de un lenguaje de etiquetas o marbetes (itags en inglés), es decir, un lenguaje en el que se escriben todos los códigos especiales en caracteres de la tabla ASCII o código estándar, disponible en la mayor parte de las computadoras. Así, por ejemplo, si queremos indicar que lo que sigue es un título de un libro, escribiremos <title>España en su historia<title>. Si iniciamos un párrafo escribiremos <p>, etc. La interpretación de esa condición de título, por ejemplo tipográficamente, como un cierto tipo de letra, de tal tamaño y con tales rasgos (cursiva, negrita, subrayado, entre otros) se hace mediante una descripción del tipo de documento, una DTD, en la cual definimos todas las características de ese tipo de textos, las etiquetas que vamos a usar para marcarlas y las características de éstas, en relación con todos esos rasgos, HTML se apoya en otro estándar, SGML (Standard Generalised Markup Language). La preocupación por el estándar, como se puede apreciar, es inherente a estos desarrollos. Muchos de estos sistemas son públicos y bastantes de ellos son, además, gratuitos, lo que explica su enorme popularidad en las universidades y centros de investigación, que no suelen caracterizarse, con las envidiables excepciones, por nadar en la abundancia. La penetración de www en todo el mundo ha sido inmediata y puede caracterizarse de explosión. A un crecimiento de un 4439% en 1993 siguió uno de 1.713 en el 94. Los servidores se han multiplicado y no hay día en el que no aparezcan varios de ellos. Las cifras son de tal magnitud que no falta quien desconfía de ellas: una cosa es el número de usuarios posibles y otra el de usuarios reales. Pero que hoy no seamos tantos los que nos conectamos a la red no significa que mañana no seamos arrasados por los actuales estudiantes de Secundaria entre los cuales el atractivo de Internet es asombroso. El mundo hispanohablante, por fortuna, no ha sido ajeno a este fenómeno, que ha permitido también que surgieran empresas de transmisión informativa, diarios en www, un proceso que inició en español El Periódico de Catalunya (cuya URL es http:www.elperiodico.es) y al que han seguido la mayoría de los grandes periódicos de España e Hispanoamérica, embajadas, como la de España en Ottawa (http:www.civeng.carleton.caSiSpain), con un servicio informativo en www (SiSpain) en colaboración con la universidad de Carleton, primero en su género en el mundo. Los precios no son baratos. Sony Corporation creó Sony OnLine (http:www.sony.com) por medio millón de dólares, que es un precio estándar. Claro que, en otros casos, no es preciso tener un lugar exclusivo y se puede compartir. El precio entonces, para un uso mediano, se va a una cifra entre sesenta y ciento veinte mil dólares, que se reducen a cinco mil si solo se quiere un espacio compartido en otro web. Gartner Group calcula veinticinco mil dólares por servidor para archivar información, otro tanto para el software y la mitad más de eso por el software de seguridad. Los sistemas anteriores de acceso a la información no reunían el atractivo que el Web tiene para el público en general, ni tenían tampoco esa facilidad de manejo. Claro que, en Informática, las cosas ocurren siempre muy deprisa y siempre podemos esperar más del mañana. Después de WWW: una realidad no tan virtual La imagen y el sonido dan paso a las tres dimensiones, VRML es un lenguaje de modelado de la realidad virtual: Virtual Reality Modeling Language. Moverse a través de las imágenes captadas en la pantalla será posible gracias a los nuevos hojeadores tridimensionales, nuevos productos, unidos a los lenguajes de programación para ellos, o a los nuevos sistemas gráficos para teleconferencias tridimensionales. Booz Alien & Hamilton ha previsto que un 20% de los gastos familiares, dentro de diez años, se hará electrónicamente. El dinero electrónico es una realidad relativa con los actuales sistemas de tarjetas de crédito, pero será algo muy diferente cuando estas tarjetas funcionen como pequeños cajeros automáticos de dinero electrónico que nos permitirán gastar la cantidad que vayamos acumulando en ellas, directamente, como si fuera dinero contante y sonante. La lista de compañías que están desarrollando sus proyectos de dinero electrónico es bastante grande, incluye a las tradicionales, como Visa, a las grandes corporaciones bancarias, como Citicorp, y también a otras empresas en principio alejadas de esta actividad, como Xerox. El Estado no es el dueño del dinero, es la filosofía que subyace a estos intentos, que harán de los bancos algo radicalmente distinto en muy poco tiempo. El Estado se defiende, como ha hecho el gobierno norteamericano ante el intento de compra de Intuit por Microsoft, que hubiera dado a esta compañía (a cambio de dos mil millones de dólares) setenta millones de usuarios de Windows conectados a un único software financiero. Desde las consultas de inversiones hasta la compra diaria hubieran pasado por este grupo de la multinacional informática, algo que el Departamento de Justicia de los Estados Unidos no dejó que ocurriera. II *Los lectores interesados en problemas más amplios encontrarán más información y bibliografía en nuestros libros: Informática y Humanidades, Gredos, Madrid, 1994, y El comentario filológico con apoyo informático, Síntesis, Madrid, 1995.