La libertad de expresión en Internet: Retos y amenazas

Versión 1.0

(junio 1998)

Javier Villate
jvillate@sarenet.es

El objetivo de este documento es abordar, de la forma más razonada posible, el tema de la libertad de expresión en Internet. A pesar de su extensión, es un documento de trabajo que Fronteras Electrónicas (FrEE) ha presentado ante la Comisión de Estudio de Redes Informáticas del Senado.

Una ya importante experiencia acumulada sobre proyectos y conflictos generados en torno a la censura en la red, creo que nos pone en alguna disposición para extraer algunas conclusiones, sin que ello suponga que se ofrecen respuestas a todos los interrogantes.

Afortunadamente, el Estado español no ha emprendido, hasta la fecha, ningún tipo de legislación restrictiva sobre la cuestión, pero la situación, dado el clima imperante en Europa y a nivel internacional, puede cambiar. En este documento, analizaré brevemente el enfoque adoptado por la Comisión Europea y criticaré algunas de sus posiciones.

Sería deseable que se generara el más amplio debate posible, con la participación de todos los sectores interesados, y con el ánimo de alcanzar algún tipo de consenso sobre algo tan fundamental como es la libertad de expresión en un espacio que, como el cibernético, va a ser parte nuclear de las actividades sociales, culturales, políticas y económicas de las sociedades del próximo milenio.

Introducción

No creo necesario insistir demasiado en el carácter crucial de la libertad de expresión para una sociedad libre y democrática. Pocos principios tienen la importancia y trascendencia que tiene éste. Allí donde la libertad de expresión no está protegida y garantizada podemos decir que no hay democracia y libertad.

La libertad de expresión es un derecho humano y fundamental. Está recogido en las constituciones democráticas y en los principales textos internacionales que afirman la vigencia de los derechos humanos.

Así, en el artículo 20.1 de la Constitución española se reconocen y protegen los derechos:

"a) A expresar y difundir libremente los pensamientos, ideas y opiniones mediante la palabra, el escrito o cualquier otro medio de reproducción.

"b) A la producción y creación literaria, artística, científica y técnica.

"c) A la libertad de cátedra.

"d) A comunicar o recibir libremente información veraz por cualquier medio de difusión. La ley regulará el derecho a la cláusula de conciencia y al secreto profesional en el ejercicio de estas libertades".

Y el artículo 20.2 afirma que "el ejercicio de estos derechos no puede restringirse mediante ningún tipo de censura previa".

Por otra parte, la Declaración Universal de los Derechos Humanos (1948) proclama en su artículo 18:

"Toda persona tiene derecho a la libertad de pensamiento, de conciencia y de religión; este derecho incluye la libertad de cambiar de religión o de creencia, así como la libertad de manifestar su religión o su creencia, individual y colectivamente, tanto en público como en privado, por la enseñanza, la práctica, el culto y la observancia".

Y en el 19:

"Todo individuo tiene derecho a la libertad de opinión y expresión; este derecho incluye el de no ser molestado a causa de sus opiniones, el de investigar y recibir informaciones y opiniones, y el de difundirlas, sin limitación de fronteras, por cualquier medio de expresión".

Asimismo, el artículo 10.1 del Convenio Europeo para la protección de los Derechos Humanos y de las Libertades Fundamentales (1950) dice:

"Toda persona tiene derecho a la libertad de expresión. Este derecho comprende la libertad de opinión y la libertad de recibir o de comunicar informaciones o ideas sin la injerencia de las autoridades públicas y sin consideración de fronteras. El presente artículo no impide que los Estados sometan a las empresas de radiodifusión, de cinematografía o de televisión a un régimen de autorización previa".

Por último, el Pacto Internacional de Derechos Civiles y Políticos (1966), en su artículo 19, dice:

"1. Nadie podrá ser molestado a causa de sus opiniones.

"2. Toda persona tiene derecho a la libertad de expresión; este derecho comprende la libertad de buscar, recibir y difundir informaciones e ideas de toda índole, sin consideración de fronteras, ya sea oralmente, por escrito o en forma impresa o artística, o por cualquier otro procedimiento de su elección".

La libertad de expresión, pues, tiene plena vigencia en el medio cibernético.

Sin embargo, como todo derecho tiene sus limitaciones.

En concreto, la Constitución española, en su artículo 20.4 afirma:

"Estas libertades tienen su límite en el respeto a los derechos reconocidos en este Título, en los preceptos de las Leyes que lo desarrollan y, especialmente, en el derecho al honor, a la intimidad, a la propia imagen y a la protección de la juventud y de la infancia".

Parecidas limitaciones se establecen en el Convenio Europeo para la Protección de los Derechos Humanos y de las Libertades Fundamentales (1950), cuyo artículo 10.2 establece:

"El ejercicio de estas libertades, que entrañan deberes y responsabilidades, podrá ser sometido a ciertas formalidades, condiciones, restricciones o sanciones previstas por la Ley, que constituyan medidas necesarias, en una sociedad democrática, para la seguridad nacional, la integridad territorial o la seguridad pública, la defensa del orden y la prevención del delito, la protección de la salud o de la moral, la protección de la reputación o de los derechos ajenos, para impedir la divulgación de informaciones confidenciales o para garantizar la autoridad y la imparcialidad del poder judicial".

El Pacto Internacional de Derechos Civiles y Políticos (1966) admite también la posibilidad de parecidas restricciones en su artículo 19.2, para "a) Asegurar el respeto a los derechos o reputación de los demás; b) La protección de la seguridad nacional, el orden público o la salud o la moral públicas".

Nada más lejos, pues, de nuestra intención que convertir a la libertad de expresión en un derecho absoluto que no admite ningún tipo de restricción.

Sin embargo, no todos los derechos son iguales y el de la libertad de expresión tiene una prevalencia sobre los demás, y así ha sido reconocido por la jurisprudencia constitucional de nuestro país. Como dice el profesor Lluís de Carreras Serra, "la jurisprudencia constitucional otorga a la libertad de expresión o de información un carácter preferente sobre los demás derechos fundamentales, como son el derecho al honor, la intimidad y la propia imagen" (1).

Por esta razón, la naturaleza de los derechos reconocidos en el artículo 20.1 de la Constitución "obliga a una interpretación restrictiva de los derechos que los limitan" (2), según las propias palabras del Tribunal Constitucional.

De nuevo siguiendo al profesor De Carreras, es muy importante señalar la doble dimensión del derecho de libertad de expresión reconocida por el Tribunal Constitucional español, el cual, en la sentencia 51/89 afirma lo siguiente:

"Las libertades del artículo 20 de la Constitución no sólo son derechos fundamentales de cada persona, sino que también significan el reconocimiento y garantía de la opinión pública libre, elemento indispensable del pluralismo político en un Estado democrático, que por lo mismo trasciende el significado común y propio de los demás derechos fundamentales" (3).

La libertad de expresión, pues, es un derecho subjetivo, inherente a todas las personas por el mero hecho de ser reconocidas iguales en derechos a los demás, y también objetivo, como garantía institucional de un régimen democrático.

Según Lluís de Carreras, la doctrina del Tribunal Constitucional nos permite afirmar que la libertad de expresión se compone de tres elementos básicos, cada uno de los cuales se recoge como derecho fundamental en la Constitución: la libertad ideológica, la libertad y el derecho a recibir información veraz, y la libertad de expresar la propia opinión. "Si faltara uno de estos tres elementos, o no fuera posible su ejercicio, no habría libertad de expresión" (4).

Sentados estos principios, debemos pasar a aplicarlos al nuevo medio que nos ocupa: a Internet.

Y una primera reflexión que acude rápidamente a la mente es que estos principios, no sólo deben aplicarse a la creación y distribución de ideas e informaciones en Internet, sino que, además, tienen un mayor ámbito de vigencia que en los medios tradicionales de comunicación.

Es bien conocida la frase de que "la libertad de prensa es para quien puede comprarla". Efectivamente, la mayoría de nosotros no podemos crear una emisora de radio, un periódico o revista ni una emisora de televisión. Además de los obstáculos derivados, en algunos casos, de la escasez del medio de transmisión (como es el caso de las ondas radioeléctricas en la televisión hertziana), existen obstáculos financieros evidentes.

Además, todos los medios de comunicación tradicionales no permiten sino una escasa intercambiabilidad entre el emisor y el receptor de los mensajes. Generalmente, estos últimos no tienen más remedio que adoptar una actitud pasiva, pues la comunicación fluye en una sola dirección: del emisor al receptor. O, dicho de otra forma, se trata de una comunicación de "uno a muchos".

Internet cambia radicalmente esta situación. Con pocos recursos económicos, cualquiera puede crear su propia publicación en la World Wide Web o jugar un papel emisor activo en los múltiples foros públicos de discusión existentes (grupos de discusión de Usenet y de otras redes, chats, etc.). Además, por suerte, el medio de transmisión no es escaso. Más aún, la comunicación es interactiva, y no sólo técnicamente, sino socialmente: las funciones de emisor y receptor son plenamente intercambiables. Internet hace posible una comunicación de "muchos a muchos".

Estas características novedosas se ven acrecentadas por el carácter descentralizado y global de la red de redes. Las comunicaciones digitales no están limitadas en su alcance geográfico y su estructura organizativa carece de una autoridad central única.

Todos estos rasgos distintivos y únicos de Internet, no obstante, no son algo completamente inherente al medio técnico telemático; son obra humana. No conforman una naturaleza intrínseca e inalterable de las comunicaciones informáticas en red, sino que derivan de un diseño consciente y voluntario -aunque no planificado por una estructura central de mando- de la arquitectura del ciberespacio actual. La tecnología informática y digital hace posible este carácter único y revolucionario de Internet, pero es el quehacer de las personas que han desarrollado la red lo que ha determinado su actual estructura. Esta no es inmutable ni inevitable. De alguna forma, podemos decir que forma parte del secular esfuerzo del ser humano por ampliar la esfera de su autonomía y libertad frente al medio natural y a los poderes e instituciones sociales.

Por eso, Internet permite expandir la vigencia de la libertad de expresión. Pero, por eso también, esta expansión debe ser un esfuerzo consciente y un proyecto promovido desde todas las esferas e instituciones sociales. Y por eso, también, los problemas que enfrentamos en esa tarea son, fundamentalmente, problemas sociales, políticos, culturales y económicos, no tecnológicos.

Por otro lado, de la misma forma que Internet, la estructura social más democrática y participativa que existe en la actualidad, posibilita que el derecho a la libertad de expresión se amplíe y extienda, también permite que se utilice indebidamente para fines espúrios.

Es nuestra responsabilidad buscar cómo compatibilizamos la más amplia libertad de expresión con la contención de las actitudes y negocios que, de una u otra forma, atentan contra la dignidad humana.

En este sentido, es importante tener siempre presente todo lo dicho hasta aquí, y en particular, el carácter especialmente valioso y prevalente del derecho a la libertad de expresión cuando se trata de examinar las constricciones a las que legítimamente puede estar sometido.

Aquí es donde se inserta la reflexión que propone este trabajo. Estamos en un momento crucial para el futuro de Internet. Estamos viviendo un tiempo en el que se están discutiendo y tomando decisiones respecto a la regulación de los contenidos de la red. Desde los Estados Unidos hasta la Unión Europea, pasando por Australia, Canadá y muchos países en vías de desarrollo, se están desarrollando iniciativas legislativas, políticas gubernamentales, proposiciones internacionales y decisiones del sector privado que van a afectar al futuro de Internet. Un vigoroso debate se ha generado en torno a todo ello. Pero, lamentablemente, el mismo no se está desarrollando con la serenidad y la profundidad necesarias. Ante todo, no debemos precipitarnos, mucho menos cuando estamos en presencia de una tecnología en constante cambio y la sociedad aún no ha comprendido la envergadura de los problemas planteados.

Hay actitudes casi instintivas que deben ser sometidas a reflexión. Los gobiernos deben repensar su papel regulador y su compulsión en favor del control de los espacios de libertad de los ciudadanos. Las empresas privadas deben refrenar sus ansias por aprovechar de forma excesivamente egoísta las oportunidades que brinda la comercialización de esta estructura social de comunicación que es Internet. Los individuos deben aprender a ver en la red algo más que un juego exótico, un entretenimiento más, un artefacto para consumo privado o un lugar misterioso y amenazador. Los medios de comunicación deben huir del sensacionalismo facilón que presenta a la red como un mundo poblado de excentridades y de delincuentes, de pornografía y de piratas informáticos, de promesa para el comercio electrónico y para una sociedad aún más consumista y menos comprometida con sus libertades y sus conciudadanos.

Ya va siendo hora de que entremos en materia.

Contenido ilegal y contenido inadecuado para menores


Siempre he tenido la intuición de que eso de que la censura en Internet es imposible era un tópico. Quienes eso pensaban afirmaban que "el medio" lo hacía imposible, pues ofrece múltiples "vías de escape" al control. Si alguien tapona una vía de transmisión, el "medio" buscaría otra. Y puesto que ésa era la realidad, pedían a los gobiernos que se nos dejara en paz, que no intentaran regular lo irregulable. Aquí, en la red, no tenían jurisdicción.

Aunque esta forma de pensar sigue siendo muy popular en Internet, en especial en los Estados Unidos, y ha dado origen, de una forma un tanto confusa, a lo que algunos llaman pensamiento "ciber-libertario", la realidad va poniendo, poco a poco, las cosas en su sitio.

La censura es posible en Internet. No es fácil, pero es posible. La red es regulable. Como toda realidad social. Y, además, es deseable que así sea: los derechos sólo pueden protegerse mediante la ley. La cuestión es: ¿qué tipo de regulación?

Para responder a esta pregunta y para examinar las posibles respuestas hay que establecer, previamente, una clara distinción entre dos tipos de contenidos que circulan por la red. Me refiero a los contenidos ilegales y a los considerados "inadecuados" para los menores o "sólo aptos para adultos".

Esta es una cuestión de extrema importancia que no siempre ha sido comprendida ni asumida. Han proliferado planteamientos que han mezclado ambos tipos de contenidos y sus consecuencias sólo pueden ser desastrosas o desorientadoras. Una buena muestra de ello fue la Ley de Decencia de las Comunicaciones de Estados Unidos, que ilegalizaba la transmisión de contenidos "indecentes" y "patentemente ofensivos" en la Red.

La Comisión Europea ha puesto las cosas en su sitio. En octubre de 1996 aprobó dos documentos de gran importancia: el Libro Verde sobre la Protección de los Menores y la Dignidad Humana en los Servicios Audiovisuales y de Información y la Comunicación sobre Contenido Ilegal y Perjudicial en Internet.

Probablemente, la principal virtud de estos documentos es establecer una clara distinción entre los contenidos ilegales y los considerados perjudiciales para los menores y la consiguiente diferencia en su tratamiento.

Así, el Libro Verde declara que "es importante distinguir dos tipos de problemas relacionados con el contenido" y señala a continuación:

"En primer lugar, el acceso a determinados tipos de material puede ser prohibido para todos, independientemente de la edad de la audiencia potencial o el medio utilizado. Aquí es posible, al margen de las diferencias en las legislaciones nacionales, identificar una categoría general de material que viola la dignidad humana, consistiendo principalmente en pornografía infantil, violencia extrema gratuita e incitación al odio, discriminación y violencia racial o de otro tipo.

"En segundo lugar, el acceso a determinados materiales que pueden afectar al desarrollo físico y mental de los menores está permitido sólo a los adultos. [...] El objetivo está limitado, por lo tanto, a evitar que los menores encuentren, por accidente o por otras razones, materiales que pueden afectar a su desarrollo físico y/o mental.

"Estos temas se confunden a veces por una u otra razón, pero es esencial mantener la distinción entre estas diferentes cuestiones: son objetivos diferentes que plantean problemas diferentes y exigen soluciones diferentes. Claramente, las medidas necesarias para imponer una prohibición total son diferentes de las que se necesitan para restringir el acceso de los menores o para evitar el acceso casual de los adultos".

Esto, que debería ser obvio para todos, es necesario subrayarlo, pues todavía nos encontramos con planteamientos que, por mentalidad inquisitorial o por falta de reflexión, incurren en el error criticado por la Comisión.

Dejaremos de lado, por ahora, las consideraciones que se hace en ambos documentos sobre los contenidos ilegales, recordando que en ellos se constata las diferencias existentes entre las legislaciones de los diferentes países europeos a la hora de considerar o no delictivas ciertas actividades. La afirmación de que existe un amplio grado de acuerdo sobre esta materia no puede ocultar la realidad de que las disparidades existentes son suficientes para que sea urgente una unificación de criterios. Esas actividades ya están identificadas: pornografía infantil, pornografía violenta, incitación al odio y la violencia contra grupos de personas en base a su raza, nacionalidad, color de la piel, sexo o religión, tráfico de seres humanos, terrorismo, todas las formas de fraude, etc.

En cuanto a las formas de combatir la publicación y difusión de contenidos ilegales, la Comunicación señala dos ámbitos de actuación: a) la cooperación judicial y policial internacional, y b) la definición de responsabilidades de las partes que intervienen en la publicación y difusión de los materiales.

Somos de la opinión de que con el contenido ilegal sólo pueden tratar las instituciones jurídicas y policiales, aplicando la legislación penal.

Respecto al contenido considerado inadecuado para los menores, sostendremos que cualquier solución que se adopte debe partir de un principio insoslayable: el principio de la autonomía individual. Sólo el usuario o, en el caso de los menores, los tutores del mismo (padres, maestros) pueden decidir, y deben poder hacerlo libremente, cuáles son los contenidos a los que los menores no deben acceder. Ni el gobierno, ni los tribunales, ni la policía, ni los proveedores de Internet, ni compañías privadas, ni el software, ni organismos especiales ni el sursum corda pueden atribuirse esa facultad que es un derecho individual de la persona. Tratándose de contenidos legales, su adecuación para el desarrollo físico y mental de los menores sólo puede ser enjuiciada desde consideraciones morales. Y hoy ninguna sociedad democrática y abierta puede aceptar que sobre cuestiones morales alguna entidad que no sea el propio individuo puede determinar lo que es bueno para él y/o para quienes están bajo su protección.

Como veremos a lo largo de este documento, es este principio asumido por la tradición liberal y democrática de nuestras sociedades el que va a guiar nuestro examen de las diferentes soluciones propuestas para tratar con el contenido considerado no apto para menores.

Además, otra consideración fundamental, inherente a la naturaleza técnica de Internet, se añade a la anterior. A diferencia de la radio y la televisión, el mensaje en la Red ha de ser activamente buscado por el usuario. Cuando apretamos el botón de la radio o el televisor y seleccionamos una emisora o canal, los mensajes llegan al oyente/telespectador sin que éste pueda hacer nada por evitarlo (salvo, naturalmente, desconectar). En Internet, cuando apretamos el botón (nos conectamos a nuestro proveedor o red local), no sucede absolutamente nada. El usuario tiene pleno control sobre lo que quiere ver, oir o escuchar.

Responsabilizar a los proveedores de acceso a Internet


Además de lo anterior, tenemos que considerar otros dos aspectos característicos de Internet: su naturaleza global y descentralizada. Quienes pretendan ejercer algún tipo de control sobre los contenidos de la Red tendrán que enfrentarse con las consecuencias derivadas de esa doble naturaleza.

Enfrentados con este doble reto, algunos gobiernos, como el alemán y el británico, amén de los de algunos países asiáticos, han intentado enfrentarse con la segunda de las características mencionada responsabilizando a los proveedores de acceso a Internet (PAI) de los contenidos que circulan por sus ordenadores. Ha habido demandas y actuaciones fiscales que han puesto en práctica ese afán. Pero la resistencia ha sido muy fuerte y los intentos no han tenido consistencia. No sólo existen problemas lógicos y legales para responsabilizar a quienes se consideran simples "transportadores" de bits por el contenido de estos últimos. Se aduce que responsabilizar a un PAI por el contenido ilegal de una comunicación que circula por sus ordenadores es tanto como acusar al cartero o a la oficina de correos del carácter delictivo de una carta de un usuario de ese servicio postal.

Yo creo que la comparación no es muy válida, pero se ha utilizado copiosamente. Los PAIs no son sólo como oficinas de correos que almacenan temporalmente la correspondencia para distribuirla en el menor tiempo posible. También son como quioscos, o mejor aún, como tablones públicos de información, es decir, lugares donde se muestran páginas web. Esto se comprende mejor si concebimos Internet no como un único medio de comunicación, sino como un conjunto de medios de comunciación con diferentes características: correo electrónico, grupos de discusión, listas de correo, servidores FTP de archivos, páginas web, canales de chat... Un PAI, efectivamente, es como una oficina de correos que distribuye correo electrónico y mensajes de grupos de discusión, pero es como un tablón de información cuando aloja páginas web.

En el caso del correo electrónico, listas de correo, grupos de discusión y canales de chat, así como páginas web que no residen en sus servidores, co-responsabilizar a los PAIs del contenido de estas comunicaciones está absolutamente fuera de lugar. En este caso, los PAIs, efectivamente, actúan como simples transportadores. Exigirles una co-responsabilidad requeriría que los PAIs supervisaran cada día todos los mensajes, al menos dirigidos a foros públicos, para "tomar medidas" en contra de aquellos que violaran la ley. Esto plantea, por lo menos, tres problemas: a) la capacidad para realizar tal supervisión excede de las posibilidades de los PAIs; b) detener la transmisión de los mensajes supuestamente delictivos es una responsabilidad legal que ninguna entidad privada puede tomar, y c) en última instancia, son los jueces los únicos que pueden dictaminar la naturaleza ilegal de esos contenidos, lo cual implica una actuación 'a posteriori' de la publicación del contenido delictivo. Sólo esta última actuación es aceptable desde el punto de vista de los derechos civiles.

En el caso de las páginas web alojadas en sus propios servidores, la cuestión es más complicada. Aquí parece que, en principio, la supervisión de los PAIs es técnicamente factible y, tal vez, legalmente aceptable. De la misma forma que el director de un periódico puede tomar la decisión de no publicar determinado artículo, un PAI puede decidir no admitir en su servidor determinadas páginas web.

Sin embargo, la comparación tampoco es completamente válida. Un PAI no es un editor, se limita a prestar un servicio. En la empresa periodística, existe una "responsabilidad solidaria" de los autores, directores, editores e impresores (dejo de lado lo absurdo de incluir a estos últimos), derivada del hecho de que la información es un "producto colectivo". No es éste exactamente el caso de la publicación en la Web. Mientras el autor, director y editor comparten la tarea de definir el contenido, el PAI no; se limita, como el impresor y el distribuidor del periódico, a distribuir un contenido en cuya creación no toma parte.

Por eso, mientras la relación contractual entre periodista y empresa editora es de carácter laboral, la relación entre cliente y PAI no lo es. El periodista cobra, el usuario de Internet paga.

De todo lo dicho, cabe suponer que una decisión de un PAI de retirar una página web por razones ideológicas puede vulnerar el derecho del usuario a la libre expresión.

Es probable que tuviera estas consideraciones en mente la Comisión Europea cuando, en el Libro Verde, afirma que:

"La responsabilidad de un usuario que carga material ilícito en la red y la liberación de responsabilidad de los operadores que simplemente lo transportan parecen claramente aceptadas. Pero la cuestión de la responsabilidad de los estadios intermedios (en especial donde se almacena el material, incluso temporalmente, en formato legible) no está claramente establecida. La cuestión es averiguar lo que es técnicamente factible y económicamente viable y observar un equilibrio entre la protección de la libertad de expresión y de la privacidad, por un lado, y la protección de los menores y de la dignidad humana, por otro".

Por su parte, la Comunicación afirma que:

"Los proveedores de acceso y los proveedores de servicios de Internet juegan un papel clave en proporcionar a los usuarios el acceso al contenido de Internet. Sin embargo, no debe olvidarse que la responsabilidad primera del contenido recae en los autores y los proveedores de contenido. Por lo tanto, es esencial identificar con precisión la cadena de responsabilidades con el fin de establecer la responsabilidad del contenido ilegal en aquellos que lo crearon".

Seguiremos adelante con nuestro análisis tras constatar la corrección de este planteamiento general.

La Comunicación sigue diciendo:

"En algunos estados miembros (Austria, Alemania, Francia, Reino Unido), se ha adoptado una legislación o propuesto definir las responsabilidades legales de los proveedores de servicios de forma que éstos sólo son responsables de los contenidos alojados en sus servidores, cuando pueda suponerse razonablemente que son conscientes de que son ilegales prima facie o no han tomado medidas razonables para eliminar tales contenidos una vez que los mismos han atraído su atención.

Algunas normas van más lejos y parecen exigir a los proveedores de acceso que restrinjan el acceso a otros sitios que contengan contenidos ilegales".

La Comisión Europea, pues, tiene que moverse en un terreno donde ya aparecen las primeras discrepancias, pero no adopta al respecto una decisión. Sin embargo, esta es necesaria si queremos clarificar el panorama.

No obstante, la Comunicación critica el bloqueo del acceso en el nivel de los PAIs sobre la base de que estas actuaciones van más allá de la categoría del contenido ilegal y "un régimen restrictivo de ese tipo es inconcebible en Europa, pues interferiría severamente con la libertad del individuo y nuestras tradiciones políticas".

Por supuesto, no estoy diciendo que un PAI no pueda ser obligado por la Justicia a retirar una página cuyo contenido sea ilegal. Esto no está en discusión. Abordaremos, de todas formas, esta cuestión más adelante, cuando hablemos de las "líneas calientes".

De lo que se trata es del bloqueo por parte de los PAIs de contenidos que no son ilegales. Este es el caso, por ejemplo, de Safety Net y SafeNet, de Arizona y California respectivamente. Ambos PAIs utilizan programas de filtrado para bloquear automáticamente el acceso a cualquier web que contenga términos tales como "aborto", "sexo", "condón" y "pecho". Safety Net filtra y bloquea el acceso a áreas de Internet referidas al sexo, la violencia, el ocultismo, las drogas y los grupos racistas. Según Ken Walker, de SafeNet, "nuestros clientes pedían este servicio. No obligamos a nadie. Si usted no quiere un servicio filtrado, no se enfade con nosotros y acuda a otro proveedor" (5).

Pero, aunque algunos PAIs se prestaran al fervor inquisitorial, tal vez para ganar determinado prestigio ante sus potenciales clientes, la naturaleza descentralizada de la Red exigiría, para que tal censura fuera efectiva, un comportamiento idéntico de parte de todos los PAIs del mundo. No parece probable que tal cosa suceda. Y cuando eso no está garantizado, darse a la censura puede suponer perder competitividad. Los PAIs no censores se llevarían los clientes liberales o simplemente molestos con la censura de la competencia.

Sin embargo, en principio, cierto grado de censura ya es posible a ese nivel. Aunque los usuarios puedan burlarla con cierta facilidad, eso sólo le resta efectividad, pero no presencia. Si fuera posible llegar a acuerdos corporativos entre los PAIs sobre esta cuestión (los llamados "códigos de conducta"), la censura podría volverse más efectiva.

¿Decisiones ineficaces?


En ocasiones, algunos gobiernos e instituciones públicas han tomado la decisión de bloquear el acceso de los ciudadanos a determinados contenidos. Estos intentos se han traducido en presiones sobre los PAIs para que bloqueen el acceso a determinadas sedes web, grupos de discusión de Usenet o foros de discusión de otros servicios en línea.

Algunos casos bien conocidos se han producido en Alemania. La fiscalía general del estado de Baviera acusó a Compuserve, en abril de 1997, de distribución de pornografía infantil y transmisión de un juego informático que incluía fotografías de Hitler y símbolos nazis, cuya exposición pública es ilegal en Alemania. En consecuencia, Compuserve cortó el acceso a más de 200 grupos de discusión de Usenet, algunos de los cuales eran sospechosos de transmitir imágenes pornográficas de niños (6).

Debido a la imposibilidad de limitar el acceso de forma local, fueron todos los usuarios de Compuserve en todo el mundo quienes se vieron privados de este acceso. La ley alemana gobernó, pues, el mundo. Es un contrasentido. Posteriormente, Compuserve reanudó el acceso a algunos de los foros censurados.

Sin embargo, esta actuación del gobierno alemán y las presiones crecientes de la Comisión Europea, condujo a que America Online (AOL), temiendo actuaciones similares contra su servicio, aprobara unas nuevas normas de uso que prohiben la transmisión de "cualquier material ilegal, dañino, amenazador, abusivo, provocador, difamatorio, vulgar, obsceno, sedicioso, blasfemo, racista u objetable por cualquier otra razón" (7).

Una vez más, la censura es posible. En esta normativa de AOL nos encontramos con una de las características más persistente en todos los intentos de censura por parte de gobiernos y entidades privadas: la mezcla --ésta sí, abusiva-- de contenidos ilegales y contenidos "objetables" o "dañinos".

Otros intentos censores no tuvieron tanta suerte. De nuevo el gobierno alemán coaccionó a los PAIs de su país para que bloquearan el acceso a la sede web que la revista alemana Radikal tenía en el servidor holandés XS4ALL. Esta revista, de extrema izquierda, es ilegal en Alemania, pero no en Holanda (8).

La aparente imposibilidad o dificultad para bloquear únicamente las páginas de Radikal condujo a los PAIs alemanes a bloquear XS4ALL en su totalidad. Los ciudadanos alemanes no sólo no podían acceder a las páginas de Radikal, sino a las más de seis mil que se alojaban en dicho servidor. Esto supone una clara violación del derecho de los alemanes al libre acceso a la información.

El bloqueo, que se inició en septiembre de 1996 y se reanudó, de nuevo el 11 de abril de 1997, sólo duró una semana. En respuesta a la medida censora, gran cantidad de internautas crearon mirrors o páginas que replicaban exactamente la sede web de Radikal. Esto, unido a la magnífica publicidad gratuita que supuso para Radikal este escándalo, hizo absolutamente ineficaz el bloqueo. Según un portavoz del proveedor académico alemán de Internet, Deutsches Forschungsnetz (DFN), "se ha demostrado que el bloqueo efectivo de información ilegal no está dentro de los límites de lo posible" (9).

Pese a todo, la policía alemana procedió a la detención de una antigua militante del Partido Comunista de Alemania Oriental, Angela Marquardt, acusada de tener, en su página web, un enlace a uno de los mirrors de Radikal. Marquardt fue juzgada y declarada inocente.

Esto último demuestra que, aunque la censura sea difícil por el método del bloqueo directo, puede causar serios perjuicios y atentar gravemente contra los derechos humanos.

Legislación censora


Son varios los países que han aprobado leyes o normas que imponen restricciones a la libre expresión y difusión de información.

El 16 de septiembre de 1996, los estados miembros de la ASEAN (asociación de países del Sudeste Asiático), Brunei, Indonesia, Malasia, Filipinas, Singapur, Tailandia y Vietnam, firmaron un acuerdo para colaborar en la elaboración de leyes que restrinjan la comunicación a través de Internet. La excusa: la preservación de los valores culturales frente a la hegemonía occidental.

Uno de los gobiernos más activos ha sido el de Singapur. Según unas normativas aprobadas en ese país, los PAIs y los proveedores de información deben obtener una autorización previa, tras aceptar cumplir unas rígidas directrices sobre los contenidos políticos, religiosos y morales.

El gobierno de Vietnam, por su parte, aprobó un decreto por el que establece una censura previa de todos los contenidos de Internet procedentes del extranjero. Un sistema de filtrado instalado en una pasarela controlada por el gobierno restrinjirá lo que los vietnamitas puedan obtener procedente del resto del mundo.

El gobierno de Hong Kong y la asociación de proveedores de servicios Internet (HKISPA) han acordado un "código de conducta" que se aplicará a toda la información originada dentro del país. El objetivo declarado del mismo es impedir que los usuarios de Hong Kong pongan en la Red materiales "indecentes" y "obscenos".

La HKISPA agrupa a cuarenta PAIs, que representan en conjunto el 95 por ciento de los usuarios de Internet.

Otros países de otras regiones del mundo están preparando o han instalado ya "cortafuegos" que bloquearán la entrada en el país de informaciones consideradas indeseables por sus gobiernos.

China, siempre más sofisticada en todas sus creaciones, culturales y de otro tipo, entre ellas las censoras, ha establecido una serie de regulaciones que merecen una mención especial.

Todo usuario chino de la Red debe cumplimentar un formulario cuando solicita los servicios de Internet y "nadie puede utilizar las redes informáticas o sus recursos sin conseguir previamente la autorización adecuada" (10). Esto posibilita el control gubernamental de los usuarios y su plena identificación. Además, los PAIs chinos tienen la obligación de "colaborar" con las autoridades en la persecución del delito. Esta colaboración incluye, presumiblemente, proporcionar información sobre los usuarios y sus actividades en línea.

El intento más conocido de establecer una censura "a palo seco" ha sido el de la Ley de Decencia de las Comunicaciones (CDA) de Estados Unidos, que finalmente fue derogada en sus disposiciones sobre contenidos "indecentes" y "patentemente ofensivos". El gobierno de aquel país perdió una importante batalla ante los defensores de la libertad de expresión. Eso fue en junio de 1997.

Sin embargo, la muy interesante sentencia de los jueces de la Corte Suprema, al tiempo que cerraba una puerta, señalaba cuál permanecía abierta. Se reconocía la legitimidad de intentar controlar el acceso de los menores a los contenidos "perjudiciales", pero se señalaba que era prioritario garantizar el libre acceso de los adultos a la información. El primer objetivo no podía sacrificar el segundo. Si fuera posible lograr controlar el acceso de los menores sin menoscabar el derecho de los adultos, no existirían trabas constitucionales.

En sus razonamientos, algunos jueces argumentaban cómo eso se cumple en la distribución de contenidos por los medios tradicionales de comunicación. Los quiosqueros y libreros pueden impedir que los menores accedan a materiales "sólo para adultos" y la televisión puede concentrar esos materiales en franjas horarias en las que sea posible controlar el acceso de los menores por parte de padres y educadores. El problema, entonces, radica en si puede existir algún medio para "zonificar" el ciberespacio, de forma que los contenidos considerados inadecuados para los menores se congreguen en "zonas sólo para adultos". Si esto fuera posible hacerlo en el ciberespacio, podría establecerse controles que impidieran a los menores acceder a determinados materiales sin vulnerar los derechos de libre expresión.

De la CDA a los sistemas de clasificación y filtrado


¿Es esto posible? Sí, lo es. Al menos en cierta medida. Incluso podría llegar a ser algo más fácil que garantizar que los niños no lean revistas porno o vean películas verdes. Es teóricamente más fácil programar un código informático que programar a quiosqueros, amigos, amigos de los amigos, etc.

La solución viene de la mano de la tecnología misma. Para obtener una información más detallada y escrita en un lenguaje claro y comprensible, recomiendo la lectura de un FAQ (archivo sobre preguntas más frecuentes) sobre sistemas de filtrado que encontraréis en castellano en http://www.arnal.es/free/noticias/pub/comunicados/faq-filtros.htm

Cuando se produjo la batalla legal contra la CDA en Estados Unidos, sus oponentes argumentaron que, además de las notables deficiencias de la ley y de su carácter inconstitucional, ésta era innecesaria, pues la tecnología ya estaba proporcionando las herramientas para controlar el acceso a contenidos indeseables. Con el tiempo, todos hemos aprendido que ese argumento no era correcto. Sin embargo, todavía tiene sus partidarios, quienes consideran que ésta es la única forma de evitar una legislación y, por consiguiente, dicen, la no deseada intervención gubernamental. También examinaremos más adelante la incorrección de este argumento.

En los Estados Unidos, el software de filtrado ya se está extendiendo principalmente en bibliotecas y escuelas. La mayoría de los grupos de ciberderechos se oponen a su utilización. Pero su uso está siendo respaldado por la Administración Clinton, la industria de Internet, grupos conservadores y muchos proveedores de acceso a Internet. En el Estado español, la Asociación de Usuarios de Internet (AUI) también recomienda su uso, mientras que Fronteras Electrónicas (FrEE) rechaza este software, en el estado actual de su desarrollo tecnológico.

En esencia, un filtro "es uno o más elementos de software que operan juntos para evitar que el usuario vea material encontrado en Internet" (11). Este proceso tiene dos componentes: la clasificación y el filtrado, y puede ser implementado por dos métodos diferentes: los sistemas de clasificación PICS y el software de filtrado. En principio, todos estos sistemas y programas son de aplicación exclusiva a la Web.


Sistemas de clasificación PICS

PICS (Plataforma para la Selección de Contenido en Internet) es un sistema de clasificación y etiquetado del contenido desarrollado por el Consorcio World Wide Web, organismo encargado de establecer los estándares de la Web. "Un sistema de clasificación es una serie de categorías y niveles dentro de aquellas, las cuales pueden utilizarse para clasificar contenidos" (12).

En esencia, PICS funciona mediante la inserción de etiquetas electrónicas en los documentos web, textuales o icónicos, las cuales no son visibles por el lector. Estas etiquetas expresan, o pretenden expresar, el contenido del documento en cuestión. Por ejemplo, puede ser clasificado como "contenido sexual", "violencia", "racismo", etc., y subcategorías como "diálogos sugerentes", "actividad sexual explícita", "sexo con desnudos integrales", etc.

Para que PICS funcione se requieren dos elementos: los sistemas de clasificación y el software de filtrado del contenido, que deberá interpretar las especificaciones PICS.

En la actualidad, hay tres sistemas de clasificación PICS.

  1. RSACi (Recreational Software Advisory Council on the Internet). Es el más extendido y clasifica los materiales en función del grado de sexo, violencia, desnudos y lenguaje soez. En septiembre de 1997, RSACi afirmaba haber clasificado unos 43.000 sitios de Internet.
  2. SafeSurf. Este sistema incluye categorías como edad, palabrotas, temas heterosexuales, temas homosexuales, desnudos, violencia, sexo-violencia-y-palabrotas, intolerancia, apología del uso de drogas, otros temas para adultos y juego, con nueve subcategorías para cada una de ellas.
  3. Net Shepherd. Clasifica los sitios en base a criterios de madurez (general, niños, adolescentes, jóvenes, adultos y objetable) y niveles de calidad (de una a cinco estrellas). Net Shepherd afirma haber clasificado unos 300.000 sitios.

SafeSurf y RSACi requieren que los creadores de páginas web autoclasifiquen sus contenidos, mientras que Net Shepherd encarga la clasificación de los sitios a terceras partes.

En el primer caso, el proveedor de contenido (el usuario que crea una página web o la agencia de noticias, etc.) debe autoclasificar su sitio. Pero, en realidad, no puede hacerlo de cualquier forma, pues deberá seguir las especificaciones de RSACi o SafeSurf. El usuario carece de la debida autonomía para decidir cómo etiquetar sus documentos.

En teoría, cualquier persona o grupo puede crear su propio sistema de clasificación. Así, grupos educativos, religiosos, sociales e, incluso, individuos, pueden crear un servicio de clasificación de páginas web y ofrecerlo para que los usuarios lo utilicen en el momento de filtrar los contenidos.

Sin embargo, no tiene mucho sentido que alguien clasifique sus contenidos tomando como base un sistema poco extendido, pues esa clasificación no podrá ser interpretada por el software de filtrado que se comercializa. De hecho, los navegadores web, como Internet Explorer de Microsoft, utilizan alguno de los sistemas de clasificación más implantados; en este caso RSACi. Por su parte, Netscape acaba de anunciar que va a incluir PICS en su navegador.

Esta es la razón por la que algunos defensores de los sistemas de filtrado argumentan que está garantizada la libertad de expresión tanto de proveedores de contenido como de los usuarios de filtros. El pluralismo de valores, dicen, está garantizado. Pero, ¿es así realmente? La respuesta es no. Para comprobarlo, tenemos que dar otro rodeo. Siento realmente que estos asuntos de la tecnología sean tan arduos...

En teoría, cualquiera, como he dicho, puede crear un sistema de clasificación, de forma que pudiéramos pensar que, por ejemplo, tanto la Asociación Pro Vida como una organización feminista pudieran crear sus propios sistemas de clasificación, o lo hiciera una coordinadora de gays y lesbianas y una asociación pro defensa de la familia, etc.

Los usuarios podrían utilizar las clasificaciones que se correspondieran con sus valores.

Sin embargo, no es tan fácil crear un sistema de clasificación que sea realmente operativo, útil y se difunda masivamente. Se necesitan abundantes recursos monetarios y humanos para que un sistema así sea algo más que una simple chapuza. Consideremos solamente un aspecto: para clasificar tan sólo una parte significativa de los millones de páginas web que existen en la red hacen falta una gran cantidad de empleados dedicados durante su jornada laboral completa a clasificar ese inmenso océano de documentos que es la Web. Y, además, esas clasificaciones deben actualizarse constantemente, pues es normal que las páginas clasificadas cambien sus contenidos. Y, además, hay que seguir clasificando las 10.000 páginas web nuevas que aparecen cada día. Y, además... hay que hacerlo bien.

Todo hace indicar que las ONGs y demás grupos de voluntarios sin ánimo de lucro carecerán de los recursos necesarios para desarrollar sus sistemas de clasificación.

El escenario más probable, por razones económico-comerciales y de otro orden (como el hecho de que los navegadores pueden predeterminar, en buena medida, el sistema de clasificación a utilizar), es que predominen unos pocos sistemas de clasificación. Más aún: el navegador de Microsoft Internet Explorer incorpora la posibilidad de utilizar RSACi, lo cual predeterminará, seguramente, la opción de sus usuarios.

El pluralismo, pues, está lejos de estar garantizado y esto plantea serios problemas a la libertad de expresión, al libre acceso a la información y a la autonomía del usuario para actuar según su propio sistema de valores.

Otro problema de los sistemas de clasificación que se acaba de apuntar. Si estos sistemas no clasifican toda la Web, su eficiencia será muy relativa. Pues bien, todos los sistemas conocidos sólo clasifican una mínima porción de los documentos de la Web. Los 43.000 sitios clasificados por RSACi o los 300.000 de Net Shepherd no representan más que una ínfima parte de la Web, que contiene, según las últimas estimaciones, más de 200 millones de documentos.

Se puede, entonces, pensar que quienes esperen estar "seguros" con la utilización de estos sistemas se verán constantemente defraudados.

Pero hay más. Proveedores de contenido pueden intentar burlar las clasificaciones y etiquetar sus páginas de forma engañosa. Esta es una de las razones por las que los sistemas de clasificación no evitan la necesidad de una legislación, como veremos más adelante.

Y otro problema más. Algunos programas, como el Internet Explorer de Microsoft, pueden ser configurados para bloquear cualquier sitio que no esté clasificado. En este caso, la Web, esa gran biblioteca mundial de documentación y cultura, quedará reducida a un mundo insulso, pequeño y manipulado.

SafeSurf, además de su sistema de clasificación, ofreció el Internet Filtering Solution, entre octubre de 1996 y finales de 1997. A diferencia de los sistemas de clasificación, este programa se implementó a través de un servidor proxy que bloqueaba páginas web en base a las clasificaciones que SafeSurf había asignado él mismo a las páginas.

Según Peacefire, una organización crítica de los sistemas de filtrado, con ese método SafeSurf bloqueó, entre otras, la página sobre libertad de expresión del Electronic Privacy Information Center (EPIC). EPIC es una de las más importantes organizaciones norteamericanas consagradas a la defensa de la privacidad de las personas en la Red. Otras páginas y sitios bloqueados fueron: el archivo sobre Censura y Regulación de Internet de la Electronic Frontier Foundation (EFF), una organización dedicada a la defensa de los derechos civiles en Internet mundialmente conocida; la página de enlaces sobre Libertad de Expresión de la Asociación Americana de Comunicación; el texto completo de la sentencia del Tribunal del Distrito Oriental de Pennsylvania por la que declaró inconstitucional la Ley de Decencia de las Comunicaciones; un documento de las Naciones Unidas sobre el SIDA (HIV/AIDS: The Global Epidemic); el sitio web de la American Civil Liberties Union de Wisconsin (13); la Coalición Nacional Contra la Censura (14); proveedores de Internet como Echo Communications y NeoSoft, así como el texto de La Odisea y La Ilíada.

Demasiados errores.


Software de filtrado autónomo

Otro método para bloquear el acceso a contenidos de la Web es el software de filtrado autónomo. Es decir, la utilización de un programa informático autosuficiente que no requiere de la utilización de sistemas de clasificación independientes. Este sistema presenta todavía más problemas que los sistemas de clasificación basados en PICS.

Con el software de filtrado autónomo, los padres, por ejemplo, pueden controlar que sus hijos sólo se conecten a la Red a determinadas horas y accedan a determinados contenidos, todo ello protegido mediante contraseña. Por supuesto, esto dará resultado si los padres saben, por lo menos, tanto o más que sus hijos sobre el programa en cuestión o bien ejercen una vigilancia estrecha de las actividades de sus retoños. Tengo la sospecha de que ambas cosas no se dan con demasiada frecuencia.

Este tipo de software de filtrado bloquea los contenidos de la Web utilizando diferentes sistemas. Los podemos reducir a dos: mediante listas de sitios considerados inaceptables o mediante búsquedas de palabras clave.

En el primer caso, el vendedor del programa de filtrado incluye una lista de sitios que será bloqueados por el mismo. Evidentemente, esta lista es elaborada por el vendedor mismo según sus propios criterios. Aquí se nos presenta el primer problema. ¿Qué sucede si el comprador no está conforme con la lista de sitios bloqueados? Lo mejor que puede hacer es no comprar el producto, por supuesto. Pero esto sería posible si el potencial comprador tiene conocimiento de los sitios que componen esa lista negra. ¿Es posible tal cosa? Generalmente, no.

La mayor parte del software de filtrado que utiliza listas negras cifran las mismas, pues las consideran "secreto comercial". Los usuarios de estos programas no tienen forma de saber qué sitios va a bloquear su flamante software. Una situación realmente absurda.

Hay quienes piensan que, con el tiempo, es muy posible que los fabricantes de este censorware (como ya se le llama a este software de censura) vayan corrigiendo, en alguna medida, esta característica, que ha sido objeto de innumerables críticas. Pero no somos muy optimistas al respecto mientras este software de filtrado se desarrolle bajo criterios comerciales: es normal, en esas condiciones, que los propietarios del software no quieran revelar su lista negra, pues hacerlo les colocaría en desventaja con la competencia.

Estas listas son, inevitablemente, incompletas. No hay posibilidad de revisar todos los documentos de la Web y mantener actualizada una lista realmente comprehensiva. Por fuerza, toda lista está destinada a quedar obsoleta al día siguiente de ser confeccionada.

Mientras las listas de sitios bloqueados permanezcan ocultas o imposibles de modificar por parte del usuario, la autonomía de éste será seriamente erosionada.

Esto adquiere especial gravedad cuando, como se ha comprobado reiteradamente, estos programas bloquean sitios completamente inocuos o que tan sólo responden a los juicios de valor del fabricante del software. Un caso bien conocido es el de Cyber Patrol, el programa de filtrado más conocido y extendido. Está presentando en el mercado versiones adaptadas a diferentes idiomas y se espera, en breve, la versión en castellano. Varias compañías de telecomunicaciones ofrecen a sus clientes este programa. En Estados Unidos, America Online, Compuserve, Prodigy, AT&T, Ameritech y docenas de PAIs ofrecen Cyber Patrol.

Según dice The Learning Company, propietaria de Cyber Patrol, ya han examinado más de cinco millones de páginas web y su lista negra, llamada CyberNOT, incluye más de 50.000 sitios considerados inadecuados debido a la presencia en las mismas de desnudos, violencia, contenidos racistas, gráficos e imágenes impactantes, y material que promueve el uso inadecuado de las drogas y el alcohol (15). Además de la lista CyberNOT, el programa incluye también una lista CyberYES, con sitios que considera recomendables para los más jóvenes. Ambas listas son actualizadas semanalmente, según declara el propio producto; una afirmación que, como veremos más adelante, cabe poner en cuestión.

Los padres pueden añadir a la lista CyberNOT sitios cuyo acceso quieren bloquear.

Tratándose de una compañía comercial que se encuentra en fuerte competencia con otras que se disputan un supuestamente prometedor mercado, la prudencia aconseja desconfiar de las bondades autoproclamadas y las cifras publicitadas.

De hecho, Cyber Patrol tiene otra cara menos generosa. El 17 de febrero pasado, el Proyecto Censorware (16) publicó un informe, titulado Cyber Patrol y Deja News: Producto de censorware bloquea un importante motor de búsqueda (17).

Deja News es el principal motor de búsqueda en el proceloso océano de los grupos de discusión de Usenet y, por ello, una herramienta casi imprescindible para buscar información en este área de Internet. Según el informe, Cyber Patrol ha bloqueado Deja News y Susan Getgood, directora de márketing de Cyber Patrol, ha asegurado que el software seguirá bloqueando Deja News mientras siga habiendo en los grupos de discusión de Usenet mensajes con contenidos obscenos e inadecuados para los menores.

Esta sorprendente decisión elimina, de un plumazo, las decenas de miles de grupos de discusión de Usenet. Los más jóvenes que accedan a la Red con Cyber Patrol de por medio se verán privados de ese inmenso y fantástico repositorio de información, debates y cultura que es Usenet.

Y ello pese a que Deja News ha separado los grupos de discusión de Usenet con contenidos "para adultos" en su esquema de búsqueda, incluyendo esta opción en su menú de selección.

Según el informe, "bloquear Deja News en las bibliotecas es como bloquear la Enciclopedia Británica porque algunos de sus artículos tratan de temas sexuales".

Este no ha sido un caso aislado. Cyber Patrol ha bloqueado, por ejemplo, el acceso a las 1,4 millones de páginas web de members.tripod.com debido a unas pocas páginas concretas. También bloqueó el "barrio" West Hollywood, de Geocities, dedicado a los gays: de entre las más de 23.400 páginas web de West Hollywood había algunas con imágenes obscenas. La popular librería de Estados Unidos Booksmith fue bloqueada cuando ésta incluyó el libro de Linda Jaivin, Eat Me (Cómeme), de carácter erótico, lo cual fue reconocido por Cyber Patrol como un "error técnico".

Según Peacefire, Cyber Patrol bloqueó durante varios meses el sitio web de la Electronic Frontier Foundation. Otros sitios que han sido bloqueados por Cyber Patrol son: la Asociación Estudiantil para la Libertad de Expresión del prestigioso Instituto Tecnológico de Massachussetts, Planned Parenthood, Nizkor (18), el Centro para la Tolerancia Religiosa de Ontario, Envirolink (19), Autoridad SIDA, un sitio de America Online dedicado a los dulces (Why America Online Sucks), el Centro de Información del SIDA del Boletín de la Asociación Médica Americana, la conocida revista electrónica Mother Jones, la Coalición para la Libertad de Expresión de Boston, el Boletín Judío (20) y tantos otros más, entre los que se incluyen los grupos de discusión alt.atheism --dedicado a debates sobre ateísmo-- y soc.feminism --dedicado a debates sobre feminismo.

Jonathan Wallace, autor del libro Sex, Laws and Cyberspace (Henry Holt, 1996) y editor de The Ethical Spectacle, que sufrió en sus carnes el bloqueo de Cyber Patrol, ha informado de otros sitios bloqueados por este software. Como la Fundación Segunda Enmienda, en cuyas páginas web se incluye gran cantidad de recursos sobre el derecho a llevar armas, mientras que no bloquea a la Asociación Nacional del Rifle --un conocido grupo de presión conservador-- ni otros muchos sitios dedicados a este tema.

Wallace llama la atención por el hecho de que en la lista CyberNOT aparezcan sitios que han desaparecido de la WWW hace tiempo, como Newtwatch (21) o la página del Dr. Bonzo (22). El bloqueo de estas dos páginas pone en entredicho la proclamada actualización semanal de la lista CyberNOT de Cyber Patrol.

Parece, pues, demostrado que Cyber Patrol no bloquea solamente páginas con contenidos indecentes, sino también aquellas cuya ideología o contenido crítico no son del gusto de The Learning Company, amén de que comete constantes errores y no actualiza debidamente su lista negra.

Más aún, podemos poner en tela de juicio, también, la profesionalidad y honestidad de los procedimientos de bloqueo de Cyber Patrol.

Si suponemos que hacen falta cinco minutos para determinar si una página web es "adecuada" según los criterios utilizados por Cyber Patrol, para analizar todas las páginas web de West Hollywood serían necesarias 1.950 horas; es decir, aproximadamente el trabajo de un solo empleado durante un año. Parece poco probable que Cyber Patrol se hubiera tomado todo ese trabajo antes de decidir bloquear West Hollywood.

Según el informe de Proyecto Censorware, Cyber Patrol ha bloqueado ya más de 5.000 páginas completamente inocuas.

Otros programas que utilizan listas de bloqueo no son mejores que Cyber Patrol. Así, X-Stop bloquea las sedes web de la Sociedad de Amigos Cuáqueros, la Asociación Americana de Mujeres Universitarias, la Fundación Heritage o el Departamento de Biología de la Universidad de Yale. Sinceramente, sería tedioso seguir con esta colección de despropósitos.

Otro sistema empleado por este tipo de software para bloquear el acceso a sitios "inadecuados" es mediante la utilización de palabras clave. Si el sistema de listas de sitios tiene los defectos que hemos señalado, este otro es mucho peor.

Con este sistema, todas las páginas que contengan determinadas palabras serán bloqueadas. Salta la vista las imprecisiones y los errores inherentes al mismo, derivados de la falta de examen del contexto en que aparecen las palabras y de la no inclusión de gráficos.

Una búsqueda podría encontrar la palabra "pecho" (breast, en inglés) en una página web, pero no podría determinar si se trata de una historia sexual, de un cuento obsceno, de material educativo, de información sobre el cáncer de mama, del pecho del hombre o de la mujer, ni si todo esto se lo toman realmente "a pecho".

En un caso que resultó notorio, las búsquedas de America Online bloquearon la sede web de un grupo de apoyo para enfermas de cáncer de mama. Y lo mismo le sucedió a la MSNBC, una compañía de noticias de televisión e Internet propiedad de Microsoft, cuando publicó un artículo sobre esta enfermedad.

Las historias sobre bloqueos que siguen este sistema es interminable y realmente divertida si no fuera por el carácter realmente dañino que el uso de este tipo de software conlleva.

Un equipo de fútbol europeo fue bloqueado porque en su página se afirmaba que estaba compuesto por "chicos de 12 años y menos". Los bloqueadores buscaban actividades pedófilas.

La Academia Nacional de Bioquímica de Estados Unidos y hasta el mismísimo Instituto Tecnológico de Massachussets (MIT) también han caído bajo la férula inquisitorial dentro de la categoría de... "actos sexuales con desnudo integral". Sin comentarios.

De vez en cuando aflora la honestidad o, sencillamente, el fácil reconocimiento de la realidad. Michael Sears, gerente de Surfwatch, un programa de filtrado, admite que "no hay forma de bloquear todos los sitios nocivos" y que, además, los errores son inevitables (23).

El Electronic Privacy Information Center publicó el 1 de diciembre de 1997 un informe llamado Filtros defectuosos (Faulty Filters). Un equipo de investigadores de EPIC comparó los resultados de una serie de búsquedas realizadas mediante el software de filtrado Family Search, de Net Shepherd, y el motor de búsqueda AltaVista. EPIC buscó información sobre 25 escuelas, 25 organizaciones humanitarias y políticas, 25 grupos artísticos y culturales y 25 temas educativos, tales como la historia y la astronomía de Estados Unidos. El software de filtrado bloqueó el acceso al 90 por ciento de los sitios ofrecidos por AltaVista.

La mayoría de estos sitios eran completamente inocuos. Baste un ejemplo. En una búsqueda sobre la National Basketball Association (Asociación Nacional de Baloncesto) --la popular NBA--, Family Search tan sólo ofreció dos documentos frente a los 18.018 de AltaVista.

Más allá de los "errores técnicos" inherentes a este software, sedes de grupos feministas, de gays y lesbianas están entre los primeros candidatos a caer en las garras inquisitoriales. La Alianza de Gays y Lesbianas Contra la Difamación (GLAAD) publicó el 2 de diciembre de 1997 un exhaustivo informe sobre el software de filtrado y los sistemas de clasificación: Acceso denegado. El impacto del software de filtrado de Internet en la comunidad gay y lesbiana (24).

En el informe se da cuenta de cómo el programa CYBERsitter bloquea todos los materiales de contenido gay, hasta el punto de bloquear a la Comisión Internacional de Derechos Humanos, la Organización Nacional de Mujeres y numerosos sitios sobre sexo seguro y de naturaleza política.

Acceso denegado concluye diciendo: "La mayor parte del software actualmente en el mercado, así como los nuevos productos en desarrollo, definen a los webs orientados a la comunidad lesbiana, gay, bisexual y transgresora en las mismas cateogorías que los webs dedicados al sexo. Los desarrolladores del software no pueden o no quieren considerar que la información sobre la orientación y la identidad sexual no tiene nada que ver con la conducta sexual y sí con la cultura y la identidad".

Y, tras ellos, van las páginas informativas sobre el SIDA, el aborto, la drogadicción, el extremismo político, los grupos "políticamente incorrectos", páginas nazis y racistas o, sencillamente, sedes web "molestas" por ejercer la crítica contra el software de filtrado.

Toda esta panoplia inquisitorial que afirma interesarse por la seguridad y la salud de los menores, utilizada cada vez con mayor profusión en escuelas, bibliotecas, centros cívicos, empresas, centros de trabajo, hogares, en los mismos navegadores, etc., configura un panorama realmente aterrador. "Errores técnicos", ineficiencia, incapacidad, utilización de criterios morales privados y caprichosos, todo ello mezclado con los intereses comerciales en una esfera de gran competencia y la ignorancia de los usuarios apabullados ante la sofisticación tecnológica y las campañas sensacionalistas sobre la pornografía y la delincuencia en la Red, dan como resultado una situación realmente crítica sobre la libertad de expresión y el libre acceso a la información en Internet.

Hay que desterrar la precipitación, la frivolidad y los espúreos intereses comerciales en un asunto de tanta delicadeza y trascendencia como éste. Hace falta una mayor responsabilidad, más investigación tecnológica y más transparencia, pero, sobre todo, un debate sereno sobre cómo padres y tutores, y demás responsables de centros públicos, pueden ejercer sus derechos y su responsabilidad de forma libre y autónoma. El estado actual de la tecnología de filtrado y los intereses comerciales sin freno no permiten encontrar una mejor solución que la supervisión clásica. Los menores necesitan en su navegación por Internet el mismo cuidado y atención que necesitan en su andadura por la vida.

¿Eliminan los sistemas de filtrado el peligro de una legislación gubernamental?


Ya hemos comentado en varias ocasiones que uno de los argumentos favoritos de los defensores de los sistemas de clasificación y filtrado es que, de esta forma, se hace innecesaria una legislación que, afirman, sería, con toda seguridad, más restrictiva.

Dicen que es preferible que sean los propios usuarios quienes controlen el acceso de los menores a los materiales indecentes e indeseables.

Es un buen argumento. Sobre todo si fuera verdad que son los propios usuarios quienes ejercen realmente ese control. Ya hemos visto que no es así.

Pero tampoco es verdad que esta llamada "autorregulación" elimine el riesgo de una legislación censora.

En Fahrenheit 451.2: Is Cyberspace Burning? --un importante documento publicado por la American Civil Liberties Union (ACLU)-- se define el escenario que emergería de la aplicación y desarrollo de la "autorregulación":

"En primer lugar, el uso de PICS se hace universal, proporcionando un método uniforme para clasificar los contenidos.

Después, uno o dos sistemas de clasificación dominarán el mercado y se convertirán en el estándar, de facto, de Internet.

PICS y los sistemas de clasificación dominantes se incorporan en el software de Internet activados por defecto.

El contenido de Internet no clasificado es efectivamente bloqueado gracias esas configuraciones por defecto.

Los motores de búsqueda no informan de la existencia de sitios no clasificados o clasificados 'incorrectamente'.

Los gobiernos, tras comprobar que persiste la 'indecencia' en Internet, legislan para imponer obligatoriamente la autoclasificación y penalizar la clasificación incorrecta".

No es una especulación.

El pasado 12 de marzo, el Comité de Comercio del Senado de Estados Unidos aprobó sendos proyectos de ley para censurar la Red. Uno de ellos, la Ley de Filtrado de Internet en las Escuelas, exige a las bibliotecas y escuelas del país el uso de sistemas de filtrado si quieren seguir recibiendo las subvenciones del programa de Servicio Universal para conexiones a Internet.

La otra insiste, tras la senda de la CDA, en prohibir a las sedes webs comerciales permitir el acceso de los menores a aquellos materiales que sean "sólo para adultos".

Asimismo, existe otro proyecto de ley que pretende imponer penas civiles y criminales a quienes clasifiquen de forma incorrecta sus páginas web. La compañía fabricante del programa de filtrado Safe Surf ha propuesto una legislación similar.

Parece, pues, que la "autorregulación" no es un obstáculo para que se siga sintiendo la larga mano de la censura gubernamental, aunque sea de esta forma indirecta.

Por otro lado, gobiernos totalitarios y autoritarios, como los de Qatar y Omán, ya están estudiando cómo utilizar PICS para imponer un sistema eficaz de censura que ponga a sus países a salvo de la "contaminación occidental". Efectivamente, PICS ofrece a regímenes dictatoriales y conservadores la opción de filtrar todo lo que entre en las redes de sus países a través de servidores proxy.

La situación en Europa

(en preparación)

Explorar otras alternativas

(en preparación)


URL del documento: www.arnal.es/free/docs/censura-f.html
Ultima actualización: 29 junio 1998


© 1998 Fronteras Electronicas. Autorizada la reproducción de la totalidad o parte de esta publicación por cualquier medio siempre que se cite su procedencia y URL. En este caso, rogamos notificación previa al editor.