La primera impresión cuando se escucha la idea de “regulación de contenidos” lleva a pensar en un recorte de la libertad de expresión. Mas aún tratándose Internet de un medio que, dada su naturaleza, ha sido un espacio difícil de controlar. Un espacio donde la libre expresión está protegida, como señala Lawrence Lessig, por la propia arquitectura de la red.
A pesar de esta dificultad, los contenidos de la red pueden ser sujetos a regulación. El propio Lessig considera entre los mecanismos de regulación a la publicación, el acceso y la distribución.
La primera está referida a que el contenido obtiene credibilidad en función de la publicación, es decir, el soporte institucional que lo aloja.
La segunda se refiere a la posibilidad de excluir y hacer que solo algunas personas puedan visualizar un contenido específico.
Y finalmente, la tercera se refiere al acceso a los canales de distribución de dicho contenido.
Queda claro que las razones para regular contenido dependen del contexto cultural dentro del cual se da la regulación: lo que es considerado una expresión artística en un lugar, puede ser considerado como ilícito (incluso maligno) en otro contexto socio-cultural.
En este sentido una regulación que busque proteger a un grupo humano eliminando cierto tipo de contenido podría, en el extremo, estar decretando la desaparición de una expresión cultural determinada. A pesar de este riesgo -o quizás porque existe- la regulación de contenidos se hace necesaria para proteger a grupos humanos considerados vulnerables (por ejemplo, mujeres, niños, niñas y jóvenes) o para evitar agresiones a grupos minoritarios y excluídos.
El problema ahora es ¿cómo hacerlo? Existen diversos niveles de prohibición aplicable al contenido ilícito.
La prohibición de creación de contenido se aplica por ejemplo al contenido racista o a la apología del terrorismo pero existe otro tipo de contenido, tal como la pornografía infantil, donde no sólo la creación está prohibida sino también su uso.
Finalmente, hay otro tipo de contenido cuya distribución indiscriminada está prohibida, mas no su creación ni su uso. Es este último grupo de contenido el que alberga el problema más grande (desde el punto de vista de la regulación) dado que constituye aquello que es suficientemente dañino como para controlarlo pero no para prohibirlo: es un área gris en la amplia frontera entre la libertad de expresión y la propagación de contenido dañino o peligroso.
Aquí encontraremos contenido sutilmente racista o xenófobo, contenido que expresa violencia contra la mujer, los niños y niñas y los adultos mayores, entre otros. En éste ámbito la intervención del Estado para regular no ha demostrado ser eficaz, ni mucho menos eficiente.
En Perú, la Ley 28119 (1) prohíbe el acceso de los niños a material pornográfico en Internet. Para ello se obliga a los propietarios de las cabinas públicas de acceso a Internet (cybercentros) a que instalen “software especial de filtro y bloqueo” o a implementar “cualquier otro medio que tenga como efecto impedir la visualización de las citadas páginas.” La ley otorga a los municipios la obligación de supervisar su cumplimiento, lo cual ha originado un conjunto de ordenanzas municipales que establecen antojadizas restricciones para el acceso en términos de espacio (grupo de computadoras exclusivas para menores) y tiempo (horarios restringidos) como si éstas garantizaran efectivamente el objetivo. Por otra parte, la ley descuida el punto relativo a la protección de los niños y las niñas en sus propias casas (o en las de sus amistades) donde dicha prohibición resulta insuficiente ya que el hogar constituye un espacio del ámbito privado. Este límite obliga a la regulación a salir a la búsqueda de otros instrumentos. De hecho este es el mismo límite que impulsó la necesidad de regular los contenidos de los medios masivos de comunicación como la radio y la TV, por ser considerados como “intrusos” en los espacios privados.
Por ello valdría la pena observar cómo ha evolucionado la regulación de contenidos difundidos a través de la televisión, que inicialmente estaban sometidas a comités de censura y que, en la actualidad y en un importante grupo de casos, cuentan con esquemas de auto-regulación, etiquetado y filtrado de contenidos.
En Perú, la Asociación Nacional de Anunciantes y el Consejo de la Prensa Peruana han establecido consejos de autorregulación, persiguiendo el cumplimiento de principios tales como legalidad, decencia, veracidad y lealtad, garantizando el derecho de réplica.
Desde el lado de los consumidores y las consumidoras, varias organizaciones de la sociedad civil vienen impulsando la entrega de premios a quienes producen contenido no discriminatorio: tal es el caso de Flora Tristán que promueve el Premio Anual Fem-TV (2) destinado a “la publicidad que mejor exprese el avance de las mujeres en la sociedad y promueva relaciones más equitativas entre hombres y mujeres”.
Por otro lado, también son exponentes de esta tendencia el antipremio Sapo-TV, dedicado a la publicidad más machista y sexista” y el premio a la “Cabina más segura” (3), iniciativa impulsada por la organización social Acción por los Niños en el 2006.
Para el caso de la televisión, la ley 29.278 establece que la programación debe ser clasificada por el emisor, de forma tal que puedan o no ser transmitidos dentro del horario de protección al menor. Sería posible pensar que los componentes de una regulación efectiva de contenidos en Internet pasa fundamentalmente por la clasificación o etiquetado de los contenidos y las fuentes de los mismos, de forma tal que sean los propios consumidores y las consumidoras quienes compartan su opinión sobre los contenidos, al tiempo que establecen sus propios perfiles de consumo.
Iniciativas tales como la Internet Watch Foundation (4) facilitan que los consumidores y consumidoras denuncien sitios con contenido ilegal y que dichos sitios sean filtrados por los proveedores de acceso a Internet usando servicios tales como Cleanfeed, muy utilizado en el Reino Unido y Canadá.
No se debe cerrar esta reflexión sin ver en el desarrollo de capacidades humanas la otra cara de la misma moneda, ya que la población se vuelve más vulnerable a contenidos agresivos precisamente cuando cuenta con menores capacidades y herramientas para defender sus derechos. De allí la responsabilidad de impulsar programas de alfabetización digital e informacional que le cabe a los Estados, no sólo pensando en el uso que se hace de las tecnologías de información y comunicación sino en que dicho uso sea, además, productivo y beneficioso -o al menos no perjudicial- para la población.
- 5541 views
Add new comment