Ciudades para un Futuro más Sostenible
Búsqueda | Buenas Prácticas | Documentos | Boletín CF+S | Novedades | Convocatorias | Sobre la Biblioteca | Buzón/Mailbox
 
Boletín CF+S > 46: El «nuevo paradigma» cumple 65 años > http://habitat.aq.upm.es/boletin/n46/ared.html   
Peligros en la Red, v. 2011.01
Carlos Jiménez Romera
Madrid (España), enero de 2011.


Índice General

 

Esto iba a ser un mero recopilatorio de enlaces, al estilo de otras secciones «En la Red» del Boletín CF+S. Sin embargo, una serie de coincidencias han reunido un conjunto de enlaces que me pedían un poco más de elaboración. El título incluye una referencia a la fecha en que se redacta este texto básicamente porque los peligros de Internet están mutando y transformándose de forma continua y porque esta reflexión surge tanto de una serie de preocupaciones de fondo como de unos acontecimientos de absoluta actualidad (y posiblemente pronta caducidad).

La creciente basura en la web

«¿Está por primera vez en su historia bajando la calidad de Google como buscador? Sin ánimo de teorizar en exceso sobre el Search Engine Optimization (SEO), cada vez más voces apuntan a que los SEOs que apuestan menos por la calidad del contenido y más por optimizaciones en la página y linkbuilding ‘artificial’ están ganando la partida. Esto desemboca en un Google menos útil y en que muchos creadores de contenidos cada vez apuesten por otros canales de generación de tráfico, como los enlaces en otros sitios y que los usuarios compartan en Twitter, Facebook o similares.»
¿Google tiene un problema serio con la calidad de los resultados? Antonio Ortiz  (Error 500, 3 de enero de 2011)

Internet y las nuevas tecnologías nos han hecho pasar de una economía de la escasez (de información) a otra del exceso. Toda la humanidad dejando para la posteridad sus más triviales pensamientos no puede dejar de producir un murmullo sordo, que en el pasado se llevaba el viento, pero que hoy queda almacenado en algún rincón de la web. El nuevo problema consiste en filtrar, eliminar el exceso.

El negocio de los contenidos ‘insustanciales’

«So what really scares me? It's the rise of fast food content that will surely, over time, destroy the mom and pop operations that hand craft their content today. It's the rise of cheap, disposable content on a mass scale, force fed to us by the portals and search engines.»
The End Of Hand Crafted Content. Michael Arrington  (TechCrunch, 13 de diciembre de 2009)

Navegar por la web es un acto que realizan cientos/miles de millones de personas de forma cotidiana. Sin embargo, el usuario habitual realiza poco gasto (mucho menos, por ejemplo, que el visitante tipo de un centro comercial físico), por lo que el beneficio económico (y la publicidad) debe construirse sobre la base de multitud de minúsculos gastos/ingresos. Todo funciona gracias a los grandes números de la web: unos céntimos por cada click pueden resultar rentables siempre y cuando cuentes con millones de ellos. Quienes pretendan vivir de ello necesitan atraer a millones de lectores cada mes y esto puede hacerse de dos maneras: generando contenidos de alta calidad que atraen la atención de gran número de lectores, o generando gran cantidad de contenidos que atraen a unos pocos incautos, pero suficientes.

Crear contenidos de calidad es un arte esforzado que requiere talento, inteligencia y dedicación. Lo que supone una limitación absoluta: cada persona es capaz de generar un contenido limitado, y cuando dicho contenido tiene una calidad determinada (por su creatividad, por su esfuerzo intelectual, por su brillantez) suele exigir una remuneración en consonancia. Los contenidos de calidad son únicos e irrepetibles, aportan alguna novedad al pensamiento humano y por ello son tan valiosos, pero al mismo tiempo es difícil construir un negocio a gran escala sobre ellos. El negocio tradicional de una gran empresa de contenidos se centraba en identificar, contratar y retener a los autores más brillantes con la esperanza, siempre incierta, de que continuasen generando contenidos de calidad (y que el público siguiese mostrando interés por los mismos). Por supuesto existía un mercado alternativo de literatura popular basado en la producción constante de contenidos ligeros y de consumo rápido, que ha dado a conocer a autores tan renombrados como Lope de Vega (s. XVII) o Corín Tellado (s. XX), o incluso el propio Mozart (s. XVIII); pero era un mercado perfectamente identificado, y claramente separado del de la alta cultura: el espectador que acudía a un corral de comedias o el lector que compraba una novela barata en el kiosco sabían exactamente lo que estaban adquiriendo, al igual que aquellos que acudían al gran teatro de la ópera o a una librería de prestigio.

El problema actual estriba en que en la web todo convive, en principio, en igualdad de condiciones y sólo la ayuda de intermediarios nos permite llegar a unos contenidos y no a otros. Yahoo! y su directorio de contenidos fue en su día el gran organizador de la web; sus contenidos eran organizados por personas y muy pronto se vio superado, debido al propio crecimiento de la web, por buscadores que utilizaban diversos algoritmos para organizar automáticamente los crecientes contenidos. Este modelo, del que Google es el principal exponente, es el que está en crisis, precisamente por su propio éxito.

«From my analysis of Demand Media and similar sites, such content is very generic and lacks depth. While I wouldn't go as far as wikiHow founder Jack Herrick and say that it lacks soul, it certainly lacks passion and often also lacks knowledge of the topic at hand. Arrington's analogy with fast food is apt —it is content produced quickly and made to order.

In my view both writers and readers of content will need to work harder to get quality content. I know I'd rather read an article by The Economist on any given topic, than one generated by Demand Media. But we, as readers, need more help from Google and the other search engines.

Right now ‘quantity’ still rules on the Web, ‘quality’ is hard to find. Perhaps that's why Reuters is betting on the subscription model —it hopes that consumers will just subscribe to quality content, thereby removing the need to search for it. I think there's something to that, which if true implies that Google will become less relevant in the future.»

Content Farms: Why Media, Blogs & Google Should Be Worried. Richard MacManus  (ReadWriteWeb, 13 de diciembre de 2009)

«Demand Media operates based on a simple formula for success on the Web: create a ton of niche, mostly uninspired content targeted to search engines, then make it viral through social software. Demand Media has been heavily funded to carry out that mission, to the tune of $355 million. So yes, brute force —quantity of content + money/power— works more often than we'd like to think on the Web.

...

Demand Media sources a lot of its content through freelancers, via its Demand Studios. The company has gotten content from over 10,000 people and uses a proprietary editorial system (apparently including predictive algorithms) to publish it. As of May 2009, Demand Media claimed to have created more than 500,000 unique pieces of content - at a staggering rate of about 2,000 pieces of content per day! [Update: Demand Media contacted us to say that the total figure is now nearly 1M pieces of content.] From YouTube alone, Demand Media garners 2 million impressions per day.»

Demand Media Is a Page View Generating Machine - And it's Working. Richard MacManus  (ReadWriteWeb, 25 de agosto de 2009)

Google, ¿víctima o cómplice?

«If you search for any topic that is monetizable, such as ‘iPod Connectivity’ or ‘Futon Filling’, you will see pages and pages of search results selling products and very few that actually answer your query. In contrast, if you search for something that isn't monetizable, say ‘bridge construction’, it is like going 10 years back into a search time machine.»
Google already knows its search sucks (and is working to fix it). Peter Yared  (MediaBeat, 12 de enero de 2011)

La Navidad ha generado una crisis inesperada. Varios hackers y reputados gurús han acudido a su buscador habitual —Google, por supuesto— para documentarse sobre los regalos navideños... y han descubierto que los resultados que se encontraban estaban llenos de basura y publicidad, muy lejos de la relevancia a la que están acostumbrados en su día a día, donde sus búsquedas están mucho más enfocadas a temas minoritarios y muy concretos. Ahí está la clave fundamental: las búsquedas que hace el público general, especialmente cuando está con ánimo de gastar dinero, están invadidas por páginas dirigidas expresamente a monetarizar dichas búsquedas mediante publicidad.

El motivo de ello reside en el propio éxito de Google, primero como buscador, y segundo como gestor de publicidad. En la publicidad reside el éxito financiero de Google, éxito que comparte con los productores de contenidos y que ha dado el músculo financiero para desarrollar las diversas prácticas de generación de contenidos en la web, incluyendo las masivas. A su vez, el éxito del sistema publicitario adsense de Google, que es el que gestiona la publicidad en los sitios externos al propio Google, reside en haber sido capaz de realizar una segmentación de la publicidad en función del contexto en el que aparece; es decir, en lugar de un solo anuncio masivamente difundido de forma indiscriminada (como en los grandes medios tradicionales), muchos anuncios, cada uno de los cuales sólo aparecerá en lugares en los que sea relevante. Este sistema se adapta muy bien a la enorme fragmentación existente entre los usuarios de la web, a los que define en función de los sitios que visitan, y parte con la ventaja de todo el conocimiento sobre la propia web con el que cuenta Google a través de su tecnología de búsquedas, sin olvidar el hecho de que el propio Google suele jugar un doble papel en la experiencia de navegación del usuario: primero como pasarela de entrada a la web, a través de su buscador, a continuación como gestor de la publicidad que aparece en las páginas a las que dirige desde el propio buscador. El conflicto de intereses está claro, pero antes de entrar en las disfunciones conviene exponer las numerosas ventajas de este sistema publicitario.

adsense permite que (cientos/miles de) millones de páginas web dispongan de una forma de introducir publicidad relacionada con sus propios contenidos, de forma que los lectores/usuarios no la consideren como una disrupción sino incluso como una utilidad más de la página web. Por su parte, los anunciantes encuentran una forma de colocar su publicidad en aquellos lugares donde va a ser más efectiva. Todas las partes confían en que Google, a través de sus insuperables y mágicos algoritmos, consiga cuadrar oferta y demanda.

Este sencillo mecanismo (contando con la caja negra que constituye Google) ofreció unos resultados excelentes desde su implantación, todas las partes obtenían beneficios (anunciantes, productores y consumidores de contenidos y, por supuesto, el propio Google). Sin embargo, la excelencia de los innovadores [early-adopters], incluyendo tanto a creadores de contenidos, como anunciantes y usuarios, se degradó muy rápidamente. Definamos en primer lugar el concepto de excelencia. Desde el punto de vista del autor/generador de contenidos, son excelentes aquellos autores que tienen algo valioso que compartir con el resto de la humanidad, talento e inteligencia para hacerlo de forma comprensible y atractiva, así como perseverancia para llevarlo a cabo a pesar del esfuerzo que conlleva. Anunciantes excelentes son aquellos que tienen algo útil que vender a personas que realmente lo necesitan o lo desean y que se limitan a poner en conocimiento de los potenciales interesados la existencia y las características de su producto. Finalmente, usuarios/lectores/consumidores excelentes son aquellas personas con inteligencia, formación e interés suficiente para extraer alguna utilidad (que puede ser meramente hedónica) de un determinado contenido. En todo ello, el dinero, como incentivo legítimo, juega un papel secundario; la mayoría de la gente lee por placer (aunque también por otros motivos) y casi todos los escritores han empezado escribiendo también por placer, incluso todos hacemos recomendaciones a nuestros conocidos (publicidad) de forma desinteresada: el dinero tan sólo introduce la posibilidad de ganarse la vida (o la fortuna) con ello. La degradación del sistema, hablando tanto del buscador como del sistema de publicidad de Google, devino por su propio éxito avasallador y por la irrupción de autores y anunciantes menos altruistas en sus motivaciones y de lectores menos entrenados en el arte de distinguir el grano de la paja.

La naturaleza algorítmica del sistema define su funcionamiento con sus fortalezas y debilidades, que son analizadas y manipuladas por los nuevos agentes en liza. El buscador funciona a partir de una topología de la web, definida por los enlaces entre sus distintos nodos; todas las sofisticaciones posteriores no han hecho más que añadir matizaciones a esta estrategia de base. (Nótese que cualquiera que publique un contenido o establezca un enlace dentro de la web está modificando su topología y, se supone, cambiando los índices internos de Google, aunque sea de forma insignificante.) Una vez que todo el mundo comprendió cómo funcionaba, se pudo empezar a manipular el sistema mediante la modificación de la propia topología de la red, es decir, enlaces masivos, intercambio y compra-venta de enlaces, uso indiscriminado de palabras-clave asociadas a enlaces, generación automática de textos con enlaces, etc. En todo caso, dado el tamaño de la web, para que cualquier modificación tenga un efecto significativo es necesaria cierta masa crítica, un gran volumen de enlaces, que sólo actores con un cierto músculo financiero pueden llevar a cabo. Con mucho menos esfuerzo, sin embargo, se pueden manipular determinados nichos muy concretos, especialmente si están poco desarrollados en términos cuantitativos. Ésta es la estrategia oficial de las granjas de contenidos: desarrollar nuevos nichos en función de las tendencias que detectan en la demanda, que sólo es criticable en la medida en que se utilizan parámetros exclusivamente cuantitativos para decidir qué nichos están poco desarrollados, sin tener en cuenta la calidad intrínseca de los contenidos ya existentes en dicho nicho, que no puede ser evaluada por el algoritmo de Google.

Durante bastante tiempo, la capacidad de Google para mejorar sus algoritmos ha resultado superior a la de los agentes que intentaban manipularlos, proceso de tira y afloja que ha permitido el surgimiento de una nueva ciencia, el SEO [Search Engine Optimization]. Pero la entrada en juego de adsense ha reducido considerablemente la ventaja de Google respecto de sus oponentes, ya que éstos pueden financiarse directamente de sus éxitos en la modificación (legítima o no) de los resultados del buscador. Si Google cuenta con una legión de ingenieros para mejorar constantemente su algoritmo, existe otra legión (seguramente menos brillante y con menos medios, pero desde luego más numerosa) asediándolo; y todos ellos cobran su sueldo de la misma fuente: adsense. Para no eternizar la guerra de trincheras, al margen de efímeros avances o retrocesos en el frente, parece conveniente un cambio de rumbo en la estrategia, y ése es el debate actual, con nuevos actores que surgen como pretendidas alternativas a Google.

«Consider Wikipedia: when was the last time you clicked through to a page that was nothing more than a legally copied, properly attributed Wikipedia entry encrusted in advertisements? Never, right? But it is in theory a completely valid, albeit dumb, business model. That's why Joel Spolsky and I were confident in sharing content back to the community with almost no reservations, because Google mercilessly penalizes sites that attempt to game the system by unfairly profiting on copied content. Remixing and reusing is fine, but mass-producing cheap copies encrusted with ads... isn't.

...

People whose opinions I respect have all been echoing the same sentiment: Google, the once essential tool, is somehow losing its edge. The spammers, scrapers, and SEO'ed-to-the-hilt content farms are winning.

Like any sane person, I'm rooting for Google in this battle, and I'd love nothing more than for Google to tweak a few algorithmic knobs and make this entire blog entry moot. Still, this is the first time since 2000 that I can recall Google search quality ever declining, and it has inspired some rather heretical thoughts in me: are we seeing the first signs that algorithmic search has failed as a strategy? Is the next generation of search destined to be less algorithmic and more social?»

Trouble In the House of Google. Jeff Atwood  (Coding Horror, 3 de enero de 2011)

«What this means in practice is that Demand produces text, images and video that are designed to attract keyword ads. The company looks at what keywords are being searched for most, and pays contractors to produce content that fits that description. So if Demand sees that keywords related to winter tires are fetching a high price on auction markets like Google's, it will pay someone to write an article about how to put snow tires on your car.

Some of these articles are filled with useful information, but others are closer to what Marco Arment described when he railed against content: generated by penny-hungry affiliate marketers and sleazy web ‘content’ startups to target long-tail Google queries en masse, scraping content from others or paying low-wage workers to churn out formulaic, minimally nutritious pages to answer them.»

Did Google Just Declare War on Demand Media? Mathew Ingram  (GigaOM, 21 de enero de 2011)

Pero... ¿hay alternativas?

«Google is like a monoculture, and thus parasites have a major impact once they have adapted to it —especially if Google has lost the war. If search was more heterogenous, spamsites would find it more costly to scam every site. That is a very interesting argument against the level of Google market dominance.»
On the increasing uselessness of Google... Alan Patrick  (broadstuff, 2 de enero de 2011)

Desde luego que hay alternativas, siempre las ha habido, pero también es cierto que no son sustitutos perfectos y siempre han funcionado de forma complementaria. El eje fundamental está entre las aptitudes de las personas y las de las máquinas, muy distintas entre sí.

Antes de Google estaba Altavista, y antes Yahoo! y antes... No es necesario remontarse a los comienzos de Internet para darse cuenta de que la orientación en la web ha virado progresivamente desde un conocimiento parcial pero cualitativamente valioso, aportado por personas, hacia un conocimiento global pero cuantitativo y más superficial, generado por algoritmos. Al principio encontrar algo en la web dependía de conocer previamente al menos su localización aproximada, en tal o cual servidor, en tal o cual índice, de la misma forma que se acudía a una biblioteca y se empezaba a rastrear en los ficheros, buscando por autor o por materia. Todo era laborioso y dependía en gran medida de contar con alguien experto que te recomendase por dónde buscar. Siguiendo esta senda, Yahoo! se convirtió en un lugar de reunión de saberes expertos, todo un directorio global, organizado principalmente por temas, que permitía bucear por Internet como si de una biblioteca bien organizada se tratase. Su problema es que había muchas cosas directamente inclasificables (o clasificables según criterios distintos o incompatibles) y siempre muchas más pendientes de incorporar al fichero. Yahoo! era el fichero de la biblioteca, pero aún no había bibliotecario a quien preguntarle directamente si estaba tal o cual libro, o si sabía de alguno que tratase sobre un tema particular de difícil encaje en la CDU. Altavista y otros muchos buscadores intentaron cubrir esta necesidad en la que terminó brillando con luz propia Google con su aparentemente insuperable algoritmo (y la infraestructura adjunta).

Aunque puede apuntarse que el triunfo de Google supuso la culminación del enfoque algorítmico (asumido también por sus principales competidores que, sin embargo, no parecen haber sido capaces de superarlo en este campo), esto no ha implicado en ningún caso el fin del sistema de recomendaciones personales, que ha seguido muy vivo y en constante transformación. Las listas de distribución de correo, los blogs y los sistemas de sindicación (rss, atom, etc.) y finalmente Twitter siguen la línea de las recomendaciones personales. Como en cualquier sistema boca a boca su alcance es limitado, pero a cambio aportan información de alta calidad. La forma de sacar provecho a este sistema consiste en organizar distintas redes de contactos en torno a los temas e inquietudes que tenga cada persona.

El problema, hasta no hace tanto, era que las redes de contactos, que generaban un conocimiento parcial pero de alta calidad, pertenecían en exclusiva a cada persona y eran difícilmente integrables en una estructura global. Además, cualquier intento de una empresa por recopilar información de una persona determinada y utilizarla para fines no previstos y autorizados por dicha persona se considera una intromisión en la intimidad y está prohibido por la legislación (especialmente en Europa, no tanto en Estados Unidos).

Esta limitación, sin embargo, parece que está a punto de vencerse. Dos servicios tan populares como Facebook y Twitter se están convirtiendo, con la participación entusiasta de sus usuarios, en respositorios centralizados de recomendaciones personalizadas. Aún no tienen un modelo claro de negocio, pero esta información, a primera vista, es lo que todo el mundo estaba buscando: un gran número de informaciones de calidad, generadas por personas para personas, pero que pueden integrarse en un nuevo sistema que complemente el trabajo de los algoritmos automáticos.

Desde el punto de vista publicitario, el santo grial constituye en el emplazamiento de anuncios adaptados al lugar, al momento y a la persona que los va a ver. Hasta ahora adsense ha permitido mostrar determinada publicidad en función del contexto, pero los nuevos sistemas publicitarios que se pretenden construir a partir de redes sociales como Facebook o de medios de recomendaciones como Twitter, esperan añadir al contexto información sobre el propio usuario. Por el momento se trata de meras especulaciones, pero todos los principales actores del sector, incluido el propio Google, andan trabajando en este sentido. Mientras tanto, los usuarios siguen cediendo despreocupadamente sus conocimientos y toda la información sobre sus propias vidas a empresas privadas ávidas de sacarles todo el beneficio posible.

En todo caso, y a pesar de todo lo dicho, hay que relativizar la crisis: todo el mundo está pendiente de las debilidades que muestre Google para ocupar su lugar, lo que magnifica la más mínima fisura que pueda surgir en su ecosistema. En este sentido, tampoco hay que desdeñar el efecto que pueden estar produciendo las expectativas de beneficio ante la inminente salida a bolsa de Facebook, basadas más en especulaciones sobre el futuro de la web (y las posibilidades de monetarizar las redes sociales) que sobre una realidad presente y tangible.

«Which is a bigger problem when you use an Internet search engine —that you can't find what you need or that your query generates too much irrelevant data?
70%: That your query generates too much irrelevant data;
13%: That you can't find what you need;
18%: Not sure.»
89% Find Search Engines Do Good Job Finding Information, But ‘Noise’ Is Issue. Danny Sullivan  (Search Engine Land, 15 de enero de 2011)

La red, infraestructura privada gestionada por empresas privadas

Internet está diseñada, desde sus orígenes militares, para ser una red horizontal de nodos autónomos, pero desde el punto de vista físico [hardware] cada nodo no deja de ser una máquina (o conjunto más o menos complejo de máquinas) propiedad de una entidad que es la que paga la factura eléctrica. Del mismo modo, las conexiones entre los nodos no dejan de ser cables que hay que tender, mantener en funcionamiento y sustituir al final de su vida útil. De hecho, su exponencial crecimiento más allá de los centros públicos (militares y de investigación) no ha hecho más que potenciar el carácter privado de la infraestructura.

Con una burbuja financiera y bursátil de por medio, las empresas de telecomunicaciones se lanzaron a una colosal expansión de las infraestructuras con la vaga promesa de que en la red estaba el nuevo negocio del siglo XXI; el estallido de la burbuja punto com puso a todos en su sitio: aunque Internet era una gran promesa, aún había pocos modelos de negocios para explotarla comercialmente y éstos, en todo caso, aún requerían de una maduración tanto de la tecnología como de los clientes. Se pueden perfilar grosso modo las causas de tal desatino: se unieron las ganas de invertir en algo nuevo de gente que desconocía por completo la naturaleza de la red, con el entusiasmo acrítico de los únicos que la conocían con un mínimo detalle (los visionarios de la red, capaces de imaginar las posibilidades a medio y largo plazo de una infraestructura tal, pero sin conciencia en muchos casos de cómo funciona el mundo de los negocios, se asociaron con tiburones de las finanzas dispuestos a no dejar pasar el negocio del siglo).

El fracaso del negocio fue, sin embargo, un verdadero empujón para las infraestructuras que necesitaba la red, su sobredimensionamiento en aquel tiempo (en que la base de usuarios, recordemos, era más bien escasa y muy concentrada en determinados estamentos) ha servido como colchón para la expansión posterior en términos de usuarios y de tráfico. El problema es que las empresas de telecomunicaciones, que pretendieron llevarse todo el pastel con su estrategia de los portales, han visto cómo otros actores, nativos de la red, específicamente Google, se llevaba el gato al agua y se hacía con una porción importante de los beneficios y, sobre todo, se convertía en el intermediario imprescindible. Los propietarios del hardware no están dispuestos a que las empresas del software se lleven todo el beneficio (olvidando, eso sí, que probablemente ellos se llevan una parte más sustancial, ya que cobran por el acceso de cada usuario que se conecta a la red).

Otro punto de vista se basaría en una previa ruptura del status quo por parte de las empresas de Internet, al irrumpir en el negocio tradicional de las telecos: las llamadas de voz y la televisión. Es importante destacar en este punto que la transmisión de voz y vídeo por Internet ha supuesto un cambio en el orden de magnitud del tráfico generado respecto al tradicional uso para la transmisión de texto e imágenes; las empresas de infraestructuras ven cómo Internet se come su oferta de entretenimiento y, encima, a costa de su propia infraestructura. (Eso no quita que ellas mismas publiciten su oferta de acceso a Internet con todos estos servicios que consideran una invasión de su espacio natural.)

En realidad se trata de un movimiento a medio/largo plazo: mientras el negocio de la infraestructura está en una fase madura (la exigencia de mayores prestaciones a menores precios deja cada vez menores márgenes de beneficio), el de los contenidos parece estar en una fase claramente expansiva.

Los actores principales en este drama dibujan claramente dos bandos: aquellos que controlan las redes de acceso de los usuarios, las grandes empresas de telecomunicaciones, con una base históricamente nacional aunque internacionalizadas en mayor o menor medida, y aquellos que proporcionan los contenidos a los usuarios, incluidos algunos de pago, que tienen una vocación global desde su propio nacimiento. Metafóricamente, los propietarios de las autopistas no sólo quieren cobrar el peaje a los usuarios, sino también abrirles los maleteros y cobrarles una tasa por sus equipajes. En realidad, las grandes telecos lo que quieren es dejar de ser meros gestores de autopistas para convertirse en operadores logísticos integrales, cobrando por el transporte en función del valor de cada mercancía y de las condiciones específicas de entrega. Sin embargo, el diseño de la red hasta ahora, basado en la neutralidad, es decir, en la igualdad de trato a toda la información que viaja por la misma, va contra esas pretensiones.

¿A quién sirve la neutralidad de la red?

«Los principales interesados en destruir la neutralidad de la Red son aquellos actores que en ausencia de las condiciones de diversidad, mayor competencia y meritocracia propias de este entorno neutro tengan algo que ganar. Estos actores resultan ser de dos tipos fundamentales, sean estatales o corporativos, que se reducen a uno solo si los observamos adecuadamente: los interesados en eliminar la neutralidad de la Red, dando origen a un ecosistema castrado que no merezca el nombre de Internet, son aquellos que controlan las herramientas de poder y control tradicionales.»
La neutralidad de la red. Y por qué es una pésima idea acabar con ella. Jose Alcántara  (La Biblioteca de Indias Electrónicas, 2010)

¿Cuáles son las ventajas de la neutralidad? Básicamente permite que cualquier actor entre en la arena sin estar previamente penalizado (al margen, claro, de las circunstancias del mundo real: acceso a infraestructura, financiación, etc.). La neutralidad ha permitido que surjan empresas como Google, Amazon o eBay, que son, en el fondo, los tres grandes de la red, pero también ha permitido sobrevivir a otros proyectos minoritarios y, lo que es más importante, sin ánimo ni expectativas de negocio. En la práctica, diversas empresas de acceso a la red, aprovechando su posición, han puesto cortapisas a la neutralidad de la red en forma de filtros a distintos servicios (P2P, VoIP, etc.) penalizando diversas prácticas de los usuarios y contando en general con la complicidad activa o pasiva de las administraciones públicas, ya que la neutralidad, regla básica de Internet, normalmente no ha sido incluida en la profusa normativa que los distintos Estados han generado para regular ésta.

¿Y qué papel juegan los Estados en este tema? Como siempre, cada cual protege lo suyo: Estados Unidos, con los intereses de sus campeones de Internet, las empresas de gestión de contenidos y la neutralidad que hasta ahora les ha favorecido; los países europeos, con los intereses de sus propios campeones, las empresas de telecomunicaciones. En todo caso, es un negocio muy grande para ponerlo en riesgo y lo que todos esperan es que las grandes empresas lleguen a un acuerdo para repartirse el pastel sin necesidad de ponerse a malas.

Entre medias, como siempre, los usuarios, zarandeados por los intereses de los mayores.

En primer lugar, hay que aclarar que una inmensa mayoría de la gente, como en la política real, no tiene opinión definida y ni participa ni se preocupa por estos asuntos; su principal queja es la calidad del servicio y, sobre todo, el coste del mismo. Por otra parte, hay colectivos tradicionalmente activos en la defensa de estos temas, entre los que se pueden distinguir los colectivos de consumidores y los de creadores, muchas veces entremezclados. Ambos grupos se sienten agredidos por el fin de la neutralidad, especialmente porque son mínimamente conscientes de que cualquier cambio en el status quo negociado entre los grandes terminará perjudicando, con toda probabilidad, a los actores pequeños. En cualquier caso, no hay una posición uniforme ni los argumentos a favor de la neutralidad son siempre los mismos, hay posturas más o menos coherentes, mientras que los argumentos se entremezclan con frecuencia con otros temas como los derechos de autor o los distintos tipos de tarificación de la conexión a Internet.

Otro factor, sin embargo, precariza cada vez más la posición de los usuarios de la web: el hecho de que la comunidad de internautas es cada vez más consumidora de productos ofrecidos por las grandes empresas de Internet y cuando es creadora, lo hace cada vez más sobre plataformas cerradas que también son propiedad de empresas privadas. La fragilidad de la libertad que ofrece Internet está aumentando tanto por el lado del hardware como por el del software, de forma que la mayoría de los usuarios son cada vez más dependientes, no sólo de su proveedor de acceso, sino de todo un conjunto de empresas que le dan todo tipo de servicios a la creación y publicación de contenidos, incluyendo, por supuesto, las redes sociales. En el fondo, la defensa de la neutralidad de la red como garante de la libertad de expresión (y de emprendimiento) exige una mínima independencia respecto de aquellos agentes, grandes empresas de Internet, para los que la neutralidad es sólo una ventaja táctica para ganar posiciones frente a las grandes empresas de telecomunicaciones.

«Circula hoy por Internet un manifiesto a favor de La neutralidad de la Red. Huelga decir, a estas alturas, que me parece fantástico defender la neutralidad de la Red, la neutralidad de Internet. Pero no deja de sorprenderme que se haga copypaste, sin más, de un manifiesto que te pide que uses un hashtag concreto en Twitter y Facebook. ¿Defender la neutralidad de la Red desde servicios webs ajenos como Facebook? ¿Qué parte de La infraestructura debe ser distribuida para que la Red pueda ser neutra no han entendido? Es tan fundamental que es casi lo primero que trato en mi nuevo libro: está en el capítulo 1. Si esto es todo lo que se sabe proponer para defender la neutralidad de Internet es que ya ganaron: hablan de no sucumbir a la inacción, ya sabes, ante la inacción... no te olvides el #hashtag.»
¿Qué parte de la palabra ‘infraestructura’ no han entendido? Jose Alcántara  (versvs.net, 1 de diciembre de 2010)

¿Pero de quién es la red?

«Una acción que confirma el poder extra judicial de las empresas privadas en internet. Empresas como PayPal controlan el flujo de los recursos económicos en internet y, a diferencia de las empresas tradicionales, no tienen ninguna obligación a no discriminar. Una aproximación a la afirmación, la red como espejo del lejano Oeste de John Wayne, donde la justicia es débil y los ciudadanos (los poderosos, entre ellos) la administran con total impunidad. Pueden estrangular a cualquier web sin tener que justificar sus acciones, y sin ofrecer ninguna garantía legal. Osama Bedier, vicepresidente de PayPal justificó el bloqueo a Wikileaks en París con estas palabras: El Departamento de Estado nos dijo que ellos [por Wikileaks] tenían actividades ilegales. Fue fácil.»
La red en manos de los intereses financieros. Simone Santini  (Diagonal, 10 de enero de 2011)

El caso Wikileaks ha puesto en evidencia, de forma bastante espectacular, lo que todos sabíamos. Ya sea por temas de derechos de autor, por motivos de seguridad nacional o por cualquier otro que pueda surgir, la línea directa entre grandes empresas y gobiernos funciona en ambos sentidos: igual que las primeras tienen acceso directo a los gobiernos para expresarles sus inquietudes en temas económicos, los segundos tienen la misma accesibilidad para que éstas actúen donde la buenas formas se lo impiden a los poderes públicos. El pez grande se come al chico, ley universal del mercado que se superpone a cualquier tipo de derecho humano o democrático.

En conclusión: la red nos garantiza la libertad de expresión tanto como cualquier gobierno democrático, para decir lo que nos parezca oportuno, siempre y cuando ello no afecte a los poderosos (tomen cuerpo éstos en forma de multinacional o de Estado más poderoso del planeta). Eso no quiere decir que Internet no sea un instrumento válido y útil para desarrollar la libertad de expresión y otras libertades individuales y colectivas; simplemente no es suficiente: también es necesario hacer un uso consciente del medio, que requiere, como siempre, tanto conocimiento como concienciación y, probablemente, que los usuarios dejen de ser consumidores y se conviertan en ciudadanos de Internet.

«(Kettling refers to the police tactic of surrounding a large group of protestors in the middle of a protest and keeping them under siege for hours.)

The Internet cannot function if web sites are frequently blocked by crowds, just as a city cannot function if its streets are constantly full of protests. But before you support a crackdown on Internet protests, consider what they are protesting: in the Internet, users have no rights. As the Wikileaks case has demonstrated, what we do in the Internet, we do on sufferance.

In the physical world, we have the right to print and sell books. Anyone trying to stop us would need to go to court. That right is weak in the UK (consider superinjunctions), but at least it exists. However, to set up a web site we need the cooperation of a domain name company, an ISP, and often a hosting company, any of which can be pressured to cut us off.

In the US, no law explicitly requires this precarity. Rather, it is embodied in contracts that we have allowed those companies to establish as normal. It is as if we all lived in rented rooms and landlords could evict anyone at a moment's notice.»

Kettling Wikileaks. Richard S. Stallman  (Defective by Design, 17 de diciembre de 2010)

Nuestras vidas en la nube

«Tan temprano como en 1813, el gobierno de Estados Unidos creó un programa para descentralizar y difundir la información oficial. Durante siglos las bibliotecas norteamericanas han preservado todo tipo de documentación. Pero hoy en día, gran parte de ella es nativa digital. Magnífico, ¿no?

Pues no tanto: ¿cómo cerciorarse de que lo que alguien dijo en determinada comisión del Congreso no ha sido alterado? Esto no es una preocupación conspiranoica: James Jacobs, bibliotecario de las Bibliotecas de Stanford University afirma: Ha sucedido antes. Desde mediados de la década de 1980 hasta final de los 90 la American Library Association publicó un informe anual con ejemplos de lo que el gobierno no quería que los ciudadanos conocieran, con oscurecimiento consciente del registro. Sucede más de lo que nos gustaría.»

Para evitar la oscuridad. José Antonio Millán  (Blog de Libros y bitios, 18 de junio de 2010)

«Antes una biblioteca, institucional o personal, podía cerrarse, pero sus fondos no desaparecerían así como así: incluso fragmentada, malvendida, sus libros estarán en algún lado. Cuando una base de datos se borre de los servidores que la albergan, habrá desaparecido para siempre.»
Pérdidas muy posibles. José Antonio Millán  (Blog de Libros y bitios, 18 de marzo de 2010)

Después de repasar los peligros que acechan a Internet, conviene, antes de dar por terminada la reflexión, recordar los peligros que supone la propia Internet.

Primero, la desmaterialización es muy frágil, aún no está inventado un soporte y un interfaz electrónico tan eficaz como el del libro físico para garantizar la perdurabilidad de los contenidos que tan alegremente estamos volcando en la red de redes. Así pues, al margen de detalles menores como quiénes son los propietarios de la red o qué formatos estamos utilizando para guardar la información, no puede dejar de hacerse una reflexión sobre qué materiales conviene conservar en papel.

Por otro lado, Internet puede apagarse en cualquier momento (como se ha demostrado estos días en Egipto), por unos motivos u otros (técnicos, políticos, económicos, sociales...), lo cual debe hacernos conscientes de que una estructura compartida como ésta nos hace mucho más dependientes de ella. La desaparición de Internet se nos antoja tan poco plausible como el fin de la tiranía en los países árabes, pero a veces estas cosas ocurren, aunque sea en pequeños fragmentos de la totalidad. Confiar ciegamente en una infraestructura gigantesca dominada por un puñado de grandes empresas (que tienen a los Estados a su servicio) no parece buena idea en ningún caso; parece necesario, primero, luchar por que Internet no pierda los espacios de libertad que se han creado, pero además, contar con una estrategia alternativa.

Por último, no conviene olvidar un aspecto fundamental: Internet como gran consumidora de electricidad. Si no tenemos para pagar la factura de la electricidad, prescindiremos antes del PC que de la bombilla; eso, sin género de dudas.

«Twitter and other companies, notably Google, have a policy of notifying a user before responding to a subpoena, or a similar request for records. That gives the user a fair chance to go to court and try and quash the subpoena. That's a great policy. But it has one fatal flaw. If the records request comes with a gag order, the company can't notify anyone. And it's quite routine for law enforcement to staple a gag order to a records request.

That's what makes Twitter's move so important. It briefly carried the torch for its users during that crucial period when, because of the gag order, its users couldn't carry it themselves. The company's action in asking for the gag order to be overturned sets a new precedent that we can only hope that other companies begin to follow.»

«It used to be that if the US government wanted access to documents or letters in my possession they'd have to subpoena me directly. As a foreign citizen there are all sorts of ways I could fight the request —and it was at least my choice whether to do so. As someone living in the US I also had the whole weight of the 4th Amendment on my side. Now, with everything in the cloud, the decision whether to hand over my personal information is almost entirely out of my hands. And unless, as happened with Twitter, the company storing my data decides to fight for openness on my behalf, there's every possibility that I won't even hear about the request until it's too late. That's just not how things should work in a free society.»
Why I'm Having Second Thoughts About The Wisdom Of The Cloud. Paul Carr  (TechCrunch, 10 de enero de 2011)

«The machine was hailed as the future of weather prediction with the ability to produce more accurate forecasts and produce climate change modelling. However the Met Office's HQ has now been named as one of the worst buildings in Britain for pollution - responsible for more than 12,000 tonnes of carbon dioxide a year. It says 75 per cent of its carbon footprint is produced by the super computer meaning the machine is officially one of the country's least green machines.»

Edición del 27-1-2011
Boletín CF+S > 46: El «nuevo paradigma» cumple 65 años > http://habitat.aq.upm.es/boletin/n46/ared.html   
 
Ciudades para un Futuro más Sostenible
Búsqueda | Buenas Prácticas | Documentos | Boletín CF+S | Novedades | Convocatorias | Sobre la Biblioteca | Buzón/Mailbox
 
Escuela Técnica Superior de Arquitectura de Madrid Universidad Politécnica de Madrid Ministerio de Fomento
Grupo de Investigación en Arquitectura, Urbanismo y Sostenibilidad
Departamento de Estructuras de EdificaciónDepartamento de Urbanística y Ordenación del Territorio