viernes, julio 31, 2009

Inflación o deflación

¿Que pasaría si todo, absolutamente todo lo que esté nominado en euros, por ejemplo, se multiplicara por 10 su valor? Y cuando digo todo, me refiero no sólo a los precios, sino también a los ingresos, ahorros, incluso el valor de los billetes y monedas de curso legal? Desde el punto de vista eminentemente matemático, tendríamos de repente una inflación del 1000%. Sin embargo, la intuición nos dice que en la práctica económica no sucedería ningún cataclismo. De hecho no sucedería absolutamente nada, excepto que utilizamos una moneda con un cero más. Los mileuristas serían diezmileuristas, pero las cañas costarían 12, 13, 15 euros. Y las viviendas millones de euros. Como dice el refranero: "lo comido por lo servido".

Realmente no es que exista una inflación, sólo hay un cambio de unidad de medida. Si hiciéramos el mismo razonamiento pero dividiendo por 10 en vez de multiplicando, tampoco sería real la deflación del 90% matemáticamente obtenida. Eso sí, ya no nos valdría usar 2 decimales (céntimos), sino que nos haría falta un tercer decimal. Históricamente, los países han ido cambiando sus monedas a medida que la inflación hacía que las cifras a manejar fueran absurdamente grandes, para ajustarlas a una banda "psicológicamente" más adecuada. Un caso aberrante es el que sucede actualmente en Zimbabue, pero incluso las monedas europeas, al cambiar al euro, han aprovechado para normalizar su valor.

Con todo esto lo que quiero decir es que la inflación o la deflación en el mundo real no es un tanto un problema de valores absolutos de precios como de cambio entre las relaciones entre los precios y los ingresos*. Pongamos otro ejemplo. Supongamos que en dos países hipotéticos: la República Independiente de Barbate, tienen como moneda el chiquitistaní, y el Reino Unido de Arnor y Gondor, cuya moneda es el elendilí. El sueldo medio de la RIB y del RUAG son 100 chiquitistanís y 100 elendilís respectivamente, y el menú básico de una persona al día es también análogo: de 1 chiquitistaní y 1 elendilí respetivamente. De repente en la RIB hay una inflación galopante que pone los precios del menú básico en 1,50 chiquitistanís (+50%), mientras que el sueldo medio pasa a ser de 125 chiquitistanís (+25%). A la vez, en la RUAG, la deflación campa a sus anchas, y los sueldos han descendido a unos míseros 75 elendilís (-25%), pero el menú básico a base de frutas del bosque y conejo asado con hierbas, cuesta ahora 0,60 (-40%) elendilís. Lo que realmente se ha producido es un reescalado entre los precios y los ingresos: en ambos casos eran 100:1 en el caso de partida, pero tras la inflación en la RIB la relación pasa a ser de 125:1,5 o lo que es lo mismo: 83,3:1, lo que quiere decir que donde antes podía comprarse 100 comidas con el sueldo de 1 mes, ahora sólo se pueden comprar 83,3. En el caso de RUAG, esta relación ha pasado a ser 75:0,60 o lo que es lo mismo: 125:1. En la RUAG, ahora se compran 125 comidas con el sueldo de un mes, así que, a pesar de la deflación aparente, la situación ha mejorado.

Podría haber utilizado un ejemplo en el que la inflación fuera más favorable que la deflación, todo es cuestión de poner las cifras a nuestro gusto para que la relación entre lo que se incrementan los precios y lo que se incrementan los salarios sea favorable al ejemplo que queremos mostrar. Al punto al que quiero llegar es que la inflación o deflación entendida como variación de precios no son ni buenas ni malas en sí, sino que lo son en relación al aumento o la pérdida de poder adquisitivo en el mismo periodo de tiempo. Una deflación no tiene por qué ser mala, si nuestros ingresos se mantienen más o menos y los precios en cambio caen bastante más. A su vez, una inflación donde los precios crecen poco, pero que los sueldos crecen aun menos, es peor porque estamos perdiendo poder adquisitivo a medida que la relación entre precios e ingresos aumenta.

En esta crisis, una de las grandes preguntas que se están debatiendo continuamente es: ¿inflación o deflación? ¿que va a ocurrir? ¿entraremos en una espiral deflacionaria de funestas consecuencias, o se producirá una alta inflación a base de darle a "la máquina de hacer billetes"? Bien pues mi respuesta no solicitada a esta pregunta es que, primero, inevitablemente se va a producir una pérdida de poder adquisitivo, sea por el lado inflacionario o por el deflacionario. Nuestra capacidad para adquirir los productos de "mayor necesidad" se verá erosionada, y por mayor necesidad entiendo los productos básicos (alimentación, vestido, calzado, ...) y sobre todo la energía. Es decir, ganaremos lo mismo para comprar comida y combustible más caro, o ganaremos menos para comprar comida y combustible al mismo precio. O, lo que es más probable, una mezcla de ambas: ganaremos menos para comprar comida y combustible más caros. En la última forma los precios no parece que crezcan tanto, y tampoco hay una deflación nominal (al menos no muy fuerte), "escondiendo" así la relación de pérdida de poder adquisitivo habida (escondiendo hasta cierto punto, porque nadie es tonto).

Y segundo punto: la deflación, al menos por un periodo, es inevitable, a pesar de las "inyecciones de dinero" que se puedan estar haciendo (la famosa metáfora de la "máquina de hacer billetes"). La razón es que la inflación o deflación, a pesar de todas las teorías monetaristas que queráis presentarme, con lo que sí está relacionado más que con la M3 es con el paro.

Se dice que cuando hay inflación, los sueldos suben. La realidad es que cuando se está en una etapa expansiva donde se demanda trabajo y no hay suficiente gente para cubrirlo, la pugna por acaparar el factor trabajo empuja a los sueldos al alza inevitablemente. Pero los sueldos al alza es una respuesta directa a la mayor demanda de empleo, no al aumento del precio de las cosas. Por eso es totalmente lógico que en el caso inverso de gran oferta de empleo y reducción de la demanda (es decir, con una gran tasa de paro), los sueldos, por la propia competencia entre candidatos a ser empleados, se vean forzados a la baja. Y con los sueldos (medios, no casos puntuales) a la baja, los precios (medios) se verán forzados a la baja o, si se mantienen, por la curva de oferta y demanda, se producirá un descenso del consumo de ese producto/servicio que llevará a más despidos, mayor paro, y una nueva vuelta a la espiral deflaccionaria. El resultado final de la espiral incidirá sobre todo productos/servicios superfluos (que desaparecerán o se convertirán en algo extravagante o de lujo) mientras que los productos/servicios de mayor necesidad, de los que es más difícil prescindir, bajarán de precio al ritmo de una mayor optimización, eficiencia, y aumento de la productividad (en este último caso significará habitualmente menos gente para hacer el mismo trabajo, con lo que también se generará más desempleo y nueva realimentación a la espiral deflacionaria, aunque es de suponer que en menor grado). Un tercer grupo, el de los precios que estuvieran artificialmente sobrevalorados, se hundirán irremediablemente.

¿No podría evitarse la deflación aumentando los ingresos aunque no aumenten los sueldos? Bueno, es lo que se ha estado haciendo hasta ahora para ocultar la pérdida de poder adquisitivo de los últimos años: recurrir al crédito para complementar los sueldos. Hasta que el abuso del mecanismo ha estallado. Otra forma puede ser efectivamente, inyectar dinero. El problema realmente es dónde inyectas ese dinero. Mediante qué mecanismo ese dinero llega al bolsillo del que necesita complementar su sueldo, sin que se quede atrapado en la espiral de deudas. El mecanismo Keynesiano es aumentar la demanda de trabajo mediante el gasto público que rompa la espiral. Pero es un mecanismo que el propio Keynes sabía falso, porque no era sostenible a largo plazo ("a largo plazo todos estaremos muertos") por las propias deudas generadas en inversiones no amortizadas. Hizo falta una devastadora guerra, la Segunda Guerra Mundial, para que la combinación de menor mano de obra y una acuciante necesidad de reconstruir infraestructuras e inversiones productivas encarrilaran de nuevo la economía. Hoy en día, cuando China necesita dar trabajo cada año a 25 millones de trabajadores nuevos, en un entorno globalizado donde todos los trabajadores del mundo compiten por que su país/región/ciudad se lleve el poco trabajo que haya, es difícil imaginar que pueda crearse una necesidad de fuerza laboral tal que lleve a 6.600 millones de personas a trabajar, y el "evento de extinción" análogo al 2GM tendría que ser de tal calibre que es mejor ni pensarlo. El futuro no pintaría nada halagüeño, en cualquiera de los dos casos.

Salvo descubrimientos (muchos) improbables, que cambien completamente el tablero de juego, a lo que nos encaminamos es a una lenta pero inevitable depresión con deflación (Escenario 1), salvo que caigamos muy rápidamente para luego recuperar y mantenerse luego en pendiente descendente (Escenario 2). El Escenario 1 es el más lógico, pero el Escenario 2 se adapta más a la psicología humana (fases de negación-ira-negociación-depresión-aceptación).
--
* consideraré ingresos no sólamente los sueldos, sino cualquier otra fuente de la que obtener dinero

sábado, julio 25, 2009

Los smart grids mataron a la estrella nuclear

Una de las típicas falacias que se suelen utilizar en el debate energía nuclear-energía renovables es ésta:

La gente no enciende la lavadora cuando sopla el viento.
Pues resulta que ese es el futuro: que la gente ponga la lavadora cuando sopla el viento. O dicho en general, que la gente consuma energía cuando ésta se produce. ¿Cómo se consigue ésto? Mediante lo que se denomina un smart grid.

Podríamos traducir smart grid apropiadamente como "red de distribución inteligente". Por inteligencia se refiere a que en nuestro hogar tenemos un dispositivo (el habitual contador que pasa a ser un smart meter o "contador inteligente") que nos informa en cada momento de a qué precio está la energía que consumimos. No sólo visualmente, sino que informa a través de un protocolo informático. Y además, con los aparatos eléctricos y electrónicos adecuados, permite utilizarlos en los momentos en que éste consumo nos es más favorable, de forma inteligente, con lo que podemos ahorrarnos bastante dinero. Como relata un usuario de ésta tecnología al New York Times:
“I’m saving a ton of money,” said Mr. Kieken, a Web page developer — $900 in the last 14 months. He has discovered that at odd times at night, the utility will pay him to use electricity, a quirk previously obvious only to wholesale customers.
Os estaréis preguntando ¿cómo puede ser posible que en ciertos momentos ¡incluso te paguen por gastar electricidad! ¿No es absurdo? No, no lo es. Para entenderlo, basta con unas pequeñas nociones sobre cómo funciona el sistema eléctrico. Para empezar, podéis echar un vistazo a la curva de demanda eléctrica en Red Eléctrica Española un día cualquiera. Yo voy a fijarme en la del día de escribir este artículo, pero no debería variar mucho:


Como podéis observar, la demanda no es una constante. Hay momentos del día en los cuales consumimos mucha electricidad, y momentos en los que consumimos mucha menos. Y hablo tanto de consumidores particulares (residentes) como de empresas de todos los tamaños. Durante la noche cae mucho para, a las 8 de la mañana, volver a dispararse el consumo. Lo importante de este gráfico, lo que preocupa a los responsables de la generación de energía eléctrica son los picos de consumo y los valles de consumo. Los picos, porque la red debe ser capaces de transportar y suministrar tanta energía como la marcada en ellos. Los valles porque marcan el consumo mínimo, la energía que siempre es necesario disponer.

En las empresas, sobre todo en las grandes empresas, lleva ya tiempo funcionando un sistema de tarificación por demanda. En los momentos en que hay poca demanda, la energía se oferta más barata, y en los que hay mucha demanda, se oferta más cara. Esto provoca que los grandes consumidores de electricidad les interese consumir energía en periodos valle. ¿Habéis oido hablar del 5º equipo? Es un turno para que las fábricas trabajen 24 horas al día, 7 días a la semana. Es un turno bastante polémico, porque los festivos ("fines de semana") te pueden tocar en cualquier momento de la semana (por ejemplo trabajas 8 días en cada turno —mañana, tarde y noche— y libras otros 8 días. En los años 80 hubo bastantes movidas sindicales a cuenta del 5º equipo aquí en Vitoria (especialmente en Michelín), pero al final el modelo se impuso. Y se impuso porque para una empresa con un gasto energético como el de Michelín, el ahorro era enorme. También conozco casos en acería, donde las coladas de fundición se realizan por las noches y los fines de semana.

Bien todo este rollo viene a que éste modelo no es casual. Las empresas tienen ese incentivo para rebajar sus costes energéticos porque lo ideal para la red de distribución es que no haya muchas variaciones entre picos y valles. Cuanto menos sean estas variaciones, y más predecible es el sistema y más fácil de planificar, más barato y eficiente es. El modelo de tarificación en tiempo real lo que pretende es reducir esas diferencias mediante el incentivo económico. Y aunque se aplicó inicialmente a la industria por considerarse la gran consumidora de electricidad, como podéis deducir del gráfico, aun hay muchas diferencias entre el pico y valle diarios (y semanales/mensuales). Por eso el smart grid es una forma de trasladar el mismo principio al consumidor residencial: a nosotros. Segmento en el que con el tiempo ha ido creciendo el consumo de energía eléctrica de forma significativa.

Hay que decir que esto no es realmente una novedad. La tarifa nocturna de electricidad funcionaba hace unos años ya, y de hecho hubo gente que invirtió en calefacción eléctrica mediante acumuladores (almacenaban la energía por la noche, que era más barata, para gastarla por el día en calentar la casa). Gente que luego, con los cambios en el sistema de tarificación, los han dejado con el culo al aire, ya que sus inversiones en acumuladores no van a amortizarse. El problema con ese sistema era que, por mucho que fuera más barato, ello no llevaba a cambios de hábitos de los consumidores. Al menos no con un efecto que lo justificara. El efecto de estabilización conseguido era insignificante comparado con el aumento de la complejidad en la tarificación, y en los buenos años (estos últimos años) del despilfarro, simplemente se dió carpetazo al asunto: ya se pagaría mediante el déficil de tarifa (o como diría Luis XIV, "después de mí, el diluvio").

Pero con la crisis económica y energética, la eficiencia energética vuelve a estar en el candelero. Y las nuevas tecnologías han ofertado su alternativa, que son los smart grids. Para que veáis la proyección que tienen, ahora mismo se han metido en ese mercado, y están desarrollando tecnologías, empresas como Google o Cisco. Incluso Microsof tiene su propio producto/servicio de smart grid llamado Microsoft Hohm. Estos gigantes no están metidos ahí por casualidad, sino porque hay un jugoso mercado naciente.

También hay que decir una cosa: no a todos los consumidores les gusta ésta idea de los smart grids. Los principales reparos vienen por dos vías: quienes están preocupados por su privacidad ("por qué narices me tienen que decir a mí cuando he de poner la lavadora") y los que consideran que es una imposición "para reducir artificialmente nuestro nivel de vida". Con los reparos de los primeros puedo comulgar (aunque hay soluciones técnicas mediante estándares para que no tenga que salir de nuestra casa más información que la absolutamente imprescindible para la planificación del smart grid), pero a los segundos sólo los puedo compadecer si piensan que todo esto es un complot caprichoso, porque como dice el refrán, "más dura va a ser la caída".

"Vale", diréis, "pero ¿que tiene que ver esto con la energia nuclear?". Es verdad, falta de explicar esa parte. Volvamos al modelo eléctrico. Hemos visto como la demanda de la energía varía en el tiempo. Lo que no hemos dicho es que la oferta se tiene que ajustar perfectamente a esa demanda. Es decir, la red eléctrica no puede acumular energía.* Así que, hay que producir la energía que se consume lo más aproximadamente posible, porque el resto de energía, que no puede quedarse en ningún sitio, se va liberando como buenamente puede: en forma de calor. Y eso significa sobretensiones, que queman aparatos, transformadores, y en general provocan averías y problemas. Lo mismo que los consumos excepcionales, por encima de la capacidad de la red, provocan apagones y averías —es típico que pase eso en las olas de calor en verano cuando se dispara el consumo del aire acondicionado— si un día todos decidiéramos apagar el interruptor general de nuestras casas, negocios, empresas, etc, empezaríamos a ver arder transformadores mientras los trabajadores de REE sufrían un pánico total tratando de detener de emergencia todas las fuentes de energías posibles.

Hay fuentes de energía que son fácilmente "detenibles", y otras que no tanto. Por ejemplo, puedes hacer que una turbina de una central hidroeléctrica siga girando pero sin transmitir su movimiento al generador electromagnético si es que no puedes cerrar del todo el flujo del agua por la razón que sea. Pierdes la energía potencial, pero al menos puedes impedir introducir más electricidad en una red saturada. Lo mismo puedes hacer con un panel solar, o con un aerogenerador. Puedes parar una central térmica que funcione con carbón, aunque no es tan inmediata. Sí que es son más rápidas las que funcionan con gas (Ciclo Combinado), y además te ahorras el combustible. Y finalmente, las más costosas de parar son las centrales nucleares, porque siguen consumiendo combustible aunque las desconectes de la red:
  • Renovables: (solar, hidroeléctrica, eólica, …) se pierde la energía al desconectar pero el "combustible" es gratis.
  • Combustibles fósiles: (carbón, gas, petróleo) mientras están paradas, no consumen combustible.
  • Nuclear: el proceso no se pueden parar inmediatamente, el consumo de combustible continúa en caso de desconexión de emergencia. Las paradas deben planificarse a largo plazo y son costosas.
La estabilidad y fiabilidad de la energía nuclear, que normalmente se pone como una de sus ventajas, es en realidad uno de sus inconvenientes. Si la demanda fuera constante, no habría ningún problema de que casi toda la energía fuera de origen nuclear. Pero para evitar la peligrosa sobrecarga de la red, la energía nuclear no puede superar el valor de consumo en los valles, o, cuando se llegara a esos periódos, habría que literalmente tirar la energía por el desagüe. Por eso, en ciertos momentos, a nuestro asombrado entrevistado del NYT le pagaban por consumir electricidad: porque les era más rentable que esa energía se consumiera de alguna forma (que no fuera sobrecargando la red) que el coste de desconectar una central nuclear, que no es inmediato ni fácil, y sobre todo no es barato. De hecho, si preguntáis a un experto en la materia, os confirmará que en el orden de parada, lo primero son las centrales de gas (ahorro de combustible, rápida puesta en marcha), en medio están las renovables, y lo último último, y sólo en caso excepcional, las nucleares.

"¿Pero entonces, no es una contradicción lo que dices? ¿No era el smart grid un intento de hacer más constante el consumo y por lo tanto que evitar en la medida de lo posible nucleares?" Sí, pero hay un pequeño matiz que lo cambia todo. Los smart grids tienden a hacer eficiente el consumo, es decir, a aprovecharse de la energía barata ¡A aprovecharse de la electricidad producida de más! Un modelo muy estacional con muchas nucleares, a nosotros como consumidores nos vendría de perlas, ¡pero a las eléctricas las arruinaría! Producen una electricidad que nos la tienen que vender muy barata, regalar o incluso pagar por ella (de ahí la falsa percepción de que la energía nuclear es barata). El modelo funciona porque esas pérdidas las recuperan en los picos, pero a medida que los picos se suavizan, las pérdidas aumentan hasta que las eléctricas no les compensa tener tantos MW de generación de origen nuclear. Y proceden a apagar, incluso a desmantelar centrales.

En resumen, el hecho de que la energía nuclear sea tan inflexible, junto a un consumo cada vez más irregular propiciado por el uso masivo de smart grids (buscando la eficiencia energética) hace que las propias eléctricas tengan muy poco interés en las centrales nucleares (salvo que el gobierno se las regale, claro), y sí mucha en fuents de energía que se puedan conectar/desconectar con facilidad. De ahí la inversión en Ciclo Combinado (aparte de su precio) estos últimos años como complemento de las energías de origen renovable, cuyo "combustible" es digamos "gratis", y si hay sobreproducción, pueden permitirse "regalar" (o desconectar unos cuantos aerogeneradores para que el precio no caiga por debajo de 0). Si observáis el gráfico de estructura de generación en tiempo real:


veréis como la nuclear suele mantenerse bastante constante, las renovables van a su bola según las condiciones climatológicas, y las de ciclo combinado son las que rellenan el hueco, las flexibles que permiten cubrir la demanda en los picos, y ahorrar en los valles.

La estabilidad de las nucleares, a medida que el consumo general de energía eléctrica baje (fundamentalmente por la subida del precio de la energía en comparación con los ingresos) y sobre todo a medida que el consumo, mediante los smart grids, se vuelva más errático para tratar de aprovechar las condiciones óptimas de producción (picos de renovables) van a jugar en contra de su permanencia a medio y largo plazo en países con un parque de centrales nucleares ya implantado y excesivo. El futuro, por mucho que moleste, no es nuclear.

--
* Bueno, en realidad sí acumula energía: la capacidad es la que cabe en un instante dado en todas las líneas y transformadores eléctricos, ya que por muy rápida que sea la electricidad, no es instantánea, y tiene cierto retardo. Pero a efectos prácticos, esa capacidad es bastante pequeña en comparación con la energía total transladada.

Democracia directa y Gobierno 2.0

Una de las utopías planteadas ante la universalización de las redes de comunicación es la de la democracia directa. Por democracia directa se entiende un poder legislativo (parlamento) formado por todos los ciudadanos mayores de edad, que votan por ellos mismos las diferentes propuestas legislativas que se fueran planteando, en vez de votar cada 'x' número de años a unos representantes (políticos) que fueran los encargados de realizar esta labor en su nombre (llamada democracia representativa).

Aunque fuera técnicamente posible, la democracia directa tiene un gran inconveniente, que podría resumirse en esa famosa cita de Homer Simpson: "Si elegimos a los políticos es para no tener que pensar todo el tiempo": el desinterés. Países con fuerte tradición en organizar referendums encuentran que la participación de los ciudadanos es decreciente, salvo en temas especialmente controvertidos. ¿Cómo hacer recaer el peso de tomar muchísimas decisiones, en ocasiones tremendamente complejas, en una mayoría de personas sin información suficiente, tiempo ni ganas para tomarlas? A lo que llevaría un sistema así sería a la demagogia barata, los eslóganes fáciles (pero imposibles de poner en práctica) y a la trivialización de los temas. Que es lo que vemos que ocurre en los nuevos medios de participación masiva mediante el voto (como digg/menéame/etc): un titular llamativo, una proclama, una frase fácil o una perogrullada son votadas masivamente, independientemente de que realmente sea exagerada, sacada de contexto o directamente mentira.

Por otro lado, tenemos el concepto de la web 2.0 aplicado a la política y al gobierno, denominados política 2.0 (que se define como "herramienta para sustentar la participación e interacción de los votantes y los políticos") y el gobierno 2.0 ("proporcionar un proceso más efectivo de los servicios del gobierno a los individuos y empresas mediante el uso de las redes sociales y demás ventajas proporcionadas por herramientas participativas de la web 2.0"). Podríamos hacer una buena distinción definiendo la política 2.0 como la aplicación de la web 2.0 a la democracia representativa (democracia indirecta) mientras que el gobierno 2.0 sería la aplicación de la web 2.0 a la democracia directa. En el primer caso, la política sigue encauzada a través de unos representantes profesionales (los políticos) que se encargan de la tarea de gobernar, pero ahora con un mayor acercamiento e influencia de los representados a los representantes. En el segundo caso, estos representantes profesionales no tienen un papel tan obvio, y no tienen ni siquiera por qué existir (!).

Pero una cosa es la teoría, y otra muy diferente es la práctica. Por mi experiencia en sitios sociales participativos de cierta influencia, me atrevería a decir que lo que está pasando es lo siguiente:

  1. La influencia es ejercida por pequeños grupos muy vocales. Esto se deriva tanto de la regla 90-9-1 de Jacob Nielsen (90% de los usuarios sólo escuchan, nunca participan; 9% de los usuarios paticipan un poco; y el 1% de los usuarios son los que llevan el peso de la participación) como del efecto "scratching a developer's itch"* por el cual sólo participan en los debates aquellos que están interesados en el tema en cuestión, mientras el resto de los usuarios o bien se dedican a mirar, o bien simplemente pasan del tema a otros de su interés. Esto lleva a que en la política 2.0, pequeños grupos tengan una fuerte influencia sobre los políticos, ya que sus opiniones son apercibidas como mayoritarias (cuando no tiene por qué ser así).
  2. Debido al punto 1, se establecen fuertes luchas entre grupos de intereses contrapuestos, que son los que pueden dedicar tiempo y recursos (y están fuertemente motivados) a defender su influencia en los temas que les tocan.
  3. La partitocracia entra también en este juego, ya que la influencia puede utilizarse como arma propagandística y electoral. Y no sólo se limitan a crear sus "fuerzas de choque", sino que "reclutan" otros grupos de intereses para su causa (a veces sin que éstos se den cuenta, o que simplemente les dé igual que se les utilice, mientras reciban más apoyos para su causa).
Parafraseando a Von Clausewitz, la política 2.0 se convierte en la continuación de la política por otros medios. Y en este caso estoy usando 'política' en un sentido peyorativo: como todas aquellas prácticas y actitudes que están convirtiendo a los políticos actuales en las figuras más denostadas de todas las existentes en una sociedad moderna. No me refiero sólo a la corrupción, el nepotismo, el enchufismo o la megalomanía, sino a poner los intereses electoralistas, partidistas y de adquisición de poder por encima de los intereses de los propios representados, fuente y origen de todos los males anteriores y algunos más.

En este sentido el gobierno 2.0 y el "open goverment" transcienden a la política 2.0. Lo que se pretende con el gobierno 2.0 es que los ciudadanos participen en la tarea de gobernar, es decir, en la toma de decisiones ejecutivas, no en las legislativas. Y para ello necesitan:
  • Información, datos, sobre los que tomar las decisiones. Y estos datos no pueden estar manipulados, por eso la base del gobierno 2.0 es la transparencia (es la única forma de luchar contra las campañas de desinformación que van a tratar de realizar siempre los lobbys y grupos con intereses en esas decisiones).
  • Herramientas que les permitan visualizar, tratar y ayudar a extraer decisiones eficientes de los datos crudos anteriores. Estas herramientas también deben ser abiertas y transparentes, además de modificables para que cualquiera que lo desee pueda extenderlas o ampliarlas a su gusto.
Todo esto que puede sonar a ciencia-ficción, en realidad se está empezando a hacer ya en Estados Unidos, con iniciativas como data.gov, un sitio que pretende servir de plataforma de todos los datos de las agencias gubernamentales sobre los que construir aplicaciones, o recovery.gov, que sirve como punto de control (transparencia) de dónde y cómo se están gastando los fondos del programa de recuperación económica iniciado por el gobierno Obama. Recientemente la FCC ha lanzado el sitio web broadband.gov para que los estadounidenses participen en el proceso de creación de un programa que lleve la banda ancha a todo el país. Y no son sólo es EE.UU., también Canadá ha anunciado que consultará a sus ciudadanos a través de un sitio web sobre la reforma de las leyes del Copyright, iniciativa a la que los ciudadanos ya se han sumado con sus propios proyectos participativos.

Las iniciativas de gobierno 2.0 tampoco están exentas de la regla 90-9-1 o el efecto "scratching one's itch", así que es muy probable que los ciudadanos que participen activamente sean minoría, y los que lo hagan sea en lo que entre dentro del área de sus intereses o de la que sea "experto". Que por otro lado, van a ser los que mejor van a poder usar la información disponible para llegar a los resultados más óptimos. En cierta manera, se estaría formando una especie de tecnocrácia o gobierno real de los técnicos (ya hablamos tangencialmente por aquí sobre si era posible un gobierno de tecnócratas) que son los que podrían debatir y presentar propuestas informadas y basadas en los datos, y no en soflamas fáciles y demagogia de salón. En ese sentido, el papel de los políticos como gobernantes profesionales que no saben de nada excepto de la guerra ideológica quedarían bastante en entredicho, ya que las decisiones estarían basadas en cuestiones pragmáticas más que ideológicas, y su rol obsoleto. No digo que no existieran políticos, sino que la política en un área sería una actividad más que llevarían las personas que se encuentran en ese área, y sólo cuando hubiera que coordinar intereses contrapuestos entre diversas áreas entrarían en funcionamiento corrientes de opinión más generales.

Claro que eso más que democracia, sería la República de Platón, el gobierno de la "aristocracia" (aristos = los mejores, los más cualificados). Claro que, tampoco se puede decir que lo que tengamos ahora sea realmente una democracia. Ni siquiera que la democracia sea el gobierno ideal. Como decía Winston Churchill, la democracia sólo es el menos malo de los formas de gobierno que conocemos.

Si te interesa profundizar en los conceptos de gobierno 2.0 y open goverment, una buen punto de entrada puede ser los hashtags de Twitter #gov20 y #opengov. También el twitter de Tim O'Reilly que está muy interesado e implicado en ello, puede servir de buen punto introductorio.

--
* una expresión que usa Eric S. Raymond en sus escritos sobre software libre, y que se refiere a que un programador"se rasca lo que le pica", es decir, programa según sus necesidades y motivaciones personales.

martes, julio 21, 2009

Crea tu propia economía

Cuando alguien lo expresa mucho mejor (y más brevemente) que tú... ¿para qué añadir nada?

Online, puedes literalmente crear tu propia economía. Con esto quiero decir que puedes construir un conjunto metódico de oportunidades de prosperidad y placer, análogas a las de la economía tradicional pero que residen en tu cabeza. No hay una transacción monetaria explícita, pero estás usando tus limitados recursos para maximizar el trato —la auténtica esencia de la economía. De hecho, "economía" viene de la antigua palabra griega oikonomia, usada para referirse a la gestión doméstica, y la práctica moderna de la economía está volviendo a esa idea.

El medidor tradicional del éxito económico es el beneficio, pero dentro de un tiempo encontraremos que estadísticas tales como el PIB nos dicen cada vez menos sobre los amplios esfuerzos por mejorar el bienestar humano. Una buena parte del valor de la Web se experimenta a nivel personal, y no se muestra a través de valores de productividad. Comprar plátanos por valor de $2 aumenta el PIB; tener diversión en la Web por valor de $20 no. Y su efecto es mayor. Cada día se produce un mayor disfrute, una mejor conexión social y, en definitiva, una mayor contemplación en la Web de la que podíamos siquiera imaginar hace 10 años. Pero ¿como se miden esas cosas?

Esa pregunta —y no tengo aun una respuesta completa— refleja el estado contínuo de cambio en el que nos encontramos hoy en día. Vamos a transitar a través de un montón de ajustes, y no sólo en los bienes inmuebles o las finanzas. El material gratuito presente en la Web ha hecho más severo esta recesión económica. Para muchos de nosotros, la Web es realmente más divertida que ir de tiendas, lo que nos hace más fácil recortar nuestros gastos. Aunque el iPhone haya hecho ganar mucho dinero a Apple, nuestros gastos en bienes de alta tecnología no compensa la caída de la demanda de todo el resto. Un PC y una línea de banda ancha cuestan algo, pero para esos millones de personas que ya lo han pagado, a partir de ese punto la navegación es esencialmente gratis.

Tampoco la mayoría de las actividades Web generan trabajos e ingresos al ritmo que vimos con las maravillas tecnológicas del pasado. Cuando Ford estaba creciendo a principios del siglo XX, creaba millones de trabajos y ayudaba a convertir Detroid en una ciudad de primera línea. Hoy en día, Facebook crea montones de placer voyerístico, pero gran parte del trabajo es realizado por software y servers, y la firma no ha transformado Palo Alto. La Web 2.0 no está manteniendo las estructuras del gobierno o manteniendo muchas familias —y pudiera estar dañando a algunas (pregunta por ejemplo a un reportero de un periódico). Todo el mundo en la Web ha oído hablar de Twitter, pero a pesar de ello, menos de 50 personas trabajan allí.

Todo esto suena atemorizante, pero existe una parte buena; la llamaré el "dividendo en capital humano". La relocalización del tiempo de consumo en el "sector gratuito" de la Web liberará los esfuerzos de muchos productores e intermediarios, de la misma manera que el advenimiento del automóvil desplazó a muchos trabajadores de hacer sillas de montar para caballos. De hecho, es un milagro económico que Twitter pueda mantenerse únicamente con 50 empleados. No es que sea una máquina del movimiento perpetuo, pero si otras partes de la economía fueran igual de eficientes, estaríamos nadando en un mar de cosas gratuitas o semi-gratuitas.

La segunda parte del dividendo del capital humano viene por nuestra productividad como consumidores Web. Miles de millones de personas adquiriendo un mayor conocimiento y estando mejor conectadas unas con otras. La autoenseñanza nunca fue tan divertida, y esto es debido porque controlamos el proceso como nunca antes fue posible.

[...]

Algún dia tendremos herramientas para medir todos estos nuevos beneficios. El valor de Twitter no reside en su eventual valor bursátil sino en las conexiones humanas que crea. Mi feed de Twitter es una sala de reuniones con economistas, trabajadores sociales, empresarios, amas de casa, famosos o simples amigos de toda la vida. La Web une a millones de individuos diferentes, que interactúan y a veces incluso se reunen o se casan. El mundo posee ahora un montón más de estas conexiones, y nos queda aun por ver todas sus implicaciones —incluyendo las que tienen que ver con las finanzas tradicionales de nuevos negocios, empleo e ingresos. Y puede sonar contraintuitivo, pero cuanto más tiempo pasas delante de tu pantalla, mayor será el dividendo del capital humano.
Thought-provoking era la expresión que usaba Tim O'Reilly al tuitear este artículo. Provocador. Probablemente, controvertido (sobre todo dependiendo de quién lo lea, claro, un lector habitual de este blog probablemente no le sorprenda tanto*). Pero creo que merece la pena echarle una pensada. No porque tenga que tener razón en todo lo que cuenta, sino por el cambio de... enfoque.

Si estamos en medio de una transformación hacia una nueva sociedad, y la crisis es su punto de ruptura, no podemos atisbar hacia donde nos dirigimos usando los gastados railes del modo de pensar de la "antigua" sociedad. También hay que innovar en el pensamiento. Y eso sólo se consigue poniendo uno por uno en duda los pilares de nuestro antiguo armazón social, y preguntándonos "¿y si...?".

En realidad, no estaríamos haciendo nada distinto de lo que muchos escritores de ciencia-ficción han hecho ya (ni siquiera el planteamiento de ésta persona se puede decir que sea radical u original en el contexto de la CF...).

Actualización: por poner el punto de contraste, recojo de los apuntes de Santiago Niño Becerra de hace una semana:
MySpace va a realizar una barrida en su plantilla: el 30% en USA y el 60% fuera de USA. ¿Cómo es eso?, ¿no decían que la web 2.0 era el presente y que las redes sociales iban a ser la base de la sociedad futura?. Véanlo de otra manera: colgar fotitos de las vacaciones en las Mauricio, ¿es necesario?; más aún, ¿lo es ir de vacaciones a las Mauricio?. Recuerden: no lo olviden: lo necesario es lo importante.
¿Se entiende ahora mejor por qué fuí tan duro en mi crítica sobre su análisis de la crisis en su libro? SNB está haciendo un análisis puramente clásico, sin cuestionarse siquiera el valor que puedan representar (podría extenderme aquí sobre hablando de Open Gov, Open Data, etc). Y de todas formas, MySpace no es que sea precisamente una red social de moda actualmente (y en la web 2.0, el devenir de las modas manda).

--
* o al menos pienso yo que no debería. :-D

lunes, julio 20, 2009

El fiasco del DRM

El reciente despropósito de Amazon consistente en borrar de los Kindle libros* ya comprados por sus clientes [2] aun con devolución del dinero, vuelve a poner sobre el tapete el fiasco que es el DRM (Digital Rights Management, gestion digital de derechos). La defensa de Amazon de que se trataban de ediciones no autorizadas de los libros en cuestión no pasa de ser una mera excusa que sólo sirve para desviar la atención del verdadero problema: la "gestión de derechos —supuestamente de autor—" no pasa de ser un eufemismo de "restricción de derechos del lector" (me voy a centrar en el DRM de los ebooks, pero es extrapolable a cualquier otro contenido).

Hablando de derechos de autor**, da la falsa impresión de que estamos hablando del control por parte de su creador o autor, cuando el que realmente posee los derechos de explotación de una obra es el editor (la editorial)***. El autor crea, pero el que realmente publica y hace de vender libros —sean de papel o electrónicos— su negocio es la editorial. Así que lo primero es que el DRM o gestion de derechos digitales es un mecanismo de control hecho para la defensa del modelo de negocio de distribución digital de contenidos de las editoriales, no para la defensa de los derechos de autor.

El problema fundamental del DRM es que, por intentar defender a una de las partes, se olvidan y restringen fuertemente los derechos de la otra: los lectores y compradores. En la pifia de Amazon es flagrante, pero no es el único caso que se da, como nos recordaba recientemente Cory Doctorow en una discusión sobre el DRM [round 2]. Hay multitud de casos de derechos que antes eran plenamente asumidos en el formato de papel (el más habitual: prestar un libro a tu pareja/familia/compañero de habitación/...) que cuando el DRM entra en escena, se pierden completamente con la excusa de "defender los derechos del autor".

El DRM proporciona el control discreccional del contenido en exclusiva a una de las partes —el vendedor— y deja indefenso al comprador ante los intereses económicos de éste. Es el problema de siempre: ¿quién vigila al vigilante? Porque los editores y distribuidores de contenido se erigen, con el DRM, en vigilantes de los derechos de los mismos, pero nadie les vigila a su vez que éstos no atenten contra los derechos de los lectores. Y cada vez restringen más los derechos que antes se tenían con un ejemplar en papel. O al menos derechos que tradicionalmente se han asumido con las obras de papel, porque si uno lee las notas de copyright actuales, hasta el prestar un libro a un amigo aparece como constitutivo de violación de copyright:

"Todos los derechos reservados. Queda prohibido la reproducción total o parcial de ésta obra por cualquier medio o procedimiento, ya sea electrónico o mecánico, el tratamiento informático, el alquiler, o cualquier otra forma de cesión de la obra sin la autorización previa y por escrito de los titulares del copyright".
Además, la aparición de los ebooks, separando contenido y continente, ha planteado incómodas cuestiones de derechos que el DRM pone aun más en la picota:
  • ¿Por qué no puede alguien que ya posee un libro en papel transformarlo a un formato digital? ¿No abonó en su día los correspondientes derechos de explotación?
  • Asimismo, ¿en base a qué no va a poder un comprador de un ebook imprimir una parte o todo del mismo por su comodidad o conveniencia?
  • ¿En virtud a qué derecho de autor se le niega al comprador de un ebook la posibilidad de transformarlo a otro formato digital, para su disfrute en otro dispositivo, ya sea ahora o en el futuro cuando el formato actual no esté soportado?
  • ¿Quién nos garantiza que la plataforma de DRM no cierre/quiebre/fracase y nos quedemos sin poder acceder a los contenidos legítimamente adquiridos? (atención, esto no es una hipótesis, ya pasó con el antiguo servicio de música de Microsoft)
Paradójicamente, el tradicional libro de papel de toda la vida, está libre de cualquier tipo de DRM: es perfectamente posible fotocopiarlo, escanearlo, incluso teclear su contenido sin que haya ninguna restricción tecnológica que lo impida. Es posible prestarlo a cualquiera, sin que haya ninguna manera de controlar a quién o cuantas veces. La única "protección" es la declaración de copyright que he transcrito más arriba, unas cuantas palabras disuasorias. Esas palabras son más que suficientes para los editores en el caso de papel, pero en el caso del formato electrónico, exactamente las mismas palabras les resultan inconcebiblemente insuficientes. Señores editores: el que quiera saltarse las leyes, lo va a hacer de todas, todas. El DRM sólo sirve para fastidiar a los usuarios legítimos, y como tales son éstos los que más lo detestan.

El DRM presenta ese gran efecto disuasorio de cara al consumidor. Los derechos que adquiere son, merced a la tecnología, 'revocables' (controlados desde fuera), así que en realidad el comprador no lo percibe como una compra (transacción imposible de deshacer) sino como un alquiler temporal. Esa desconfianza provoca un gran rechazo, lo que provoca a su vez que el consumidor busque copias de las que se sienta 'propietario' para hacer con ellas lo que quiera, y si legalmente no existen, recurre, como en tantos casos, al mercado negro, en este caso a la —mal llamada— piratería. O sea, el efecto contrario al que se pretendía. Por eso, hasta la propia RIAA reconoce ya que 'el DRM está muerto'. ¿Cómo podría ser de otra forma, si la tienda que más música vende ha dejado de usarlo?

La única "gestión de derechos" aceptable es la que sea garante de los derechos de todas las partes. Es decir, la gestión ejercida por las leyes y los tribunales. Y para eso, no hace falta ningún dispositivo electrónico ni esquema criptográfico. Lo único que hace falta es un corpus legislativo justo y equitativo para todos.

No me extraña que en ThePublicDomain.org se pregunten si no éramos más inteligentes (con respecto a las leyes del copyright) hace 100 años.

--
*para más inri, se trataba de ediciones de los libros de Orwell '1984' y 'Rebelíón en la granja'.
** se mezcla interesadamente los conceptos de derechos de autor o morales (al reconocimiento como autores y a la inalterabilidad de la obra, que son derechos irrenunciables de los autores de una obra y que no expiran nunca) con derechos de explotación, que son los que son negociables y vendibles (reproducción, interpretación, obras derivadas) y que tienen un periodo máximo de validez tras el cual pasan al Dominio Público.
*** excepto en los casos en los que el autor se autopublique, que actualmente siguen siendo minoritarios.

sábado, julio 18, 2009

El día que la prensa se declaró derrotada

Desde hace unos meses, los grandes periódicos vienen manejando la idea de hacer de pago sus ediciones en Internet. Recientemente, en una entrevista en su propio periódico The Wall Street Journal, el magnate de los medios Ruperth Murdoch declaraba lo siguiente:

[Entrevistador]: May I ask you about making money out of digital? That seems to be a big problem in the Internet area. How do you take your analog dollars and turn them into digital dollars? Has anybody got any good answers there at that conference?

Murdoch: Yes, we have the answer. We’re doing it now very well at The Wall Street Journal. You’ve got the wallstreetjournal.com and you pay for it. And there is 1.25 million people nearly who are doing that. And we get a lot of advertising with it. It’s a big business for us.

And no one else has had the nerve to do that yet. And I think, you know, we’re very specialized there and people in finance or with investments probably need us more than they need, you know, an ordinary local newspaper.

But I do believe you’re going to see — and we have a lot of plans I’m not ready to disclose yet, to really lead the newspaper industry into monetizing what it has. It’s true what people say, the distribution of news, it gets cheaper every day because of new technology.

And one day you won’t need printing presses or paper. But you’ve still got to have something to move, and that — i.e. content, the news itself. And that can’t come free.
El remarcado en negrita es mío, y lo he remarcado porque Murdoch, con estas dos afirmaciones acaba de alzar la bandera blanca y declarar a la prensa de papel, definitivamente derrotada. Y lo dice muy claramente: los nuevos medios se están imponiendo, porque son mucho más baratos. Mucho más baratos para el que los produce (Murdoch entre ellos) y más baratos para los que los consumen, así que el que quiera ponerse en el medio simplemente va a ser barrido por los hechos.

Hasta ahora la prensa no había querido apercibirse de la situación; pero la crisis, que está aquí para quemar las "malas hierbas" y regenerar el bosque (o dicho más prosáico: destruir los modelos obsoletos y caducos para permitir florecer a los nuevos), ha puesto a cada uno en su sitio. Y mientras los grupos editoriales ven como, mes tras mes, sus ventas en papel se despeñan, van a intentar la última salida, que es la de cobrar por los contenidos de Internet.

La medida es desesperada y con toda probabilidad suicida, pero deberéis entender su lógica: las editoras de periódicos y revistas saben que la edición en papel no les va a mantener más: los costes se disparan y a la vez los ingresos (tanto por publicidad como por número de ejemplares vendidos) están en caída libre. La única salida es Internet, así que hay que monetizar ese nuevo medio como sea. Porque es la única manera de mantener sus negocios con vida.

Hasta ahora los grupos de comunicación se habían podido permitir periódicos poco rentables o incluso deficitarios, porque el resto de los medios del grupo (televisión, radio) compensaban las posibles pérdidas, y a la vez reutilizaban el prestigio y la influencia del medio en papel, realimentándolo a través del resto de canales (¿quién no ha visto una tertulia en TV mostrar y usar como punto de partida la prensa del día?). Pero con una audiencia desapareciendo rápidamente, no hay influencia. Si no hay influencia, no sirve de mucho la realimentación. Tampoco la caída publicitaria ayuda, ya que el periódico o la revista es económicamente cada vez más inasumible. Y como la caída es general, significa que el resto del grupo de comunicación ya afronta suficientes recortes de gastos como para mantener a rémoras con menguante rendimiento. El resultado es que los periódicos y revistas de papel, tanto pertenecientes a grandes grupos, como independientes, están condenados.

Alguno, llegados a este punto, querrá recordarme eso de "el video no mató a la estrella de la radio". En realidad, el video sí mató a la radio, puesto que la radio tuvo que ver cómo se esfumaba gran parte de su influencia, y tuvo que reconvertirse y moverse allí adonde la televisión no podía llegar. Pero sin duda fue un golpe mortal. Lo mismo puede decirse de la reconversión de la prensa de papel con la llegada y popularización de la radio. Don Torcuato Luca de Tena era en sus tiempos de director de un periódico alguien con un poder y una influencia capaz de hacer temblar gobiernos (equiparable hoy en día sólo con el de los más poderosos empresarios y presidentes de club de fútbol). No voy a ser tan obtuso como para afirmar una desaparición total e inmediata de periódicos y revistas en papel, aunque sí que esta nueva reconversión los arrinconará definitivamente a nichos muy reducidos, en los que el precio sea un criterio menor frente a su valor como objeto de culto o fetiche.*

Irónicamente, el periodismo escrito ha vuelto brevemente a la palestra durante los últimos años, a caballo de una Internet basada en el texto, y por lo tanto en la lectura. Y por eso los media desembarcaron sus cabeceras de prensa en Internet, en busca de la audiencia jóven perdida. El resultado ha compensado en cuanto a esa audiencia. Pero en cuanto al aspecto económico, el fracaso de El País al intentar pasar a ser de pago debería haberles servido de escarmiento suficiente para optar por una política mucho más cauta. Como estamos observando, no está siendo así. En su carrera desesperada hacia no se sabe muy bien donde, están demostrando que han olvidado un principio fundamental: que ellos no son creadores de noticias, sino simplemente sus transmisores y difusores. Y el problema fundamental que tienen es que la transmisión y difusión de información era un oligopolio que está irremediablemente roto desde la popularización de Internet y no puede recomponerse de ninguna de las maneras.

Internet se ha convertido en el medio de comunicación definitivo: la tecnología ha rebajado tanto el listón de entrada, que ahora cualquier persona puede llegar a cualquier persona. Como decía el abogado especializado en Internet Javier de la Cueva:
Yo soy mi periodista y mi periódico
Y la realidad es que cualquiera, incluido éste su seguro servidor, también es su propio periodista y tiene las herramientas para tener, con un coste reducidísimo, su propio periódico (como es éste blog) donde expresar sus ideas, opiniones e idas de olla varias en artículos más o menos elaborados (como el presente, sin ir más lejos).

¿Puede funcionar un modelo de pago?

Sí, siempre que aporten un valor añadido que esté en consonancia con el precio del mismo. No, si no ofrecen nada a cambio que justifique ese precio.

Los grandes medios de comunicación están planteándose un modelo de pago por contenidos. Pero, basándose en experiencias pasadas en las que afirman que el fracaso se debió a la competencia de otros medios que ofertaban gratuitamente los mismos contenidos por los que ellos querían cobrar, y que terminaban reventando el modelo, ahora han vuelto todos juntos de la mano pensando que si forman un trust (o sea, todos cobrando al alimón), recuperarán el oligopolio de la comunicación que antes tenían, y por lo tanto sus ingresos. Sólo que ahora lo harán a través de Internet en vez de mediante el papel.

Así que todo pasa por establecer de nuevo el control de la información. Y aquí es donde empiezan a encontrarse los problemas, porque el modelo es insostenible se mire por donde se mire.

Pongamos un ejemplo, para que se entienda. Pensemos en una noticia sobre la NASA. Antiguamente, nos hubiéramos enterado de la noticia a través de un medio de comunicación, sea prensa, radio o televisión. Hoy en día, nos podemos enterar también directamente en la página web de la NASA: www.nasa.gov. Lo que antes eran notas de prensa que llegaban a las agencias de noticias, que a su vez distribuían a sus medios asociados, ahora son noticias servidas en varios formatos a través de varios servicios web (no sólo la página web, también por ejemplo a través de Twitter). El resultado es que cualquiera tiene al alcance la fuente original. No necesita de intermediarios para acceder a la información "en bruto". Es más, cualquiera puede hacerse a su vez intermediario, y servir la información "cocinada" a otros, según su pericia y conocimientos. A partir de ahí surgen diversos medios (blogs, revistas digitales, listas de correo, grupos de Facebook, agregadores de noticias, etc, etc) que pueden ser llevados tanto por aficionados como por profesionales, y que cumplen el papel de intermediarios de esa información. Y todos esos medios de Internet rompen el modelo de oligopolio de la información de base, puenteándolo. Y lo hacen de una forma, además, inevitable.

Alguien puede pensar: "ese es un ejemplo particular". Bueno, en realidad todos los organismos científicos públicos operan de la misma forma. Es más, no es algo restringido a la ciencia, ni mucho menos: las agencias gubernamentales o dependientes del estado, por su vocación pública, deben servir su información sin cortapisas al ciudadano. Piénsese en el Instituto Nacional de Estadística, en cualquiera de los ministerios o en el Banco de España (con respecto a las noticias económicas). Piensese en la Agencia Estatal de Meteorología o póngase el ejemplo que se quiera.

Ahora me diréis: "pero eso es porque al ser públicos, el dinero lo ganan del Estado". No, eso es porque su interés/motivación no está en el ámbito de la intermediación de la información. Generan información como resultado de su actividad, pero su actividad no es vender información.

Vayamos al campo privado. Cualquier empresa que produzca cualquier producto está usando su página web (o cualquier otro sistema) como medio para informarnos del mismo. De hecho ¡pagan dinero por publicitar su página (medio)! Pagan dinero por posicionarse en los buscadores (SEO), pagan dinero por publicidad, recurren a las redes sociales o los mecanismos que sean para que sus noticias (sus notas de prensa) sobre sus productos lleguen al público. Estamos hablando de que ellos no cobran, sino que pagan porque se difunda su información. ¿Van a poner restricciones a que nadie se las distribuya gratuitamente? Ni en sueños. Al contrario, todas las técnicas de marketing modernas (marketing viral, etc) son técnicas que se basan en que sean otros los que, sin costo, transmitan la información que a la empresa le interesa (tal vez como huesped de una información mayor). Y estamos hablando de todo tipo de empresas cuyo negocio no sea la intermediación de información (o sea, la gran mayoría).

Otro campo donde la transmisión de la información no sólo no es algo a impedir, sino algo a promocionar como sea, es la ideología, y por lo tanto la política, la filosofía, la religión, y todo lo que tenga que ver con las opiniones. ¿Os imagináis a un político negándose a dar un mitín en un lugar porque no le pagan? Yo diría que el político intentará dar el mitin aunque le cueste dinero. No creo que ningún político vaya a ponerse borde porque se lean gratuitamente sus declaraciones, ni porque cualquiera las distribuya. Al contrario, utilizarán las mismas tácticas que las empresas para vender productos, sólo que ellos con el objeto de imponer sus puntos de vista sobre los adversarios políticos.

Y a ésto le podemos sumar los medios que no van a formar parte del oligopolio:
  • En Alemania, las cadenas públicas son presionadas para que no pongan sus contenidos en Internet, acusadas de "competencia desleal". ¿Acaso lo podían hacer de otra forma, siendo como son medios de comunicación, pero pagados con el dinero de todos, y por lo tanto de los cuales todos tenemos derecho a disfrutar? En Europa hay una fuerte tradición de medios públicos (por ejemplo la BBC) y además es muy difícil se acepte que dichos medios públicos adopten el modelo de pago por acceder a la información. Así que esos medios públicos son un escollo difícilmente superable para establecer cualquier tipo de oligopolio. Aquí en España nadie ha dicho todavía nada, pero si os pasáis por rtve.es, veréis como podrían servir perfectamente de intermediario de noticias, o como alimentadores de noticias a otros sitios (blogs, agregadores, etc). ¿Cuanto tiempo tardarán los medios españoles en protestar igual que sus homólogos alemanes?
  • Medios gratuitos: ¿os imagináis un periódico gratuíto en papel pretendiendo cobrar por sus contenidos en formato digital? Por supuesto, los periódicos gratuitos van a desaparecer en papel. Pero no tienen porqué hacerlo necesariamente en formato digital.
Recientemente, una serie de medios europeos mandaron una carta (denominada pomposamente "Declaración de Hamburgo") a la comisaria Viviane Reding, exigiendo una legislación que "controlara el acceso automático de motores de búsqueda y agregadores de noticias" a las noticias "de medios de información" (je, como si las noticias fueran suyas). Esta carta ha sido contestada graciosamente por Google: "Adelante, bloqueadnos usando el robots.txt". Lo cual ha sido todo un sopapo en la cara a todos estos editores llorones**, puesto que ha dejado bien a las claras que lo único que están intentando es mendigar un poco de dinero a la Unión Europea: ya saben perfectamente que desaparecer de Google es desaparecer de Internet.

Los grandes de Internet son en realidad los nuevos intermediarios de la información, y Google es el primero y mayor "peso pesado" de todos ellos. Como dije en un artículo reciente, Google ha generado todo un ecosistema donde insertar su publicidad, y ha dejado que sean otros los que gratuitamente (o cobrando mediante la publicidad contextual) hagan el trabajo de intermediación, y rellenen el contenido. Ellos sólo se encargan de redirigir al usuario a su destino (y cobrar a los que quieren ser también receptores de esos usuarios, como empresas que venden productos relacionados).

Como he dicho ya varias veces, los medios de comunicación tradicionales no pueden imponer nada porque simplemente carecen del control para hacerlo. Podrán cobrar en la medida en aporten valor añadido a la cadena de intermediarios. Si aportan un contenido realmente original, novedoso, una elaboración de la información en bruto que merezca la pena sobre otras, funcionará. Si pretenden cobrar por lo que otros muchos van a hacer gratis, o casi gratis (publicidad contextual, etc), van a fracasar estrepitosamente.

Hay que remarcar que esto no pone en entredicho el papel del periodismo. Al contrario: el periodista es ahora una pieza mucho más importante. De hecho, cada periodista se convierte en un potencial medio de comunicación por si mismo. Y sólo los realmente buenos en su trabajo de intermediación/filtro/elaboración serán los que sobrevivirán, puesto que la competencia será enorme y feroz. El futuro es de los medios muy especializados, con poco personal, muy flexibles y muy profesionales.

--
* En tono jocoso: 10 Reasons You'll Actually Miss Newspapers (aunque olvidan uno fundamental: sustituto de emergencia del papel higiénico)
** además de dejarlos como unos ignorantes en cuestiones técnicas, puesto que lo que piden se puede hacer escribiendo un fichero de 2 líneas en su sitio web

lunes, julio 13, 2009

Resúmenes de libros en menos de 140 caracteres

Y @jlalcazar dijo:"@jcantero un negocio a medias "twitterbooks" tus libros resumidos en 140 carácteres, no se puede resumir mas en menos." Y no me pude negar. Aquí, el resultado en una sola toma cada 12 horas:

ESdlA: Mientras elfos, hombres magos y enanos entretienen al Señor Oscuro, un pequeño hobbit tira su anillo mágico favorito al volcán.

Fundación: Matemático del Imperio Galáctico en ERE funda colonia de geeks y nerds para que conquiste la galaxia en mil años. Por duplicado.

Juego de Ender: Niño reclutado por el ejército a fin de poder ganar el campeonato interestelar de Starcraft 3. Mientras sus hermanos trolean

Criptonomicón: oro, oro, oro, un señor que aparece en todas partes, oro, oro, oro, un código criptográfico, oro, oro, oro (pero sin enanos).

Las estrellas, mi destino: como coja al que me dejó tirado en aquella nave espacial, lo voy a poner mirando a Cuenca. *jaunteo* *jaunteo*

Snow Crash: vivo en un contenedor pero en el metaverso soy 1337. Haber actualizado el antivirus. Mira que moto molona tengo. Yo también.

Solaris: ¿Qué haces *tú aquí? Este planeta es muy raro, parece hecho de engrudo. Nadie quiere hablar conmigo. Introspeccion contemplativa.

El Señor de la Luz: Tío, es guay pasarse por dioses hindúes con la tecnología, engañando a los nativos. ¿Por qué quieres cortarnos el rollo?

La Luna es una Cruel Amante: O nos dáis la independencia, o arrasamos vuestras ciudades terrestres a asteroidazo limpio. Nada personal.

Hyperion: Déjame que te cuente qué hago en este planeta a punto de ser invadido, y habitado por un ser lleno de pinchos. Y así 6 o 7 veces.

El Aprendiz de Guerrero: Soy enano y se me rompen los huesos, pero como soy un puto genio, termino teniendo mi flota espacial. Y no me riñen

Crónicas Marcianas: Marcianos, sólo venimos de visita. ¿Donde están los marcianos? Una vez vi un marciano. Que bonito sitio para vivir.

La Guerra Interminable: 1000 años para ir y 1000 para volver de una puta mision. Y cuando vuelvo me dicen que se ha acabado la guerra.

Todos sobre Zanzíbar: si es que tanta gente junta, apiñada en tan poco sitio, no podía terminar bien. Aghh, alguien me ha pisado.

Neuromante: Somos freelancers contratados por una megacorp para hacer espionaje industrial. Somos unos perdedores, pero nuestras ropas molan

La mano Izq. de la Oscuridad: si te gustan los planetas fríos y los humanos que cambian de sexo como si fueran las paperas, éste es tu sitio

Yo, Claudio: mi abuela envenena a toda la familia menos a mí, porque piensa que soy tonto. Pero no lo soy y al final me hacen emperador.

Marte Rojo: somos los 100 primeros colonizadores de Marte. Pero nos llevamos mal, hacemos grupitos y terminamos a hostia limpia.

Tropas del espacio: Profesor da discurso fascista. Chico se alista en los marines para ir a matar bichos. Siguen más discursos fascistas.

Picnic junto al camino: Saqueadores de una zona cerrada de contacto OVNI. Si tocas lo que no debes, o pasas por donde no debes, te mueres.

Harry Potter: celebrity del mundo mágico va al instituto. Se hace estrella del deporte. Junto al sinsustancia y la empollona vencen al malo.
Y recuerden:
➊ La administración no se hace responsable de la veracidad de los resúmenes de libros emitidos.
➋ Cualquier parecido con la realidad es pura coincidencia (o no).
➌ En caso de duda, consulte a su bibliotecario de guardia.

domingo, julio 12, 2009

Reseña: 'El crash de 2010' de Santiago Niño Becerra

Aviso: despues de escribirlo, me he dado cuenta que la lectura de ésta entrada puede resultar un tostón infumable. Léase con moderación, y sólo si se dispone de tiempo libre que perder con cualquier cosa. En caso de duda, consulte con su farmaceútico. Puede provocar somnolencia.
El catedrático de economía Santiago Niño Becerra se ha convertido en uno de los Cuervos Seldones de la Gran Crisis económica que nos afecta. Admirado por algunos, denostado por algunos más, e ignorado hasta hace bien poco por la mayoría, su recientemente publicado libro 'El crash de 2010' le ha hecho saltar al escenario mediático por lo que se consideran sus "catastrofistas predicciones". Predicciones que viene haciendo periódicamente desde el año 2006 en su columna diaria en La Carta de la Bolsa, y de las cuales podéis encontrar un enormemente largo hilo recopilatorio en burbuja.info (el buscador de La Carta de la Bolsa apesta y no hay manera de hacer un enlace directo al conjunto de sus artículos).

Refiriéndome estrictamente al libro, he de decir que es bastante diferente enfrentarse al mismo como lector habituado a las columnas de SNB, que como neófito que llega por primera vez a sus teorías. Para el neófito, el shock me imagino que puede ser tremendo, y dejarlo un tanto desorientado. Pero los "iniciados" nos encontramos con un texto que no sólo no nos descubre nada nuevo, sino que se queda tremendamente corto respecto a lo que el propio autor suele desentrañar, cuando quiere, en sus artículos. Y también refleja algunas de sus contradicciones.

Tal vez sea este el aspecto que me resulta más frustrante. Evidentemente, no me esperaba un estudio técnico económico de la crisis, un tratado que estaría sólo al alcance de los especialistas en la materia. Es una obra de propósito divulgativo, y como tal tiene, por fuerza, sus esclavitudes. Pero aun así, me ha sabido a poco. A bastante poco. En unas 163 páginas de texto (menos, hay unas cuantas en blanco) y otras 60 de anexos (incluyendo gráficas, notas al pie y biblografía) se despacha toda la explicación de su teoría del crash de 2010. Pero que en realidad, lo que es realmente el meollo del asunto, se reduce a un capítulo central, titulado 'La crisis de 2010', de unas 40 páginas, que se me antoja tremendamente sintetizado, siendo el resto pura preparación (y alguna que otra divagación).

Supongo que en este caso hay que aplicar la regla del Martillo de Oro ("para aquel que tiene un martillo, todos los problemas son clavos"). Para un profesor de Estructura de la Economía, su visión tiende mucho a centrarse en la historia y el análisis de los sistemas económicos, sobre todo desde un punto de vista macroeconómico. Por eso de su insistencia a lo largo de libro en la teoría de las crisis cíclicas, aunque en su caso emplee ciclos incluso mayores que los de Kondratieff, de 250 años de media*, que es lo que vendría a durar un modelo económico (el último cambio correspondería a la década de 1810, donde se transicionaría del modelo mercantilista al modelo capitalista) y su empeño de clasificar esta crísis dentro del apartado de las crísis sistémicas sufridas por el capitalismo —sería la tercera tras la de 1870 y la de 1930— y por lo tanto postponer el fin del mismo a los alrededores del 2060.

Sin embargo, en el capítulo mencionado de 'La crisis del 2010' el autor comienza haciendo referencia a la teoría del Peak Oil de Hubbert y cita las previsiones de ASPO del congreso de Barcelona de 2008, que lo sitúan en 2012. No es el momento ni el lugar para ponernos a discutir sobre la teoría del peak oil, decir simplemente que yo estoy de acuerdo con ella. Luego está el asunto de ponerle fecha, que es bastante más complejo (hay desde quien defiende que ya se produjo en 2005, hasta quien lo sitúa en 2018 o incluso más allá). Pero, sea cual sea la fecha elegida, lo que está claro es que el peak oil es, desde el punto de vista de la teoría económica, un hecho totalmente fortuito, que en nada puede relacionarse con ciclos económicos estacionarios.

El peak oil podrá haber pasado, o pasar dentro de 10 o 20 años, pero creo que es difícil poner en duda que sus efectos son lo suficientemente devastadores como para provocar un cambio de modelo económico. Lo que haya después del peak oil no será capitalismo. Se le llamará postcapitalismo o se le llamará como sea, pero no se caracterizará por las bases que sustentan al modelo económico actual, al que llamamos capitalismo. Y es ahí por donde empieza a hacer aguas el argumento de su predicción en base a los ciclos de 250 años. Puedes aferrarte a la interpretación del "tocar techo" asociada al peak oil, y la posterior fase de decrecimiento, o puedes hacerlo a la teoría de los ciclos económicos, pero no puedes hacerlo a ambas a la vez, porque estás dando por hecho que las fuentes de energía tienen una duración concreta para que se ajusten a tus "ciclos", algo racionalmente imposible de creer.

Estoy de acuerdo en que a esta crísis se ha llegado por una exacerbación del modelo crédito-consumo (o como le gusta denominar a SNB, una situación de hipercrédito e hiperconsumo). Estoy de acuerdo que tiene que ver en parte con el peak oil, y digo en parte porque el peak oil es sólo una manifestación en el campo de la energía (campo por otro lado fundamental) de un fenómeno mayor, que es el modelo de crecimiento exponencial desbocado, que está produciendo un agotamiento de todo tipo de recursos, no sólo de la principal fuente de energía. Como en el documental Aritmética, Población y Energía nos recuerdan, simplemente somos demasiados consumiendo cada vez más de todo. Y en el mundo real, el crecimiento infinito no existe porque todo tiene un límite físico que no podemos sobrepasar. Es este aumento de la demanda de los recursos, de las commodities —que llaman los economistas— las que han empujado los precios de las mismas al alza para regular su demanda a la baja, o para aumentar su eficiencia a través de su precio. Y es la negativa de los distintos gobiernos y autoridades económicos a reconocer y enfrentarse a éste error de base del sistema, la que ha llevado a la huída hacia adelante de recurrir al dinero del futuro. Al crédito, en definitiva.

Y también estoy de acuerdo plenamente con SNB que el crédito es también un recurso, una commodity como pueda ser el petróleo, el arroz, el agua, o los caladeros de peces, y que como tal tiene un límite. Un límite definido, probablemente, por la edad vital y laboral, ya que hemos llegado a un punto de endeudamiento en el que la única manera de generar más deuda, la única huída hacia adelante que le queda al sistema sería que las deudas las heredasen las siguientes generaciones. Algo que es, simplemente, impracticable puesto que nadie puede asegurar que las nuevas generaciones estén dispuestas a aceptar deudas "de nacimiento", y por lo tanto, son de muy dudoso cobro. Y los créditos de muy dudoso cobro directamente no se conceden. Con lo que queda bien a las claras que el crédito es un recurso escaso, y encima menguante, con lo que a partir de ahora habrá que racionarlo a quienes verdareramente lo necesiten.

Coincidiendo con SNB (o SNB conmigo) en este análisis de la situación, lo que no comprendo es por qué, con todos las piezas de montar el puzzle, no llega a la conclusión lógica, que no puede ser otra que la de fin de ciclo económico. Tal vez porque lo de "fin del capitalismo" suena demasiado a marxista trasnochado. En realidad, por mucho que insista en su obra, los ciclos económicos más allá del paso del mercantilismo al capitalismo pueden datarse en periodos de 250 años. ¿Qué hay de la revolución neolítica? El nomadismo paleolítico duró miles de años. La protocivilización sumeria sedentaria tardó cientos si no miles de años en asentarse y transmitirse a otras zonas, como Egipto. No parece que el modelo esclavista de la antigüedad sufriera muchas variaciones (incluso con la introducción de la acuñación de moneda o la contabilidad) hasta el surgimiento del cristianismo y la desmembración de los valores del viejo Imperio Romano. Simplemente, tratar de dividir los avances político-económico-sociales en intervalos regulares suena a tratar de obtener un patrón del ruido blanco. Si pruebas muchas combinaciones, y te fijas en una ventana de tiempo concreta, tal vez te parezca ver ahí un patrón, pero en realidad eso no prueba que el patrón exista, sino que has adaptado los parámetros del experimento hasta llegar al resultado que te convenía. Con el esquema cíclico de SNB me pasa algo parecido.

En cambio, si tomamos como parámetro fundamental la capacidad para propagar los cambios y las novedades, sería mucho más lógico pensar que en el pasado remoto del paleolítico, cuando los cambios se transmitían a pie, y de generación en generación, éstos duraran grandes periodos de tiempo en acaecer. Mientras que en un estadio actual de "aldea global hiperconectada", los cambios y las crisis se sucederían a un ritmo mucho mayor. No digo que ésta sea la verdad, pero sí que es un esquema que racionalmente, encaja intuitivamente mejor con lo que conocemos, y por lo tanto, podríamos estar perfectamente en cualquier estadio no conocido de gravedad de una crisis, desde una pasajera (lo dudo) hasta a una mayor que cualquiera de las que ha existido hasta ahora.

Por eso, toda la perspectiva histórica que expone el autor en los primeros capítulos, aunque es interesante en sí, para saber de dónde venimos y porqué ciertas economías presentan un retraso endémico frente a otras, realmente no es una base sobre la que sostener que exista una crísis porque sí, porque "es lo que toca". Existe una crísis porque se han hecho mal las cosas, o mejor dicho, no se han querido rectificar las políticas en su debido momento porque "eran impopulares". Se ha optado por el pan para hoy, y el hambre para mañana, sólo que ayer ya nos comimos el pan, y es hoy cuando toca pasar hambre. Tampoco hay una garantía de que la crisis desembocará en un nuevo estadio capitalista, con unos parámetros distintos a los conocidos, y simplemente seguiremos adelante tras pasar unos años malos. Simplemente, no sabemos lo que va a ocurrir, y si lo que va a ocurrir es bueno o malo dependerá de donde desemboquen las soluciones que tomemos ahora . Y no de un devenir histórico cíclico y "planificado", que me recuerda a la psicohistoria de Hari Seldon de la saga 'Fundación' de Isaac Asimov.

Y es eso precisamente, las conclusiones, las que más hecho a faltar en el libro. Las líneas generales las conocemos de sus columnas: "ir-a-menos", eficiencia y productividad, desempleo creciente de los "factores productivos" de baja cualificación, salvo para casos puntuales, y establecimiento de un "subsidio de subsistencia" para cortar cualquier brote violento de grupos llevados a una situación desesperada. Racionamiento de los recursos naturales y demás commodities y dedicación de los mismos a lo que sea "absolutamente necesario". Todo esto no tiene nada de novedoso, encaja como un guante con los postulados de la teoría del decrecimiento. Pero a partir de ahí, SNB no se atreve mucho más. A decir que tal o cual país lo va a pasar peor o mejor, por su capacidad de adaptación, algo tremendamente dudoso, puesto que si no sabes a qué debes adaptarte, no sabes que punto de partida será el más ventajoso para ello. Por ejemplo, en un escenario de decrecimiento, los países con poca población, buena tierra, fértil, buen clima, y que conserven las técnicas de cultivo ancestrales probablemente lo pasen mucho mejor que una atestada e industrializada Gran Bretaña. O tal vez no. Pero sin saber los cambios que se avecinan, es difícil, muy difícil saberlo.

Tal vez SNB haya huído de querer incluir predicciones como la que hizo en una columna sobre la desaparición de las plantas ensambladoras de automóviles de España para el 2013. Predicciones "apocalípticas" muy llamativas, pero que lo vuelven blanco del escepticismo. Pero no hubiera estado de más que hubiera echado mano a lo que los propios CEOs de las grandes automovilísticas han reconocido en público: que el sector está sobredimensionado en probablemente un 50% a nivel mundial. Y no por una cuestión de derrotismo, sino por simples números.

Pero tal vez lo que más se echa en falta es tal vez una referencia a lo que la revolución de las TIC han traído consigo. SNB habla de las dos revoluciones industriales (la primera de la máquina de vapor, y la segunda del petróleo y la organización industrial tayloriana), pero haya obviado hablar de la llamada tercera revolución industrial, que podríamos llamar de la electrónica, o incluso de la información. Una revolución que está afectando gravemente a sectores enteros que hasta ahora parecían intocables (por aquí hemos hablado profusamente de la crisis editorial, incluso a la crisis de los grandes medios, pero podríamos extenderlo a muchos más campos) y que sin embargo no son ni mencionados, ni analizados. La crisis es cambio, desaparición de viejas estructuras y sustitución por nuevas. Pero es un cambio abrupto, puesto que las viejas estructuras, con el apoyo de la costumbre, se resisten a morir y dejar paso a las nuevas formas. En esa tesitura, es de lo más normal y esperable que las situaciones en cada uno de los sectores en retrocesos hayan ido paulatinamiento volviéndose deteriorándose, hasta alcanzar la traca final de una gran crisis generalizada que se expande como un incendio lo hace sobre las hojas secas, las ramas caídas y los troncos podridos de un bosque viejo y enfermo.

Todo este análisis simplemente no existe en el libro, y sin este análisis, para mí particularmente, es como si me estuvieran contando otra recesión distinta de otra época (p. ej. la de los 80 del petróleo), pero no la actual. Y si no podemos fijar exactamente las crisis que tenemos en marcha, no podemos saber adonde dirigirmos, establecer un modelo de futuro que sea plausible, y establecer los pasos de la transición hacia ese modelo. En definitiva, un libro que lo único que aporta es un grito de aviso de que las cosas van mal, y que van a ir a peor, pero que se queda ahí.

Desde un punto de vista más prosaico, también hay que quejarse de que el libro de SNB peca de los males que expone: más de 21 euros por un libro de 250 páginas, sólo por el hecho de elegir un método de distribución tan ineficiente como el papel, no encaja con el futuro de la eficiencia que predica. Existen copias digitales de su libro en la Red, que es un medio de distribución bastante más eficiente. Algunos dirán que es muy poco ético por mi parte fomentar la —mal llamada— piratería, pero no está de más que el propio SNB pruebe un poco de la crisis del 2010 (o 2009, o 2008) en sus carnes. Esto, también es una cara más de la crisis, y de la transformación que nos aguarda.

--
* afortunadamente en el libro matiza lo de "de media", porque en algunas de sus intervenciones suele soltar lo de "250 años" a secas, lo que le da una impresión de futurólogo nada apropiada.

lunes, julio 06, 2009

Funciona, porque es gratis

La inminente salida de 'Free*: The future of radical price' (artículo original y libro completo), el nuevo libro de Chris Anderson —editor jefe de Wired y autor del ya famoso 'The Long Tail'— ha levantado no poca polvareda. Y la crítica más sonada ha venido a través de un artículo de Malcolm Gladwell en The New Yorker titulado Priced to Sell. A éste artículo han venido contracontestaciones (por ejemplo ésta de Seth Godin) y, bueno, me imagino que la bola de nieve seguirá dando vueltas por ahí. Incluso por estos lares también hemos tenido discusión al respecto, como podréis ver en la entrada de tinta-e Libros gratis, en Comunicación cultural (que, por una vez y sin que sirva de precedente, no voy a resumir por aqui xD). El objetivo de ésta entrada es otro: analizar uno de los argumentos presentados por el señor Gladwell:

Look at YouTube, he says, the free video archive owned by Google. YouTube lets anyone post a video to its site free, and lets anyone watch a video on its site free, and it doesn’t have to pass judgment on the quality of the videos it archives. “Nobody is deciding whether a video is good enough to justify the scarce channel space it takes, because there is no scarce channel space,”

[...]

Although the magic of Free technology means that the cost of serving up each video is “close enough to free to round down,” “close enough to free” multiplied by seventy-five billion is still a very large number. A recent report by Credit Suisse estimates that YouTube’s bandwidth costs in 2009 will be three hundred and sixty million dollars. In the case of YouTube, the effects of technological Free and psychological Free work against each other.

So how does YouTube bring in revenue? Well, it tries to sell advertisements alongside its videos. The problem is that the videos attracted by psychological Free—pirated material, cat videos, and other forms of user-generated content—are not the sort of thing that advertisers want to be associated with. In order to sell advertising, YouTube has had to buy the rights to professionally produced content, such as television shows and movies.

[...]

To recap: YouTube is a great example of Free, except that Free technology ends up not being Free because of the way consumers respond to Free, fatally compromising YouTube’s ability to make money around Free, and forcing it to retreat from the “abundance thinking” that lies at the heart of Free. Credit Suisse estimates that YouTube will lose close to half a billion dollars this year. If it were a bank, it would be eligible for TARP funds.
El punto clave que pierde de vista este comentarista es que YouTube funciona porque es gratis. Y esa es la clave de todo. Para explicarlo, voy a empezar poniendo como ejemplo otra de las compras sonadas de Google: el servicio de blogging gratuito Blogger.

Esta misma bitácora está en Blogger. ¿Y por qué está en Blogger? Porque mi bitácora original estaba en una máquina propia, conectada 24 horas al día 365 días al año a Internet, que tenía que pagar, y preocuparme por su mantenimiento: de su seguridad, no se me colara algún cracker y me la liara; de su disponibilidad, que al ordenador le pasara algo y se bloqueara, que los procesos del apache no le dieran por quedarse zombies misteriosamente, etc; de la actualización de todo el software usado, desde el núcleo del sistema operativo a la plataforma de publicación que usaba (geeklog). Es decir, esa máquina tenía un coste, no sólo en términos económicos del pago de la línea (ADSL) o el hardware necesario, sino del esfuerzo —mano de obra— que requería.

Cuando no pude mantener más esa máquina, lo que hice fue buscar un sitio donde pudiera seguir publicando gratis, y a su vez no tuviera que dedicar mi tiempo a mantener. O sea, doblemente gratis, ya que es el tiempo de otras personas (los técnicos de Blogger/Google) y otros recursos los que se consumen y ponen a mi disposición sin coste alguno. Blogger es un servicio análogo a YouTube, puesto que tanto el emisor (el blogger que publica sus entradas) como el receptor (los lectores) reciben un servicio totalmente gratis. El que paga el servicio es, como en el caso de YouTube, Google.

Las "3 patas de banco" de Blogger son:
  • Gratis para el lector: el lector puede acceder a cantidades ingentes de información de casi cualquier tema imaginable, sean cuales sean sus intereses, totalmente gratis. Y no puede ser de otra forma, puesto que el lector nunca pagaría por algo que a priori no sabe si realmente merece la pena pagar o no hasta que lo "ha consumido" (leído). Por otro lado, la economía de la abundancia descarta que alguien vaya a pagar por un contenido que puede recibir por otras múltiples vías de forma gratuita (dejando de lado algunos contenidos altamente especializados, que no van a ser distribuidos mediante esta plataforma).
  • Gratis para el autor: el autor tiene una plataforma de publicación a la cual no tiene que dedicarle la menor atención, ni en forma monetaria ni de esfuerzo, de forma totalmente gratuita, mantenida, protegida y mejorada por Google. Una plataforma con la cual puede llegar al todo el mundo, sin limitaciones de tener que pagar por tráfico adicional (si una entrada se convierte en tremendamente popular), ni que se te caiga la página web por la saturación, ni situaciones similares. Es decir, tienes una plataforma de publicación equivalente en robustez a la de un gran periódico internacional (gracias al respaldo de los servidores de una megacorporación como Google, claro) al alcance de un particular.
  • Gratis para Google: ¿Cómo? ¿Pero no es Google el "pagano" (el que paga) de todo esto? ¿Qué gana Google ofreciendo este servicio gratuito? Pues para empezar, gana el trabajo y los conocimientos de un montón de gente —los autores—, que le están generando contenido gratuitamente y por la cara con el que atraer a los internautas. Porque Google, no se nos olvide, vive, entre otras cosas, de vender publicidad en Internet. Y la publicidad en Internet se vende más y mejor a medida que hay una creciente audiencia en el medio. En el caso de Blogger, cuantos más contenido hay en los blogs, que atrae a más lectores, mayor es el valor de insertar publicidad en la web (en general). Y en las webs donde están alojadas esos contenidos, en particular (en este caso Blogger). Google, con Blogger, se está creando un enorme panel donde insertar su publicidad, y lo curioso es que lo está logrando a un coste infinitesimal, en relación a si tuviera que pagar por todos la generación de todos esos contenidos. Pero es que aun hay más: Google no sólo le saca partido a los autores, sino que también le saca partido a los lectores. ¿Cómo? Estudiando los hábitos de consumo/navegación. Al contabilizar el acceso a la información que han creado los autores en Blogger, es capaz de inferir patrones, temas de interés, relaciones, ... y toda esa enorme base de datos del comportamiento de los internautas la obtiene gratuitamente, y la puede emplear para múltiples de sus negocios: publicidad dirigida/segmentada, mejora del algoritmo del buscador, y otras muchas aplicaciones que les permiten tener una ventaja competitiva en muchos campos (por ejemplo en la creación de correctores de gramática, o traductores). Y vaya usted a saber qué más se sacarán de la manga de esa apabullante fuente de datos, de la que ha llegado a decirse: "Google sabe más acerca de tí que tu mamá".
Blogger funciona porque las "3 patas de banco", los tres agentes que intervienen en la "transacción" (el servicio) se benefician de la gratuidad. En los tres casos es una relación de WIN-WIN (ganar-ganar), y si no fuera así, el equilibrio se rompería y el servicio fracasaría. Pero no es el caso.

¿Es aplicable este mismo modelo a YouTube? Por supuesto. La diferencia fundamental entre Blogger y YouTube está sólo en la magnitud de la información que se maneja. En el caso de Blogger, al ser texto con unas pocas imágenes, el coste de explotación global, aun con cientos de millones de blogs, es marginal respecto a los beneficios de la ventaja competitiva que logra a cambio. Y es que si hay algo que le sobra a Google son datacenters y ancho de banda, pues lo necesitan para sus múltiples servicios.

Sin embargo, el coste de almacenamiento en disco y de ancho de banda que para streaming de texto es barato, para streaming de video, que puede ser dos órdenes de magnitud superior, es aun caro. Cuando yo me compré mi primer ordenador, aquel disco de 40MB parecía enorme. Ahora un disco de 1TB nos parece "lo de andar por casa". En cuanto a transmisiones, yo empecé con 1200bps half-duplex, y ahora ando por los 3MB, si no los han duplicado ya a los 6MB. El tiempo juega en favor de un abaratamiento cada vez mayor del espacio en disco y el ancho de banda, hasta —es de suponer— el punto en el coste de mantener algo como YouTube sea mucho más manejable.

De hecho, quiero poner un segundo ejemplo de "funciona porque es gratis": el propio buscador de Google. Y es que, a alguno de los internautas más jóvenes les pueda sorprender, en su día había buscadores de pago. Uno de los más famosos era lycos (sí, ese que compró Telefónica por una burrada de dinero y que luego no les valió para nada), el cual tenía una version gratuita reducida —que no usaba nadie cabal— y luego otra de pago con acceso a toda la información. En este modelo, la primera pata de banco, los usuarios, fallaban al no ser un servicio gratis.

Luego existían otros buscadores, el más conocido altavista, muy utilizado hasta que se le ocurrió que su modelo de negocio se basaría en vender las primeras posiciones de búsqueda al mejor postor. Es decir, las búsquedas ya no dependían de que tu página web fuese realmente pertinente para el usuario que buscaba esa información, sino que dependía de lo que el autor pagara por posicionarse. La segunda pata de banco, gratuito para los autores (de páginas web en este caso) fallaba estrepitosamente.

Finalmente, el mercado se lo comió un buscador llamado Google. Un buscador que, efectivamente, se usaba porque técnicamente era bueno. Pero también porque era gratis para el usuario, que podía acceder a toda la funcionalidad sin restricciones, y para los webmasters, a los que Google posicionaba según su esfuerzo de autoría y pertinencia de la página, siendo totalmente gratuito el aparecer en el buscador en cualquier posición, incluyendo las primeras.

Y Google recibió a cambio el convertirse en el "campo de juego neutral" de la red, a partir del cual los consumidores de información llegaban a los productores de la misma. Y esa posición hegemónica les abrió muchas puertas y muchos negocios. Y el resto, es historia.

Y la moraleja de este cuento es: Google, el gigante de Internet, funciona, porque es gratis.

Addendum: despues de haber terminado deprisa y corriendo la entrada (porque se hacía tarde), me he dado cuenta que me ha quedado un trozo, un importante trozo, sin contar. Va a continuación.

¿Es aplicable el modelo de "las tres patas de banco" a YouTube? No sólo es aplicable, sino que además, es el único posible. Primero, porque (dándole la vuelta al argumento del señor Gladwell) nadie va a pagar por ver "videos de gatos", ni el video casero aquél tan gracioso del tío Andy con una tajada monumental. La única manera de distribuir contenido generado por el usuario, que en un gran porcentaje (al menos el 90% si hacemos caso de la Ley de Sturgeon) va a ser material amateur bastante penoso, es que el usuario acceda a él de forma gratuita y sin limitaciones. Segundo, porque los autores particulares —y no tan particulares— no pueden pagarse una infraestructura como para hacer streaming de sus videos, y menos una que pueda soportar que alguno de esos videos de repente se convierta en un megaéxito puntual y sea imposible de ser servido (con lo que matas cualquier posibilidad de éxito). Eso se lo puede permitir una gran compañía, ya sea porque es un media que tiene una infraestructura ya creada para ese tipo de eventos (vive de ello), ya sea porque se puede permitir pagarle a uno de los media anteriores por el servicio.

Imaginemos un creativo publicitario que tienen una idea para una campaña que cree de mucho impacto, pero que no pueden permitirse pagar el tiempo de emisión en las principales cadenas de televisión del país. Tampoco pueden permitirse contratar un hosting y arriesgarse a que, si su video es visto por gran número de personas, la factura que le llegue del proveedor de hosting el mes siguiente por el ancho de banda consumido (y eso suponiendo que tal proveedor ha sido capaz de aguantar la avalancha de peticiones) puede alcanzar niveles estratosféricos. Ambas vías se las puede permitir una gran agencia de publicidad, o una gran cadena de televisión, pero no el resto, entre los que se incluyen no sólo particulares, sino también pequeñas y medianas empresas, incluso profesionales independientes o pequeñas empresas del sector. Para todos ellos, un servicio como YouTube es genial, y es genial porque es gratuito. Tienen sin coste alguno al alcance de la mano la posibilidad de poner en la pantalla de todos los internautas del mundo su video. ¿Cómo no la van a querer aprovechar? Y aunque muchos autores lo usen para subir videos de gatos (ojo, que más de un fenómeno de Internet ha sido un video de gatos u otra chorrada por el estilo), una parte de esos autores no se van a limitar a eso. Y bien porque sean profesionales que hacen un video que en realidad es una campaña publicitaria de una pequeña empresa —o de una grande entrando en el juego de la publicidad viral—, bien para promocionarse profesionalmente, o por puro amor al arte, no todo lo que hay en YouTube va a ser basura. Porque lo que le interesa al autor es la gratuidad de YouTube como plataforma de lanzamiento. En cambio, lo que le interesa al usuario de YouTube es la gratuidad de lo que puede ver a través suyo.

En este juego a tres bandas, falta la gratuidad del tercero, es decir de YouTube/Google. ¿Creéis que Google pierde dinero con YouTube? Tal vez visto como una división separada, así sea. Pero si aplicamos el mismo análisis que hicimos en el caso de Blogger, los autores que utilizan YouTube está creándole a Google gratuitamente un ecosistema de información audiovisual que ellos pueden aprovechar en el futuro para potenciar su negocio de insertar publicidad en Internet (en este caso, en el streaming de video). Si creéis que eso no es rentable, preguntaros entonces por qué proliferan los videos sacados de YouTube en las televisiones, llegándose el caso de programas entéramente basados en videos sacados de ahí. Y preguntaros también como es posible que sea más caro emitir anuncios publicitarios en la emisión online de Los Simpson que en la emisión televisiva. Ahí hay negocio, y un día convergerá ese enorme archivo online de videos, junto con el montón de información sobre preferencias que de nosotros también está recogiendo Google a través de YouTube y los videos que incrustamos o enlazamos en nuestras webs (también entregadas por nosotros de forma gratuita), junto con un descenso en los costes operativos de streaming y almacenamiento de video, para volver a formar una situación WIN-WIN-WIN entre las tres partes de éste triángulo gratuito.

Y todo esto funcionará, porque es gratis.

Actualización: añadido el libro completo, que ha sido publicado totalmente gratuito en scribd.

--
* traducido como 'Gratis', no como libre