Ciencia, tecnología, dibujos animados ¿Acaso se puede pedir más?

Periódicos contra buscadores; la raíz

La Asociación Mundial de Periódicos (AMP) quiere analizar la relación que tienen los medios con los buscadores de la Red, para en última instancia encontrar el modo de cobrarles, a ellos y a los agregadores de noticias. Lo cual, dicho sea con todos los respetos, es una majadería. Por una parte, no es cierto que el valor de los buscadores provenga de su copia de noticias extraídas de los medios; se limitan a localizar y apuntar, no a almacenar. La AMP parece confundir conceptos, como cuando califica a Napster de ‘motor de búsqueda’: encontrar no es lo mismo que publicar. Cuando Google News, que preocupa especialmente a los periódicos, enlaza un artículo, el lector es del medio donde se publicó, no de Google. Es como si los comercios quisieran cobrarle a las Páginas Amarillas por aparecer en ellas.

Lo cual apunta a la segunda causa de necedad: con o sin la ayuda de los gobiernos, los medios carecen de capacidad real de imponer una negociación, ya que dependen en exceso del tráfico generado por los buscadores. En las versiones electrónicas de los diarios es normal que entre el 30 y el 50% de las visitas lleguen a través de búsquedas, y sus responsables trabajan sin descanso en mejorar estas cifras. En la práctica esto significa que mientras Google News puede prescindir de un periódico (o de 10), a los periódicos les costará muy caro prescindir de Google. La verdadera causa del problema es la crisis de los periódicos, de la cual los buscadores no tienen la culpa; bien aprovechados pueden incluso mejorar los resultados de los periódicos. De lo que se trata es de generar lectores, y a través de ellos publicidad; cualquier cosa que vaya en contra de esto es suicidio.

6 comentarios

  1. Dice ser gorki

    Si los periódicos digitales pueden hacer dos cosas (como cualquiera)en el HEAD de su página web. Avisar que no quieren ser indexados y avisar que noo desean copya en el cache del buscador. Si lo hacen, Google y los demás buscabores importantes cumplirtan su deseo.Si no lo hacen es por que desean ser indexados y guardados en la cache. Asi que ellos mismos.El intentar cobrar es comprensible, pero idiota esperar que Google les pague. Mientras no ocurra que Google les exija un canon por visitarlos, que se den con un canto en los dientes.

    01 febrero 2006 | 19:57

  2. Dice ser Hal

    No conozco bien el funcionamiento de Google y si es el propio periódico quien dice si quiere o no ser visto. Pero hay una cosa que si que he observado Pepe Cervera, y no es el hecho de que sólo indexe Google, si no que a través de su cache guarda la página de «pago» y se puede visualizar sin problemas, cosa que no pasa con el enlace principal que es de la versión «restringida».Un ejemplo:busca en Google: lavanguardia eta. Coge cualquier noticia, si pinchas en el enlace grande te saldrán las primeras lineas y los enlaces y formularios para registrarte al periódico. Pero si en vez de eso accedes a la página a través de la cache que tiene Google entraras en la misma noticia, si, pero en la versión de pago, con todo su contenido. En mi opinión si que creo que tienen razón los periódicos, Google no debería almacenar la página de pago ya que perjudica al periódico en cuestión, sino la versíon gratuíta.

    01 febrero 2006 | 23:37

  3. Dice ser F.J.

    Cualquier administrador web con unos mínimos contenidos sabe cómo hacer, con unos simples cambios, que los buscadores ni te indexen ni te almacenen en su caché.Muy hipócrita me parece querer que te indexen (esto es, tener presencia en Internet) y luego pretender cobrar por ellos. Esperemos que Google no empiece a cobrar por sus servicios algún día…

    01 febrero 2006 | 23:42

  4. Dice ser Cantro

    Ayer publiqué una entrada en mi blog acerca de todo esto, y allí decía que me parece un asunto peligroso, porque si se accede a los deseos de los periódicos los buscadores podrían verse en la tesitura de tener que pagar por prácticamente cualquier contenido que aparezca en la red. Les destruiría.El link: http://rebotacion.blogspot.com/2006/02/quieren-cobrar-derechos-de

    02 febrero 2006 | 9:58

  5. Dice ser museo8bits

    Hal, como ya te han dicho, basta con unas entradas en las HEAD de cada fichero HTML (si lo quieres hacer fichero por fichero) o en el robots.txt (si lo quieres hacer por directorios) para decir qué debe ser idexado y qué no. Y te garantizo que el robot de Google cumple escrupulosamente esas directivas. Mis webs están alojadas en un 90% en mi propio domicilio, y jamás he encontrado una coma en la caché de Google de zonas o ficheros que hubiera excluido.Pero es más cómodo ser un chapucero y no hacer bien el trabajo, que siempre le echarás la culpa a otro, total el jefazo no distingue un PC de una Playstation (¿no sirven para jugar ambos?).

    06 febrero 2006 | 8:51

  6. Dice ser Hal

    museo8bits:entonces la culpa es de los webmasters de los periodicos?. Qué chapuzas.

    10 febrero 2006 | 9:15

Los comentarios están cerrados.