BLOGS
Casi enteros Casi enteros

Casi enteros: un blog sobre los medios de comunicación, la publicidad, su papel en la financiación de los medios, la investigación y otros temas relacionados con todo esto

Archivo de la categoría ‘Fragmentación’

Audiencia de Televisión ¿qué se mide y qué no?

Ha pasado algo más de un mes desde que se celebró en León el Seminario de AEDEMO de Televisión Multipantalla. AEDEMO es la asociación que nos agrupa a los investigadores de marketing y opinión españoles así que se supone que éste es el foro anual más importante sobre medición de audiencia de televisión. Ésta era su 33ª edición.

Hubo interesantes ponencias y reflexiones y también alguna, la de Fernando Santiago especialmente, que analizaba la situación actual de la medición.

A los pocos días me vi citado en lo que acabó siendo una interesante conversación en Twitter. Luis Miguel Pedrero, profesor de la Universidad de Salamanca, me etiquetaba en un tuit en el que decía:

  • La industria TV asume que el audímetro no es fiable y hacen falta métricas digitales eficientes.

El artículo que enlazaba no decía exactamente eso así que le contesté:

  • Yo no diría que no es fiable, lo que mide lo hace bien; sí que es insuficiente: deja muchas cosas sin medir.

La conversación en Twitter siguió:

  • LMP: El audímetro registra el canal sintonizado, pero no si se está mirando: ¿GRPs? Su muestra es exigua y sus resultados relativos…
  • EM: Salvo para algunas autonómicas los GRPs no cambiarían (o cambiarían muy poco) con una muestra mayor…que, de todos modos, hace falta.
  • LMP: ¿Tú crees que cada español vio 233 minutos diarios de televisión lineal, tal como indican los datos del audímetro en 2016? Yo no.
  • EM: La media de los españoles. Es un dato alto pero aun así cuando cae un 5% en tres años hay quien habla de la muerte de la TV lineal.
  • LMP: La lógica del actual audímetro (registra tiempo, no atención) proporciona datos de consumo orientativos, pero demasiado irreales y antes o después los anunciantes exigirán ¿o impondrán? una fiabilidad que no ofrecen ni la muestra ni la metodología actual
  • EM: En la época multidispositivo el tiempo se multiplica por el mismo factor por el que se divide la atención. Y (respecto a lo de los anunciantes): ¿Tú crees? ¡Ojalá!

A partir de aquí ya decidimos que el tema daba para mucho más que una discusión en Twitter y que en algún momento tendremos que conocernos para charlar. De momento este encuentro no se ha producido. Pero estoy seguro de que llegará.

Pero ¿cuál es el estado actual de la medición? Lo recogía Fernando Santiago, Director Técnico de AIMC, en su ponencia, de la que voy a extraer los principales puntos.

Fernando Santiago durante su intervención (Foto:Eduardo Madinaveitia)

En su ponencia partía de otra que hice yo hace cuatro años en el AEDEMO TV que se celebró en Zaragoza. Entonces yo definía lo que debería ser el ideal de la medición del audiovisual: para cada pieza (programa, anuncio,…) se debería medir su audiencia en cualquier momento, en cualquier lugar y en cualquier dispositivo (o en siglas en inglés ATAWAD: any time, any where, any device). Fernando utilizó alguna de mis diapositivas para ilustrarlo, incluida la que entonces llamé Carta a los Reyes. Hace cuatro años medíamos bien:

La audiencia en cualquier televisor en el hogar principal.

Y no medíamos (o no reportábamos):

La audiencia en segundas residencias.

La audiencia fuera del hogar.

La audiencia en otros aparatos.

La audiencia de invitados.

La audiencia en diferido.

Desde entonces, cuatro años, ¡¡¡hemos avanzado!!! (Reproduzco los tres signos de exclamación de Fernando; los avances, y la ironía, los merecen).

Ya se miden:

La audiencia en diferido (desde el 1 de febrero de 2015).

La audiencia de invitados (se reporta a partir del 1 de marzo de 2017).

Está en proceso la medición del consumo en otros dispositivos y en discusión la medición de los consumos en las segundas residencias.

Aquí Fernando Santiago llamaba la atención sobre la lentitud que demuestra el mercado en su toma de decisiones: la medición de la audiencia en diferido tardó tres años en hacerse pública desde que se iniciaron las primeras pruebas. ¿Parece mucho? Nada comparable con la medición de la audiencia de invitados: los primeros análisis se hicieron en junio del año 2000; será casi 17 años después cuando se abran los datos para el conocimiento de los usuarios.

Fernando también se detuvo en el análisis de la evolución de los deseos, las necesidades y las realidades mostrados a lo largo de los últimos catorce años. En 2008, en Granada, Pablo Romero dibujó un mapa de las oportunidades y las propuestas que introducía la digitalización. Llamó la atención sobre un fenómeno entonces incipiente pero que ha ido creciendo sin parar: la desintegración del sistema lineal y en directo y el paso hacia consumos fragmentados.

Dos años después Jaime Agulló introducía como reto la medición de la audiencia multipantalla de un mismo usuario, un reto que pareció que se resolvería cuando hace dos años se anunció el acuerdo entre Kantar Media y ComScore. Pero este año ya nos han dicho que este asunto marcha más lento que lo deseable, con lo que la rápida evolución de la tecnología aleja cada vez más la medición de esa nueva realidad.

Hace tres años, Eduard Nafría presentó del TAM al VAM, un medidor virtual que resolvería casi todos los problemas pero también parece que su desarrollo es más lento de lo deseado.

El pasado octubre se anunció el acuerdo entre Kantar Media y Movistar TV para la medición de audiencia de sus abonados, utilizando la combinación de un panel de abonados y los datos censales (RPD: Return Path Data). Será el mayor servicio de este tipo en Europa y un gran salto adelante en medición pero para el mercado se quedará escaso: sólo conoceremos el comportamiento de los abonados dentro de esa plataforma.

Una realidad cada vez más compleja exige una medición también más compleja. La distancia entre la realidad y la medición no parece acortarse en los últimos años: por una parte tenemos problemas con las metodologías de medición; por otra es el propio mercado el que no se atreve a dar pasos hacia una medición mejor. El mantenimiento del statu quo produce una sensación de falsa seguridad.

No parece importar que no se mida, o se mida mal, la audiencia en dispositivos diferentes del televisor pero para determinados programas y para determinados tipos de público (los jóvenes urbanos fundamentalmente) esa audiencia es cada vez más importante.

Antena 3 renuncia a liderar la audiencia

Tele 5 ha vuelto a ser líder de audiencia en agosto. Y van…24 meses. O sea que no es noticia.

Pero esta vez podía haber sido diferente. Tele 5 suele bajar la guardia en verano. De hecho, la última vez que no fue líder fue en agosto de hace dos años. Además estaban los Juegos Olímpicos, que daban una fuerza inusual a TVE, con sus canales La 1 y Teledeporte en las mejores cifras desde hace muchos meses. De hecho el 3,0% de Teledeporte ha sido su máximo histórico, según destaca Barlovento en su informe.

Antena 3 comenzó el mes por delante de Tele 5 y mantuvo unas cifras muy igualadas, que parecían dejar ver que iba a haber pelea al menos hasta el día 20. A partir de ahí Tele 5 se fue distanciando poco a poco hasta llegar a ganar el mes por cuatro décimas de diferencia. Eso sí, con cifras ya muy pequeñas; que la cadena ganadora se quede en un 12,3% nos pone en una situación de fragmentación que, casi, podríamos llamar norteamericana. Entre las tres primeras cadenas no llegan al 35%.

Las Campos, uno de los éxitos del verano en Tele 5

Antena 3 concentra la mayor parte de los eventos más vistos: la emisión más vista del mes fue la prórroga de la Supercopa; la película más vista fue Flores en el ático, emitida el 24 de agosto en esa  cadena; la serie más vista fue Lucifer, el 1 de agosto en Antena 3; la serie de animación más vista fue, una vez más, Los Simpsons…y sin embargo no consigue liderar el mes. Le fallan los informativos y tener una mayor fortaleza en entretenimiento (aquí ganaron Las Campos, en Tele 5) y a lo largo del día, en lo que se suele llamar day time.

Da la impresión de que, al contrario de lo que ocurría hace algunos años, el liderato no es un objetivo por el que Antena 3 luche.

Pero la verdad es que, a la vista de los resultados comerciales parece que ese liderazgo por el que no lucha no le hace ninguna falta.

5 minutos menos

Por segundo año consecutivo cae la audiencia de Televisión. La que mide Kantar Media, o sea la que se refiere al visionado en el momento de su emisión y en televisores situados en el hogar principal.

¿Tenemos que preocuparnos?¿Tienen que preocuparse los anunciantes? Sí y no. O sí, pero no especialmente por esto.

Aun con la bajada, el español medio vio 239 minutos de televisión al día. Se quedó sólo a un minuto de distancia de las ¡cuatro horas! pero a siete minutos de distancia del récord absoluto que se estableció en 2012.

Muchas veces he dicho que ver la televisión es la segunda actividad a la que el español medio dedica más tiempo, sólo superada por dormir, pero dejando muy lejos al trabajo remunerado fuera del hogar (si tenemos en cuenta que la población activa no llega al 60% y casi un 25% de esas personas están en el paro).

Así que no hay que procuparse porque ya no llegue a cuatro horas diarias el consumo de televisión.

Viendo el espléndido análisis que puntualmente me hizo llegar la semana pasada Barlovento Comunicación creo que las preocupaciones deben ser otras:

Un porcentaje todavía apreciable de esa audiencia casi no verá publicidad porque en TVE sólo se pueden hacer patrocinios culturales.

Una parte creciente de esa audiencia prestará poca atención a lo que ve, porque estará atendiendo a la vez a otras pantallas.

Aunque la fragmentación remitió en 2014, en parte debido al cierre de canales, sigue siendo complicado alcanzar grandes coberturas, sobre todo si eres un anunciante cuidadoso que no quiere ligar sus productos a determinado tipo de contenidos.

Algunos públicos son cada vez más difíciles de alcanzar porque ya no ven la televisión como se veía antes. Siguen consumiendo contenidos audiovisuales (incluso en mayor medida) pero ya no lo hacen en el televisor ni en el momento de la emisión.

Así que ¿deben preocuparse los anunciantes? ¿O quienes deben preocuparse son los dueños de las emisoras de televisión?

 

 

Cómo se miden las audiencias digitales y por qué hay que medirlas

La llegada de Internet nos trajo montañas de datos. Para cada sitio (y para cada página de cada sitio) sabemos cuantos dispositivos están conectados en cada momento y en cada periodo de tiempo determinado, el tiempo que pasa cada uno, de donde venía y hacia donde se fue. La analítica web, que desentraña todos estos datos, es un instrumento muy rico. En Internet todo se etiqueta (tag) y cada dispositivo va dejando su huella (cookie) en todos los sitios por los que pasa. Entonces ¿qué necesidad tenemos de realizar estudios de audiencia?

Quién puede analizar todos esos datos es el propietario del sitio (el medio de comunicación, pongamos por caso) que puede seleccionar qué datos enseña para su comecialización (pero no conocerá datos de sus competidores).

Pero el mercado publicitario necesita datos de personas (no de dispositivos) para todos los sitios en los que se pueda planificar publicidad (para poder comparar) y proporcionados por una fuente imparcial. Con esos datos los anunciantes y sus agentes calculamos a cuantas personas diferentes, de unas determinadas características, hemos llegado (cobertura) y cuantas veces (frecuencia).

Así que muy pronto, a finales de los años noventa, unos cinco años después del nacimiento de la Internet comercial, ya se pusieron en marcha paneles de usuarios, un método similar al utilizado para la medición de audiencia de Televisión.

Se selecciona una muestra representativa de la población y se instala en sus dispositivos un software (no hay que instalar, como en televisión, un aparato auxiliar) que registra todos los datos de los sitios por los que está navegando y los envía al instituto de investigación. Al no haber inversión en aparatos se pueden utilizar muestras más grandes a precios asequibles.

Así se obtienen datos referidos a personas (no sólo a dispositivos) de las que conocemos su perfil.

Pero mientras la mayor parte del consumo de le Televisión tradicional se hacía en el hogar, una parte importante del consumo de Internet se hace fuera. Pocas empresas dejan instalar en sus ordenadores el software de medición con el que se construiría el panel de trabajo. Eso ya era un problema. Ahora, cuando el consumo de Internet desde dispositivos móviles supera al que se hace desde los fijos, el problema se agudiza. En teoría bastaría con instalar el software de medición en todos los dispositivos que utilice un panelista, pero en la práctica surgen problemas.

Otro problema se debe a la tremenda fragmentación de Internet. En Televisión con los resultados de un número relativamente pequeño de cadenas tenemos cubierto un porcentaje muy elevado del consumo del medio; en Internet lo que suele llamarse larga cola empieza muy pronto. Para medir la mayor parte de los sitios con la suficiente precisión harían falta muestras tan grandes que no se pueden alcanzar.

Esto ha llevado en los últimos años a la utilización de lo que llamamos medición híbrida, una combinación de los datos muestrales obtenidos del panel con datos censales de dispositivos obtenidos para todos los sitios analizados. Para ello los sitios que se van a medir tienen que implementar las etiquetas del medidor (se necesita la colaboración de aquellos sitios que se van a medir, que podrían boicotear al medidor en un supuesto conflicto de intereses).

Tras la celebración de un concurso promovido por las asociaciones IAB y AIMC el medidor recomendado en el mercado español , el que establece la moneda, desde finales de 2011 es ComScore.

Técnicamente es posible establecer mediciones multidispositivo para un único panel de personas. El problema, no sólo en España (la revista AdAge recogía hace unas semanas este mismo problema en Estados Unidos), es que en estos momentos en que  la rentabilidad a corto plazo prima sobre la estrategia, nadie está dispuesto a invertir más para conseguir una medición mejor.

Este post es un resumen y actualización de los dos publicados recientemente en Bloggin Zenith: ¿Cómo se miden las audiencias digitales (I) y (II).

Desaparecen 9 canales de televisión

Parece que la cosa va en serio. La semana que viene desaparecerán nueve canales de televisión.

Todo parte de una arbitrariedad: en 2010 el Gobierno de Zapatero llegó a un acuerdo para favorecer al lobby de UTECA y concedió sin concurso  los nuevos canales, que surgían como posibles con el paso a la TDT, a las empresas ya existentes.

En 2012 una sentencia obligaba a eliminar los canales concedidos sin concurso y tras varias apelaciones el Tribunal Supremo puso en diciembre pasado una fecha para el cierre: el 6 de mayo, el próximo martes.

Desaparecerán así los canales Nitro, Xplora y La Sexta 3, del grupo A3; La Siete y La Nueve, de Mediaset; los que MTV e Intereconomía tenían alquilados a Grupo Vocento y AXN y Teletienda del multiplex de Unidad Editorial.

UTECA, la asociación que agrupa a las televisiones comerciales, se ha opuesto radicalmente a una medida que tira por tierra las inversiones realizadas durante estos años y puede costar muchos puestos de trabajo directos e indirectos. Deja claro que los ciudadanos, además de ver reducida la oferta de canales tendrán que hacer frente a las fuertes indemnizaciones que el Estado tendrá que pagar a las empresas afectadas.

Vertele puso en marcha, sin éxito, una iniciativa a través de change.org para pedir la anulación de esa medida. La AUC, Asociación de Usuarios de la Comunicación, también pidió al Gobierno que garantizase la oferta, pero nada ha cambiado.

Las cosas podrían no quedar ahí ya que, como indicaba Victor Calvo-Sotelo, secretario de Estado de Telecomunicaciones y para la Sociedad de la Información, aún podrían desaparecer otros ocho canales cuando se distribuya el llamado Dividendo Digital.

La cuestión es compleja:

– una decisión al margen de la Ley tomada hace cuatro años por un Gobierno

– unas inversiones importantes hechas a raíz de las concesiones

– un Gobierno de otro signo que no rectifica

– algún concesionario que no ha sido capaz de rellenar con contenido esas concesiones (Teletienda, alquiler a otras compañías, incluídas multinacionales,…)

– una situación nueva, con peso creciente de Internet donde las concesiones de frecuencias ya no son necesarias

– la sospecha de que se quiere favorecer a la televisión de pago frente a la televisión en abierto, gratuita

– las todopoderosas telecos peleando por los contenidos para hacerse con la audiencia de los canales en abierto

Estamos en un momento crucial. El próximo martes se abre una nueva etapa. Habrá que estar atentos.

¿Cómo se redistribuirá la audiencia de las cadenas que desaparecen? ¿Cuánta saldrá de los dos grandes grupos hacia los canales menores?¿Cambia realmente la situación?

El error Internet

Estos días se habla mucho de las modificaciones a la LPI (Ley de Propiedad Intelectual) anunciadas en el pasado Consejo de Ministros y de si eso supondrá la puesta en marcha de la llamada Tasa Google. Si fuera así los buscadores y quienes enlacen a noticias con una parte significativa de su contenido tendrían que pagar por ello a los editores.

Con ello, según unos, se trataría de compensar a los medios por las pérdidas que Internet les ha supuesto; según otros sería una manera más de tener controlados a los medios, que tendrían así una mayor dependencia de las autoridades que decidan sobre el reparto de esos ingresos.

También he leído en Twitter un comentario: prefiero que Google pague impuestos en los países en los que tiene negocio en lugar de pagar una tasa a los medios.

No le falta razón al tuitero.

Pero creo que el problema de los medios, especialmente de los que provienen del papel, con Internet, merece un análisis más profundo.

Yo creo que el origen del problema, lo que yo llamo el error Internet viene de lejos, de los primeros tiempos de Internet y se basa en una especie de espejismo provocado por una mala interpretación de los datos de audiencia. Es una reflexión que llevo muchos años haciéndome y que he plasmado en El Vigía, mi otro blog. Mi post, La audiencia en el palacio de las mediciones etéreas, viene a ser una continuación del que pocos días antes había escrito el prestigioso sociólogo Miguel del Fresno (yo_Antitwitter): Los medios que no amaban a sus audiencias. Él achaca la crisis de los medios a su apuesta por un modelo de negocio en el que la publicidad tiene un peso excesivo y hace a los medios dejar de poner el foco en sus audiencias.

Yo no lo veo así. Yo creo en el modelo mixto de negocio (ventas+publicidad) para los medios escritos, que da a los medios una cierta independencia de los poderes públicos.

El error internet, el espejismo, consistió en creer que las grandes audiencias que se preveían para la versión en Internet de los medios impresos les iban a permitir competir con la Televisión por la inversión publicitaria. Mucha audiencia, con poco coste, captará mucha inversión = negocio redondo.

Sólo después llegaron los buscadores, se multiplicaron los soportes (al suprimirse casi por completo las barreras de entrada) y se fragmentó la audiencia hasta límites nunca imaginados. Y todo ello con una permanencia mínima en cada sitio.Después vino el pago por clic, en lugar de por audiencia, y terminó de complicarlo todo.

Ahora la oferta publicitaria de Internet es casi infinita, los precios se han reducido de manera preocupante y las cuentas no salen.

Si quieres leer una versión más amplia de mi análisis, la tienes aquí.

Radio 2.0: ¿la gran desconocida?

El martes no pude asistir a la Jornada Radio 2.0 a la que me había invitado Elisa Escobedo, presidenta de AERO (Asociación Española de Radios Online) y CEO de AudioEmotion, . Desgraciadamente no cuento con el don de la ubicuidad y ese día se celebraba también la Jornada de la Eficacia (que, por cierto, el año pasado coincidió con el Encuentro Internacional de AIMC en el que yo tenía ponencia). Hace cuatro años ya me quejaba aquí de la tendencia que tienen los organizadores de eventos de nuestro sector a convocar simultáneamente actos que interesan a los mismos públicos (o quizá es que a mí me interesan demasiadas cosas).

Alguno pensará ¿cómo se puede decir que la Radio 2.0 es la gran desconocida si consigue 11 millones de oyentes al mes? Y tendrá razón pero visto desde el otro lado ¿cuantos planificadores se plantean la Radio 2.0 como una opción más dentro de sus campañas de publicidad?

La tecnología, internet, viene en auxilio de la radio. Todos llevamos un receptor de radio (un teléfono móvil) en el bolsillo. La radio tiene ya imágenes y es cada vez más participativa. Esta radio no sólo habla; también nos escucha, como le pedía Bertold Bretch hace ya casi un siglo.

El problema, como casi siempre, es la financiación. Una radio muy personalizada conseguirá audiencias muy fieles, pero limitadas en número. Eso hace muy difícil que puedan ser consideradas en los planes de medios de las grandes empresas. Una solución, la que propone Audioemotion, es la agrupación en la comercialización: la unión hace la fuerza.

Otro camino, más arriesgado, es el que se ha propuesto un grupo de periodistas con experiencia en radio, los que promueven Extrarradio, una radio diferente que pretende financiarse mediante el crowdfunding, a base de acumular un gran número de pequeñas donaciones. Cuando escribo este post les quedan 29 días para conseguir los menos de 800 euros que les faltan para iniciar su proyecto. Parece que superarán el reto. Yo así se lo deseo.

El síndrome Belén Esteban

Hace unas semanas me llegó, no estoy seguro pero supongo que a través de Luispe, mi proveedor habitual de gadgets de internet, un vídeo con una actuación gloriosa de Belén Esteban, la ahora llamada Princesa del pueblo.

No tengo nada contra esa señora, de la que, además, sé más bien poco. Pero creo que ese alarde de ignorancia es todo un símbolo de la evolución que ha llevado en los últimos años nuestra televisión.

El nacimiento de la televisión privada, a comienzos de los años noventa, se vivió con esperanza. LLegaba la diversidad; se abría el campo para nuevas opiniones y nuevas orientaciones. Se pensó que aumentaba la libertad, al menos la de elección. Podía haber sido así, pero cada vez estamos más lejos de tener una televisión en abierto de calidad.

Se ha ido bajando el nivel en busca de audiencias masivas (cada vez menos masivas, en todo caso) y de costes bajos. Lo peor es que esas cadenas, esas compañías, que se han introducido con gusto en la espiral de deterioro de la calidad no cejan en su empeño de atacar a las televisiones públicas que por un lado, se han convertido en la última esperanza y, por otro, son una amenaza para ellas si consiguen mantener un buen nivel de audiencia.

Leí ayer un artículo de Juan Valera, Periodista 21, en el que se pregunta ¿cuándo se sustituyó La Clave (los debates de calidad) por La Noria (las discusiones a gritos sobre la última aventura de cama de un famosillo)? El artículo se llama Mediocracia y se basa en un juego de palabras (el gobierno de los medios y el de los mediocres) que al parecer utilizó Felipe González en una entrevista que yo me perdí.

Merece la pena leerlo; refleja muy bien la situación: los medios buscando la uniformidad por abajo, con un nivel de calidad lamentable para ser asequibles a todo el mundo (¿tanto nos desprecian?) y el dominio de los mediocres, que cada vez ocupan más espacios de poder en todas partes.

Los directivos de las televisiones se concentran en unos contenidos que les dan un público cada vez menos atractivo y se dedican, con éxito, eso sí, a ordeñar los últimos litros de leche de una vaca ya muy exhausta. Para ello cuentan con la complicidad de otras partes del mercado.

Mientras tanto, los contenidos más interesantes migran hacia otras maneras de ver la televisión (canales de pago, internet, nuevos dispositivos…) y se llevan tras de sí a los públicos más interesantes.

Pero, y ligo aquí con el tema de mi jurásico post anterior, los actores de las nuevas tecnologías se empeñan también en mirar para otro lado, parecen no querer entrar en el camino de la publicidad de marca que busca notoriedad (que es donde está la mayor parte del dinero que aún no ha llegado a internet) y dejan la mayor parte de la inversión en manos de los buscadores, o sea en el casi monopolio de Google. ¿Cuán dejará internet de ser el coto exclusivo de la publicidad de respuesta directa?

¡Ah! y Belén Esteban, mientras tanto, se permite el lujo de amenazar a Pedro Jota. Un interesante choque de trenes en el mundo de los egos fuertes.

¿Como se mide la audiencia de televisión? (2)

Hace ahora un mes, cuando hablé del rescate de los mineros chilenos, Pedro Moreno preguntaba en uno de los comentarios cómo se mide la audiencia de televisión.

Ya me ocupé de este tema en diciembre del año pasado, pero realmente daría para muchos posts.

El secreto está en conseguir una muestra de hogares representativa de la población. El tamaño de la muestra ha crecido poco a poco y en estos últimos tiempos ha llegado a 4625.

Es un tamaño más que suficiente (es uno de los cuatro o cinco mayores del mundo, y España no es uno de los cinco países mayores) para medir la audiencia de cadenas nacionales de un cierto tamaño, pero la fragmentación creciente de los últimos años está haciendo que se necesite una muestra cada vez mayor.

¿Cómo funciona el sistema de audimetría? Hace poco se ha colgado en YouTube un reportaje en el que se ve un hogar en el que hay instalados audímetros. Refleja bien (y respetuosamente) algunos de los principales aspectos: cómo se selecciona la muestra, cómo se instala el audímetro, cómo se declara la presencia ante el televisor y cómo se remunera a los panelistas.

En principio no es un tema que se deba colgar en internet (supongo que en algún Consejo de Control de Kantar se tratará si eso es una acción perturbadora). Pero ya está colgado y no creo que revele secretos que perjudiquen a la medición. Es un vídeo divulgativo que al final pone el dedo en una llaga dolorosa: muchos puestos de trabajo dependen de los datos de audiencia.

No sé por qué creo que volveré a tratar este tema más adelante.

La 1 ganó septiembre

Como viene siendo habitual a lo largo de este año, La 1 volvió a ser líder en septiembre. Sólo se le han escapado los meses del Mundial de fútbol. Con 15,6% de share sacó dos puntos de ventaja a Tele 5 (13,6%) y casi cinco a Antena 3 (11%).

El fenómeno de la fragmentación aumenta sin parar; entre las tres grandes ya sólo superan los 40 puntos por unas pocas décimas.

Pero aún es másimportante si lo miramos desde el punto de vista comercial: Casi una cuarta parte de la audiencia, la que ve cadenas de TVE, es inaccesible para la publicidad. Bastante más de esa cantidad, un 28,5% corresponde a cadenas temáticas, muy diseminadas, en las que hay que utilizar un número muy elevado de pases para conseguir las coberturas deseadas en una campaña. Son lo que una compañera mía llama chuches. El problema con las chuches es que son complicadas de gestionar y en general los anunciantes no las valoran suficientemente.

Entre las cuatro grandes cadenas comerciales y las autonómicas no llegan ya ni a la mitad de la audiencia (13,6% Tele 5, 11% Antena 3, 10,4% Autonómicas, 7,4% Cuatro y 7% La Sexta: en total 49,4%). La construcción rápida de coberturas se ha complicado ya mucho, pero se seguirá complicando.

Mientras tanto Clan TV (3,6%) se consolida como el segundo canal de TVE, bastante por encima de La 2, que en su nueva faceta cultural se tiene que conformar con un 2,9%. Además supera de largo a los otros canales infantiles: Disney Channel, el más próximo se tiene que conformar con un 2,3%. De los nuevos canales tertuliano/informativos Intereconomía se confirma como el más visto con un 1,3%.

Los canales pequeños del grupo Antena 3 ya suponen más de la mitad de la audiencia de su progenitor.