Casi enteros Casi enteros

Casi enteros: un blog sobre los medios de comunicación, la publicidad, su papel en la financiación de los medios, la investigación y otros temas relacionados con todo esto

Entradas etiquetadas como ‘aedemo’

La @: una apuesta por la innovación (I)

Los días 15 y 16 de junio se ha celebrado La @ de AEDEMO, un seminario que nació para acercar el mundo digital y el de la investigación de mercados. Tienen muchos puntos de contacto, necesitan caminar juntos, pero a veces parece que no lo saben y miran en direcciones distintas.

La digitalización ha transformado la realidad; en muchos sentidos la ha hecho más compleja. Para la investigación de mercados tradicional medir esa realidad es más difícil pero a su vez la digitalización nos proporciona nuevas maneras de aproximarnos a esa realidad.

Cada vez se generan más datos; el análisis de esos datos nos da información que podemos transformar en conocimiento. Los datos, el big data, estuvieron presentes en varias ponencias. El neuromarketing ha avanzado mucho es estos últimos años y también tuvo su protagonismo. El reconocimiento de imágenes, los bots, el tratamiento de voz, la investigación en general y la de la eficacia publicitaria en concreto, completaron el panorama. Un panorama al que aún le faltaría una pieza si no tuviera en cuenta a las start ups que se inician en el negocio; también de eso tuvimos, incluso a la gran triunfadora de estos últimos años.

Gemma Muñoz al comenzar su intervención. (FOTO: EMadinaveitia)

La @ tuvo un comienzo de lujo. Es posible que haya alguien que sepa más de big data que Gemma Muñoz (@sorprendida); lo dudo, pero es posible. Pero seguro que nadie habla de datos con más pasión y conocimiento que Gemma. Los datos contienen información de la que hay que extraer conocimiento para la toma de decisiones. Hay que detectar qué nos pueden decir los datos; hacer big data no es acumular datos: no siempre es mejor tener más datos. @sorprendida sorprende también con su ironía:

los analistas hacen dashboards para que les dejen en paz.

Pero tiene muy clara la importancia de visualizar bien los datos así que recomienda no enseñar nunca una tabla y sí buscar buenos sistemas de visualización.

Gemma define su empresa El arte de medir como Pasión y precisión. Cuando se asiste a una de sus presentaciones queda claro que cumple con su eslogan.

Los datos y su tratamiento estuvieron presentes a lo largo de todo el seminario pero lo que más sorprendió fue la visión de Juan Mora, de Datacentric, que aportó una visión muy diferente. Su investigación es más detectivesca que sociológica. Juan habla de pasar del big data al deep data: enriquecer la información acerca de cada posible cliente utilizando información pública (del catastro, de los ficheros de morosidad, de la cobertura de fibra óptica,…). Añadiendo información fue perfilando la fotografía de un posible cliente (persona individual o empresa) hasta dotarla de una gran nitidez. Reforzó así la idea de que, también en datos, la calidad puede ser más importante que la cantidad.

La tele tiene una cita en León

Mañana empieza en León el 33º Seminario de AEDEMO de Televisión, al que desde hace unos años se le añade el adjetivo multipantalla.

Es la cita anual que reúne a los investigadores de audiencia de las cadenas y las agencias de medios, a los institutos de investigación y a los comerciales de uno y otro lado.

Las cosas han cambiado mucho desde aquel año, a mediados de los ochenta, en que empezaron a celebrarse, en Gandía, estos seminarios. Entonces sólo había televisiones públicas (TVE y las primeras autonómicas); aún no había audímetros: la medida de la audiencia nos la daba el EGM tres veces al año. Por supuesto no existía Internet y nadie habría imaginado que íbamos a poder ver miles de programas de televisión en un aparato, el móvil, que lleváramos en el bolsillo.

Los seminarios de AEDEMO han ido acompañando con sus análisis todos estos cambios.

En León analizaremos la influencia de YouTube y los youtubers, la pasión por las series, la medición de los programas, como el fútbol, que se ven fuera de casa, la convergencia de la medición de Internet y Televisión y muchos otros temas de actualidad.

Seguro que va a estar interesante.

Y seguro que echaremos de menos a Luis, que siempre ha sido el alma de estos seminarios. Esperemos que se recupere pronto. ¡Mucho ánimo!

La segunda @

Aún recuerdo la Asamblea del año pasado en Barcelona. Cuando pregunté por qué no conseguíamos atraer hacia la asociación a todos esos investigadores que ha traído la digitalización y que en muchos casos ni siquiera quieren reconocer que lo son. Creo que mi mensaje cayó en terreno abonado. Ese, quizá, puede ser el origen de La @ de AEDEMO un seminario que en mi imaginación se vuelve en pocos años más importante que el de Televisión, siguiendo la tendencia del mercado.

El pasado octubre se ha celebrado la segunda edición, con asistencia de cerca de cien personas (nada que ver, de momento, con el de tele; tengo que preguntarle a Pistoni cuantos asistentes hubo en el segundo seminario en Gandía).

¿Conseguiremos que los digitales se asocien a AEDEMO? No lo sé. Pero los caminos más largos empiezan con un primer paso.

Jaime Agulló ha conseguido reunir un Comité  (Fernando, Virginia y yo mismo) con el que es muy fácil trabajar; nos llevamos bien, hemos compartido trabajos anteriores (al menos dos a dos) y estamos muy abiertos a aceptar las buenas ideas del otro.

La combinación entre ponencias y proyectos va funcionando cada vez mejor. Este año hemos contado como moderador de la sesión de proyectos con Juanjo Azcárate, empresario de éxito y digital como el que más. Estoy seguro de que se llevó las tarjetas de todos los participantes y hará propuestas de colaboración a más de uno.

Esa tarde vivimos una arriesgada videoconferencia con Macao para conocer en vivo a dos influencers, pero también conocimos la manera de hacer brainstorming automático, potenciar el vídeo on line desde el e.mail, utilizar la realidad virtual en investigación y unas cuantas ideas más.

La @ empezó, como el año pasado, con la reflexión de Felipe Romero, se va a convertir en un clásico; esta vez con un optimista canto a la diversidad: busquemos fuera lo que no tenemos dentro. También lleva camino de clásico David Atanet en esta ocasión contando las posibilidades del análisis big data desde una aplicación financiera como Fintonic.

Pablo Romero puso el dedo en la llaga de los Datos Zero, todo aquello que no se mide, o cuyas mediciones no están a disposición del mercado o que se escapa por los agujeros de la red con que los pescamos.

Mapi Merchante contó las conclusiones del ambicioso estudio Net Radar, sobre la publicidad que se ve (y la que no) el recuerdo que genera y los factores que lo potencian.

El big data (Atanet, Belén Albarracín), las emociones (Lola Chicón, Luisfer Ruiz y Alfonso Calatrava) y el móvil (Ruth Bareño, Mapi) fueron los grandes protagonistas de esta edición de La @ en la que Sara Picazo analizó cómo conseguir el tuit perfecto.

Todos nos quedamos impresionados con las posibilidades del Internet de las Cosas (IoT) que nos explicó Carlos Carazo.

 

(*) Este artículo, resumen de mis impresiones sobre el Seminario digital de AEDEMO La @ se publicó en el número de diciembre de la revista I&M.

Buen año para la investigación

Las asociaciones del sector de la Investigación de Mercados (Aneimo, la de las empresas, AEDEMO, la de los profesionales y ESOMAR, la internacional) celebran cada año un encuentro en el que se presentan los datos más importantes y se plantean los temas de interés que afectan a los profesionales de un sector, como casi todos, en profunda transformación.

Pronto hará un mes que se celebró la de este año en la que se presentaron muchas buenas noticias.

A nivel internacional el año 2015 fue el sexto consecutivo de crecimiento de la inversión en investigación, tras la crisis de 2009. Pero, así como en años anteriores ese crecimiento se basaba sobre todo en países emergentes, ahora los buenos resultados han llegado también a Europa y al resto de países avanzados.

En España se produjo un crecimiento del 8%, el mayor desde el año 2007. Para 2016 se espera un crecimiento algo menor, entre el 3,5% y el 4%.

España es el quinto país de Europa por volumen de inversión y el tercero que más creció en 2015.

La investigación on line se impone cada vez con más fuerza en perjuicio de las entrevistas telefónicas y, más aún, de las cara a cara en el hogar.

Estamos en un momento en el que la investigación, que siempre proporcionaba grandes cantidades de datos, se diluye entre las montañas de datos desectructurados que se obtienen por otras vías, en muchos casos proporcionados por los mismos usuarios. La clave es no perderse en esa maraña de datos y saber convertirlos en información útil para la acción. Que dispongamos de muchos datos no quiere decir que todos sean igual de buenos. Además la investigación tradicional nos ayuda a conocer cómo es el cliente fuera del entorno de la propia empresa.

La investigación vive un momento apasionante pero con profundos cambios que se pueden interpretar como oportunidades. El encuentro con la investigación ayuda a mejorar nuestra perspectiva y a intercambiar puntos de vista entre los diferentes actores de un negocio en plena transformación.

Las encuestas y los medios

El mercado publicitario y de medios se ha basado siempre en resultados de encuestas, de mayor o menor tamaño, pero representativas de la población.

Detrás de las encuestas está toda una rama de las matemáticas: la Teoría de Muestras, la misma que está tras los estudios electorales.

Los últimos fracasos en estos estudios han hecho que algunos se pregunten ¿y si también fallan los estudios de audiencia y no hay una jornada electoral para comprobarlo?

Creo que es un problema grave.

En el Reino Unido los estudios preveían el triunfo de los partidarios del Brexit hasta que, en la misma semana del referéndum cambiaron bruscamente tras el asesinato de la diputada Jo Cox. ¿Se hicieron bien estas últimas encuestas o, con las prisas, se olvidó el uso de muestras representativas? Con una buena muestra, acertar los resultados de un referéndum es muy fácil.

Las elecciones españolas son mucho más complejas (en realidad hay 52 elecciones y cada una exigiría una muestra de tamaño suficiente) pero el fracaso en las estimaciones fue sonado. Incluso en las israelitas de la jornada electoral que, se supone, manejaron grandes muestras. Pero ¿eran representativas?

Aneimo, la asociación del sector, dejaba caer una sospecha en su nota: ninguna de sus empresas asociadas, que cumplen las normas de Esomar, realizó un estudio exit poll.

En estos tiempos en que los datos nos abruman, no confundamos la cantidad con la calidad. Si de todos esos datos de los que ahora disponemos queremos extraer conclusiones para poblaciones o grupos de personas que no están en las bases de datos, deberemos insistir en que la base de partida sea representativa de ese grupo.

Si no es así podemos incurrir en errores muy graves.

Para los estudios de medios esa es la principal misión de la AIMC: garantizar que las muestras utilizadas representan a la población.

(*) Este artículo se publicó en el número del pasado julio de la revista IPMark.

La revista I&M, de AEDEMO, publicó en septiembre un número, casi monográfico, sobre el tema de las encuestas electorales. Nada menos que diez artículos, de especialistas como Lluis Fatjó, Ricardo Romero de Tejada, Carlos Lamas, Juan Antonio Gómez Yáñez, Kiko Llaneras, Paz Álvarez, Pepe Martínez, Idoia Portilla, José Vicente del Barco, Rafael Urbano o Sergi Guillot. Muy recomendable para cualquiera al que le interese este tema.

Gerona es, desde hoy, la capital de la Televisión

Esta tarde comienza el Seminario de AEDEMO de Televisión, la cita anual de los investigadores y de todo el mercado del que sigue siendo el medio rey.

La Televisión ya no es lo que era; es mucho más. Por eso el seminario se llama desde hace varios años multipantalla.

La TV se cita en Gerona

La audiencia de televisión en el televisor del hogar cae desde el año 2012; es un dato que no se puede olvidar, pero que no debe preocupar demasiado si pensamos que en 2015 todavía fue de 234 minutos diarios para el español medio. ¡Casi cuatro horas! Y eso para el día medio; algunos meses del año se superan ampliamente las cuatro horas.

Pero la televisión, o el vídeo, o el contenido audiovisual, ya es difícil establecer fronteras, no se ve sólo en el hogar, ni sólo en el televisor: el móvil, el PC, la tablet o la consola son también aparatos en los que se consumen contenidos. En muchas ocasiones incluso se utilizan varios dispositivos a la vez, porque la televisión, o sus comentarios, se comparten en las redes sociales.

Además mucho de ese contenido ya no se ve en el momento de su emisión; lo que ahora se llama televisión lineal está dejando paso al consumo lo que quiero, cuando quiero y dónde quiero. Algo que es mucho más fácil de describir que de analizar.

Esa realidad, cada vez más compleja, va a ser objeto de análisis durante dos días, con una agenda muy intensa, en Gerona.

Seguro que hay contenidos interesantes a los que dedicaré más posts en los próximos días.

De momento, si quieres ampliar información, aquí te adjunto una entrevista a Luis Pistoni, responsable de la organización del Seminario y otra a José María Moix, presidente de AEDEMO, la asociaición que nos agrupa a los investigadores de mercado y de opinión.

Rosa no dice adiós

Recuerdo perfectamente cuándo conocí a Rosa Margarit. Eran buenos tiempos para la publicidad y había muchas fiestas en el sector. Como yo aún no me había pasado a este lado, era muy raro que me invitaran (después, como trabajaba en investigación, tampoco me han invitado a muchas).

Corrían los últimos años ochenta, la década prodigiosa de la publicidad española. La SER organizó una fiesta multitudinaria en el Museo del Ferrocarril en la que actuaban todos los grandes grupos españoles del momento: recuerdo a Mecano, Duncan Dhu, Los Secretos, La Frontera, Los Ronaldos,…pero estaban muchos más.

Curiosamente el evento incluía cena formal, con los invitados sentados en mesas.

Cuando Claudio Martínez, el Director de Marketing de la SER, nos sentó en la misma mesa y nos presentó, me dijo: os vais a caer bien. Claudio era un tipo fantástico, ya por entonces buen amigo y ¡claro! acertó.

Tiempo después volamos uno al lado del otro en el avión que nos llevaba a San Sebastián para el Seminario de AEDEMO de Televisión en la que fue mi primera ponencia en ese marco. Volar a San Sebastián en febrero en aquellos miniaviones de hélice podía ser toda una aventura, seguro que yo iba nervioso ante lo que me esperaba al día siguiente, pero lo recuerdo como un viaje agradable. Seguro que la Margarit tuvo mucho que ver.

Luego, cuando yo ya era publicitario, coincidimos durante muchos años en la Comisión Técnica del EGM. Rosa representaba a los anunciantes. Siempre interesada, siempre exigente, aportando siempre una visión interesante.

Empezamos a colaborar en investigaciones propias antes de que Procter&Gamble, la empresa en la que ha trabajado siempre, fuera cliente de Zenith, Rosa confiaba ya en nosotros, algo que siempre le agradeceré.

Luego, en estos doce o trece últimos años en los que ha sido cliente, la relación ha sido más intensa. Una de sus exigencias fue establecer reuniones periódicas de Investigación, en las que mi equipo le contaba al suyo todas las novedades que fueran surgiendo tanto en nuestras investigaciones como en las del mercado. Eso nos ha obligado a estar siempre al día. No conozco otro anunciante más interesado que Rosa. Gracias a ella creo que somos los que más sabemos sobre cómo se construye cobertura en Internet.

Cuando puse en marcha el panel Zenthinela conté con ella desde el primer momento:

– Eduardo: sabes que en nuestra empresa no podemos dar datos; es información confidencial.

-Pero Rosa: Sólo hay una pregunta de datos de la empresa, no la contestes y ya está, lo demás son opiniones. Y la tuya, en este mercado, importa. Y mucho.

Pese a las reticencias iniciales, nunca ha fallado. Siempre contestaba antes de la fecha que yo había puesto como tope. Tanto que, la única vez que le envié el recordatorio que suelo enviar (hasta cuatro o cinco veces) a los panelistas que se retrasan, se enfadó porque pensó que yo no estaba entendiendo su escasez de tiempo. El enfado le duró dos minutos y enseguida contestó.

Ha sido siempre una negociadora implacable. Los medios la temían, pero también la adoraban.

En el mundo del marketing y de la publicidad haber trabajado para P&G es un mérito que se valora mucho en la trayectoria profesional. Haberlo hecho teniendo como interlocutor a Rosa Margarit no sólo es un mérito, también una gran satisfacción personal.

Ayer fue el último día de trabajo de Rosa en la Procter. Se prejubila. Mandó un mail diciendo que no se despide. Yo espero que sea verdad y que nos sigamos viendo. No creo que le resulte fácil separarse siendo tan joven de lo que ha sido su vida profesional durante todos estos años.

Muchas gracias, Rosa. Somos muchos los que te queremos. Y lo sabes.

¿Tenemos la investigación de audiencia que necesitamos?

Esta, la pregunta del millón, era el título de un artículo que escribí el pasado verano para el Anuario de UTECA y pasó a ser también el de la ponencia que preparé deprisa y corriendo para presentar en el Seminario de AEDEMO de televisión de la pasada semana en Zaragoza.

La investigación debe proporcionarnos un modelo de representación de la realidad tan bueno como permita el desarrollo de la tecnología en cada momento.

Cuando la televisión se veía en blanco y negro, había dos o tres canales y la audiencia era masiva y muy concentrada, teníamos el EGM y con aquellos datos, que nos llegaban tres veces al año, era suficiente para modificar las programaciones, establecer las tarifas publicitarias y negociar lo poco que se negociaba entonces.

Cuando, con el nacimiento de la televisión privada llegó una competencia más amplia y unas audiencias mucho más repartidas, teníamos el sistema de audimetría, que se había puesto en marcha tras un concurso convocado por TVE cuando aún no hacía falta de verdad. La audimetría ha hecho bien su trabajo durante más de veinte años: medía bien lo que decía que medía (la audiencia en directo, en los televisores del hogar principal) y lo que se dejaba sin medir no era muy importante para el mercado. Sólo cuando un partido de fútbol de la máxima rivalidad, uno de los llamados clásicos, se emitía en un canal de pago y una buena parte de su audiencia se producía fuera de los hogares, echábamos de menos contar con otro sistema.

Ahora la situación ha cambiado. El televisor es sólo uno de los dispositivos en que se puede ver contenido audiovisual; el hogar es sólo uno de los sitios en que se ve y el momento de la emisión es sólo uno de los momentos en que se ve. Además se pueden estar usando varios dispositivos a la vez y tener la atención repartida entre todos ellos.

Necesitamos medir la audiencia ATAWAD (any time, any where, any device): en cualquier momento, en cualquier lugar y en cualquier dispositivo. Y eso para cada contenido: sea un programa o un anuncio.

¿Qué necesita el mercado?

Aunque creo que está respondido en los párrafos anteriores, antes de redactar mi ponencia hice una pequeña encuesta entre mis colegas de investigación de las agencias de medios y los panelistas de Vigía y Zenthinela. En unas pocas horas tenía 22 respuestas de verdaderos expertos en el sector. (También colgué una pregunta en Twitter, sin éxito). Las respuestas más citadas fueron:

Medir la audiencia en cualquier dispositivo; en cualquier lugar (también fuera del hogar); disponer de los datos en una single source; con una muestra suficiente para medir eventos minoritarios. Además sería conveniente la identificación automática de eventos (con especial hincapié en anuncios).

Otras peticiones, no tan mayoritarias son: la audiencia segundo a segundo; la audiencia diferida (más allá del VOSDAL: viewing on the same day as live); la audiencia de invitados y la audiencia en segundas residencias.

Como a todos nos gusta pedir si nos dan la oportunidad, también hubo otra serie de peticiones interesantes, pero no del todo relacionadas con la investigación de audiencia.

Lo curioso es que muchas de las peticiones ya están técnicamente resueltas; incluso en algunos casos Kantar Media, el medidor oficial de nuestro mercado, las mide (audiencia de invitados, audiencia en diferido,…) pero es el mercado el que no ha aceptado que los datos obtenidos se difundan. Otras no son complicadas: la audiencia se recoge segundo a segundo, aunque se reporta minuto a minuto, algo que tenía más sentido hace veinte años, cuando nos asustábamos del tamaño de los ficheros generados, que ahora. Y medir minuto a minuto eventos como los anuncios que duran diez o veinte segundos, no parece muy estético. Para medir la audiencia en segundas residencias basta considerarlas como otras habitaciones de la casa y enviar los datos por móvil (como se envían los del hogar principal).

Se configura así un puzzle curioso, en el que tendríamos por una parte los dispositivos cuyo contenido hay que medir (televisores tradicionales, smartTV, PCs/webTV, tablets, smartphones, videoconsolas, radios,…); por otro las variables que queremos medir (audiencia para contenido, por dispositivo, por lugar de visionado, por momento de visionado,…). Para ello existen en el mercado diversas metodologías o dispositivos de medición (PM: people meters, PPM: personal people meters; RPD: return path data; mediawatch; smartphone; Virtualmeter;…) y por último los institutos de investigación que podrían hacerlo (Kantar Media; ComScore; Ipsos; Nielsen/Arbitron; Gfk; Rentrak,…).

No siempre un instituto hace la misma oferta en todos los países y a lo largo del tiempo. No hace muchos años Kantar ofrecía una combinación de RPD y PPM; ahora viene con una solución más avanzada, Virtualmeter. Rentrak es ahora el apóstol del RPD…

El caso es que el puzzle no termina de encajar; necesita un buen lubricante.

Por otra parte, como indicaba Fernando Santiago en sus notas, no parece posible construir (y financiar) muestras suficientemente grandes para medir cross platform. La audiencia multipantalla exigirá muestras muy grandes si se quiere tener datos fiables de, al menos una parte, de la long tail.

¿Qué deberíamos hacer como mercado? Nos encontramos en una encrucijada con dos posibles salidas: ponerles las pilas a los actuales medidores Kantar y ComScore para que se adapten a las necesidades del mercado o bien, la que sería teóricamente la mejor, constituir un JIC (comité del conjunto de la industria) y convocar un concurso abierto a todos los institutos con un pliego de condiciones que recoja todas esas necesidades.

El problema es que en la actual situación, en la que los financieros dominan en todas las empresas un concurso sólo sería planteable si el resultado final es un ahorro de dinero. Y medir un fenómeno cada vez más complejo, con procedimientos nuevos y muestras mucho mayores, no parece que pueda reportar ningún ahorro.

Yo le veo a la propuesta de Kantar un serio problema: más de uno querrá pagar los nuevos Virtualmeter con Virtual money.

Ese es el resumen de mi ponencia, aunque si uno ve la repercusión que tuvo en Twitter podría pensar que la clave de mi mensaje fue que se debería reportar la audiencia segundo a segundo, algo que no pasa de ser anecdótico dentro de todo el conjunto de propuestas.

Es la dictadura de la trivialidad.

La televisión social es multipantalla

Pese a lo que podría parecer por el post anterior, al ver que las ponencias ganadoras provenían de las televisiones más tradicionales, la mayor parte del contenido del Seminario de Televisión de AEDEMO tocaba otros temas y no sólo lo que se ve por el televisor. Se habló de televisión aumentada.

El miércoles Julio Alonso, el Fundador de WeblogsSL moderó un coloquio que llevaba por título #TV:¿trending topic? en el que se profundizó sobre la relación entre la televisión y las redes sociales, en especial Twitter. Participaban Paco Asensi, Director de Desarrollo de Negocio de RTVE.es, Fernando Carrión, Director de Estrategia y Planificación de Yahoo! España, Xavier Rius, Director General de Ventas y Negocio de Videoplaza y Carlos Sánchez, cofundador de Tuitele. Rompió el fuego Asensi destacando algo que yo siempre digo: la televisión siempre fue social; desde sus primeros tiempos se convitió en el tema principal de conversación y si no habías visto el programa central del prime time te quedabas marginado. Ríus, que se declaró un freekie de las redes, con más de diez perfiles en Twitter, manifestó, quizá por eso mismo, su escepticismo sobre el valor cualitativo que puedan aportar los comentarios en las redes. Carrión tiende a desconfiar de lo que se pueda extraer en esos momentos  de los comentarios en Twitter por la falta de representatividad de los participantes en esa red social. Sánchez mantenía justo la postura opuesta: un gran número de comentarios sobre un programa demuestran su repercusión social y el análisis de esos comentarios puede aportar muchísimo valor a programadores y anunciantes. Yo estoy más cerca de la postura de Carlos Sánchez y Paco Asensi: esta nueva situación nos abre toda clase de posibilidades de análisis de gran riqueza, sobre todo cualitativos, pero también cuantitativos.

El jueves por la mañana hubo dos sesiones. En la primera Laura Ludeña y Alfonso Calatrava, de Google nos pusieron en situación sobre la importancia que ya tiene el consumo multipantalla, las posibilidades de YouTube para completar de forma eficiente la cobertura de campañas de televisión (según sus estimaciones un anunciante puede ahorrarse hasta un 20% planificando en varias pantallas) y propusieron al mercado iniciar estudios sobre consumo audiovisual multipantalla como los que ya se hacen en otros países europeos. Toda una buena noticia, que el gigante Google esté dispuesto a cofinanciar los estudios que necesita en este momento el mercado representa un gran paso adelante.

Joan Bas, Director General de Diagonal TV, hizo un elogio de los estudios cualitativos. Para su productora han pasado de ser una amenaza a una inspiración. Contó cómo hace años había una leyenda urbana: si quieren eliminar tu programa te hacen un cualitativo. Ahora en cambio han conseguido ir mejorando su serie Amar en tiempos revueltos temporada tras temporada basándose en los aprendizajes que obtenían en sucesivos estudios cualitativos.

Shirlene Chandrapal, VP Connected TV de Smartclip fue la representante internacional en el seminario. Dibujó el panorama de la penetración de la TV conectada y sus posibilidades en el mercado publicitario.

La mayoría de nosotros no conocemos bien la programación de las autonómicas (al menos no de todas). Susana Ortega, Jefa de Audiencias y Emisiones de RTVCM, nos ayudó a solucionar ese problema, con una ponencia cuajada de vídeos sobre las autopromociones de esas cadenas. Quizá pecó de excesiva duración. Para nuevas ediciones convendría seleccionar lo mejor de cada apartado, aunque algún programa quedara fuera.

En la segunda sesión se produjo la que yo creo fue la noticia más importante del seminario: Josep Cerezo, Director General de Operaciones y Sergi Cornet, Director de Gestión Operativa de Kantar Media, presentaron el Virtualmeter, un nuevo software de medición que podría resolver la mayor parte de las necesidades que tiene actualmente el sistema de medición de audiencias multidispositivo (y que yo iba a exponer como Carta a los Reyes en mi ponencia del día siguiente). Si, como afirmaron, el 58,4% de los panelistas consume televisión en dispositivos diferentes al televisor, la necesidad de medir este nuevo fenómeno es apremiante. Ofrecieron poner en marcha en breve una prueba en España si lo piden el Consejo de Control y el Comité de Usuarios. Espero que el mercado, representado por esos dos órganos, no sea tan miope como para no impulsar esa iniciativa.

La sesión se completó con la ponencia ganadora, que ya comenté en el post anterior y con Análisis de transformacionón de valores y emociones de marca, presentada por Agustín Busto, Director de Desarrollo de Negocio de Ecmware. Explicó un caso de búsqueda de afinidad entre Fanta y el canal Neox. Puede que el público estuviera deseando irse a comer, pero la sensación, bastante general, es que el ponente no se hizo entender bien.

Entre el grupo con el que yo hablé más, la sensación, casi unánime, era que la sesión de la tarde (una de las más complicadas por aquello del sueño post comida) fue la más interesante del seminario. La opinión de mi grupo puede estar sesgada: en la sesión de la tarde había una presencia amplia de investigadores de agencias de medios. Bueno, las opiniones siempre son subjetivas, pero yo también la suscribo. Empezó con la ponencia Más es más, de Raúl Devia, Director de Investigación de Maxus. presentó un estudio muy interesante a través de una única diapositiva, que además había entregado entre el público en forma de marcapáginas. Una de las ideas centrales de la presentación es que el zapping está disminuyendo, debido al uso de pantallas complementarias. Eso puede llevar a engaño: seguiremos pagando por una audiencia que ha desviado su atención hacia lo que hace en otro dispositivo. Quienes usan Twitter (más concentrados redactando su mensaje en 140 caracteres) recuerdan menos la publicidad que quienes entran en Facebook durante los bloques. También el smartphone distrae menos que la tableta. Pero, en resumen, el efecto es mínimo: apenas un 1%.

A continuación asistimos a la ponencia más innovadora, la de los Javieres, que ya traté en el post anterior.

Sergio Rodríguez, Head of Insight de OMD, nos contó ¿A qué se refería la profecía Maya? No se produjo el fin del mundo, pero sí grandes cambios en el panorama de la comunicación. El fin de la publicidad tal como la conocíamos supone una gran oportunidad para aumentar el engagement.

Petra Plaza, Directora de Investigación de Aegis Media y Santiago de Mollinedo, Director General de Personality Media nos pusieron al día del valor de las celebrities. Las campañas con famosos se han incrementado en los últimos años; la razón es que funcionan muy bien si se utilizan adecuadamente. Las claves son: elegir bien el personaje, trabajar la creatividad y trabajar en continuidad.Casi un 25% de las campañas del año pasado utilizaban a un famoso. El que tuvo mayor presencia fue Jesús Vázquez, con una gran capacidad de prescripción.

El último día hubo dos ponencias y una mesa redonda. Yo fui el responsable de la primera a la que, si tengo tiempo, dedicaré un post especial. Compartí mesa con Jordi Guix, Director General Research Modelling Iberia y Enrique Martín, Global Product Development Director de Havas Media que disertaron acerca de Social TV: tú emite que yo comento. Un nuevo reto para las audiencias y la atención. Tuvieron mala suerte con la tecnología pese a que, soy testigo, habían probado esa misma mañana que todos sus vídeos entraran adecuadamente. Pero el contenido de la ponencia era muy bueno y se centraba en el tema que rondó por el seminario a lo largo de toda su duración: la influencia recíproca entre la televisión y las redes sociales. En España, un país que lleva lo social en su ADN tenía que triunfar la SocialTV. Un 60% de los comentarios sobre televisión se producen en Twitter. Las redes sociales han añadido un nuevo componente a la televisión que, desde la investigación, no podemos ignorar. La interacción aumenta la audiencia. Un buen número de comentarios corresponden a las marcas que se anuncian, especialmente a las que tienen presencia en los programas. Facebook influye a la hora de elegir el programa que se va a ver, pero luego se sigue por Twitter.

Enrique Martín habló también de cómo el sentimiento hacia Campofrío mejoró tras la emisión del spot el currículum de todos, de las pasadas Navidades.

El seminario terminó con una mesa redonda que con el título TV ¿crisis o punto de inflexión? reunió a un plantel de grandes profesionales, moderado por Luis Larrodera. La crisis de la inversión publicitaria ha creado dudas sobre la posibilidad de configurar programaciones de calidad. Esa no es la opinión de Lázaro García de Publiespaña, y Carlos Fernández de Antena 3: si se acepta la audiencia como indicador de calidad, nunca hemos vivido mejores momentos: el consumo de televisión bate cada año su propio récord. Las grandes cadenas seguirán apostando por crear programas de éxito ya que, como dijo Pepe Abril, del grupo de productoras Boomerang, hay que conseguir audiencia porque es la manera de conseguir publicidad, que es quien paga el negocio de la televisión.

Lázaro insistió en que los precios de la publicidad están bajo mínimos y que su objetivo para este año es que no sigan bajando: No tiene sentido que la inversión en televisión haya caído a la mitad durante la crisis; la caída de la economía ha sido mucho menor.  Fernández auguró una nueva caída del 20% para este año. Carlos Bosch, de Danone, pidió que aumentara la calidad, con una menor saturación. En parte la respuesta viene de la mano de los bloques cortos de Tele5, que analizaba la ponencia ganadora. Fernando Rodríguez, de ZenithOptimedia insistió en que la televisión es ahora menos eficaz que antes: los precios se ajustan por la demanda y la eficacia. Justificó la concentración de los grandes grupos publicitarios en la evolución del mercado: hace falta músculo para mantener las grandes inversiones que hay que hacer en investigación. Las agencias de medios no somos meros intermediarios, somos el motor de la investigación y aportamos mucho valor para el anunciante. Nuestro reto es medir en ventas cada euro invertido para que el anunciante no desvíe su inversión fuera de la publicidad.

Pepe Abril basó el éxito de La Voz en el hecho de que tiene elementos nuevos que emocionan, como las audiciones ciegas, pero también al tratamiento que se ha hecho de las redes sociales. La televisión es un medio en constante renovación: si viéramos la programación de hace cinco años, nos parecería del siglo XV. Vamos hacia una televisión más participativa; cualquier programa debe tratar de interactuar con su audiencia a través de las redes sociales. Como afirmó Lázaro, el GRP antes nacía y moría en televisión; ahora se prolonga y amplifica en las redes sociales.

Bosch reconoció que el audiovisual es la conexión reina para las marcas; bienvenido por tanto el audiovisual en internet como complemento. Añadió que no hay nada más democrático que el mando de la tele.

Jesús López Cabeza, de Aragón Televisión, reconoción que las televisiones autonómicas lo están pasando mal en estos últimos tiempos, pero tienen futuro porque aportan un producto diferencial. Para ello es importante mantener la credibilidad.

En resumen dos días muy intensos e interesantes, que tenemos que agradecer a AEDEMO que, un año más, ha conseguido reunir a un gran plantel de ponentes para analizar la vanguardia de la televisión.

 

Zaragoza: las cadenas tradicionales se imponen en el mundo multipantalla

La segunda semana de febrero es el momento que elige AEDEMO (la asociación de los investigadores de mercado) para realizar su Seminario sobre Televisión. Este año, en el que ha llegado a su 29ª edición, se ha celebrado en Zaragoza.

Desde hace varios años el seminario, como la realidad, ha ido dando un giro hacia la televisión fuera del televisor. Este año se ha dedicado a la televisión multipantalla.

El fenómeno de la televisión multipantalla y su derivación, la televisión social, ha impregnado la mayor parte de las ponencias pero, cosa curiosa, la televisión más tradicional se ha impuesto. En el seminario se conceden dos premios: uno a la ponencia más innovadora, correspondió a MEFE TV. El valor de la planificación, presentada por Javier Andrés, Director de Marketing de Atres Advertising y Javier Herreros, Director de Tres 14 Research; el otro premio, a la  mejor ponencia, lo ganó ¿Recuerdas el 37? que presentaron Susana Martín de los Ríos Responsable de Investigación y Servicios de Política Comercial de Publiespaña y Pilar Granados, Directora General de CIMEC Investigación.

He asistido a casi todas las ediciones del seminario y no recuerdo ninguna en la que las dos grandes cadenas se llevaran los premios. Es más, tendría que hacer mucha memoria para encontrar algún año en que dos de las grandes cadenas presentaran ponencia. Enhorabuena y bien venidas.

Los Javieres ganaron su premio por una presentación muy innovadora formalmente, sentados en torno a una mesa, con sus copas de whisky (creo que era Nestea, pero con la botella y en la distancia daba el pego muy bien) comentando los resultados de un modelo matemático con el que han detectado los cuatro acordes que se necesitan para construir una campaña eficaz en televisión: Duración, Creatividad, Posiciones y Publicidad Especial. Unas conclusiones no excesivamente originales, pero muy bien contadas y medidas. La modelización econométrica, los Math Men se imponen en esta nueva situación del mercado.

La mejor ponencia, la de Susana y Pilar me es especialmente cercana. Como reconoció Pilar (gracias, amiga) el estudio surge en la estela de los Menfis, que empezamos a realizar en Zenith en mayo de 1994 y de los que llevamos cerca de 40 oleadas para televisión y más de cincuenta si contamos los realizados para todos los medios. El estudio que presentaron demuestra (y mide) el valor de los bloques cortos para aumentar el recuerdo y demuestra el valor de las posiciones preferentes. Algo que en Zenith conocemos hace muchos años y de lo que hemos podido analizar su evolución a lo largo del tiempo. Efectivamente, un anuncio en la posición 37 del bloque se recuerda más bien poco. Los anuncios que se emiten en bloques más cortos se recuerdan más que los que se emiten en bloques largos. Es bueno saber esto, pero también que los valores no se mantienen en el tiempo. Un estudio como éste ha de repetirse periódicamente.

Pero el seminario se dedicaba a la televisión multipantalla; la primera mesa coloquio y una buena parte de las ponencias hablaron de ese tema, que también impregnó la mesa redonda final. Esto da para un próximo post.