BLOGS
Casi enteros Casi enteros

Casi enteros: un blog sobre los medios de comunicación, la publicidad, su papel en la financiación de los medios, la investigación y otros temas relacionados con todo esto

Archivo de la categoría ‘Internet’

El debate sobre la limpieza digital

Aunque me da la impresión de que el debate del fin de semana se quedó en Facebook y allí acabó, voy a intentar con esta última entrada atar algunos de los cabos que quedaron sueltos.

Los robots, el tráfico no humano, son un problema. Sobre todo si no se saben separar bien y se quiere cobrar por sus impresiones. Pretender ignorarlo es un error.

Los robots de negociación, la compra programática, no tienen por qué ser un problema si se usan bien; si se tiene buena información y buenos especialistas para manejarla. Otra cosa es, como puntualizaba Antón, llevar a programática la parte más importante de la compra. Puede no ser la mejor idea. Aunque nos digan que en un futuro próximo todo será programática.

Cuarta y última entrega del debate que empezó en Dinosaurios de Internet.

En Internet se pueden medir muchas cosas; muchas de ellas superfluas. Lo importante es ser capaces de extraer de los datos conocimiento para tomar las mejores decisiones. Y en unas campañas la información relevante será diferente que en otras.

En un determinado momento entran en la conversación las inevitables comparaciones con otros medios. Antón pregunta: ¿Cómo se gestionan las inserciones de las devoluciones en prensa? Y después: ¿Las inserciones de los periódicos “de pago” regalados en aeropuertos, universidades, instituciones, IFEMA , se computan como de pago vs gratuito ?

Y ahí tengo la sensación de que acabamos haciéndonos trampas en el solitario: Si, como ocurre en la mayor parte de las campañas, la prensa se compra por audiencia y no por tirada, las devoluciones son irrelevantes (no lo serán si hemos pagado por tirada, en una campaña de encartes, por ejemplo). Respecto a los gratuitos hay algo que nunca he entendido: ¿por qué para la publicidad en Televisión es mejor ser gratuito y en prensa hay que ser de pago (con todos los componentes gratuitos que cita Antón)? Hay cosas que no son fáciles de explicar en nuestro negocio.

¿Cuando sube el consumo de agua en los intermedios de los bloques publicitarios y se genera el zapping se pagan esos GRPS?

Como es sabido, el acuerdo del mercado para Televisión es pagar lo que miden los audímetros; el zapping está descontado por estos aparatos: cuando se produce un cambio de cadena, la audiencia se va a la nueva cadena. Y ese acuerdo se ha mostrado como un buen acuerdo que ha favorecido al medio. No estaría mal llegar a acuerdos similares en digital.

Ignacio Monar pregunta: ¿Como se certifican los oyentes reales y los que tienen interés en el producto?

Está claro: no se certifican. La Radio, la Prensa, se siguen midiendo con el EGM. Tenemos datos sobre la declaración del entrevistado, basados en el recuerdo. Se podría hacer mejor, pero el mercado nunca ha decidido ir por ahí. Siempre recuerdo la prueba de los audímetros de Radio que se hizo en la primavera de 2003 (¡hace 14 años!) que salió bien…y se quedó en un cajón de la AIMC. Parece que a nadie le interesaba, le interesa, medir mejor.

Ahora la tecnología nos va a dar, nos da ya, nuevas posibilidades de medir mejor también otros medios. ¿Le interesará a alguien?

En algún momento del debate se comentó: ¿Lo que ha servido para Hawkers no sirve para P&G? Está claro que es un problema de dimensión y de asunción de riesgos: si, como proclama Paco Pérez en sus charlas, Hawkers comenzó con 300€ para comprar producto y hacer comunicación, si se equivocaba no perdía mucho. No es el caso de P&G.

Pero el problema de lo digital no es que en los otros medios se hagan las cosas aún peor. El problema, creo, es que aquí sí se pueden hacer mejor y no siempre apostamos por ello. Hay un gran campo de mejora. Quizá los movimientos de Marc Pritchard, de P&G y de otros colegas de gran peso en el mercado ayuden a mejorar. Quizá.

Creo que en el debate se han tocado algunos de los puntos clave del mercado de la publicidad digital: transparencia, precio, medición (y la necesidad de un tercero que mida o certifique), robots y tráfico no humano, visibilidad, aparición en ubicaciones inconvenientes, comercialización programática,…Y yo he ofrecido mis puntos de vista. Me habría gustado tener más respuesta pero parece que los debates no son para el verano.

Fin de la serie. Estaré encantado de seguir el debate en los comentarios.

Más sobre limpieza digital

En las dos entradas anteriores creo que he puesto los pilares de lo que debería llevarnos a un panorama digital más limpio.

Voy a intentar ahora responder a los puntos clave que quedaron en el aire en la discusión en Facebook del pasado fin de semana.

En Dinosaurios de Internet empezó el debate.

César Núñez hablaba de la necesidad de subir los precios. Creo que todos sabemos que, en un entorno de oferta casi infinita, es más fácil bajar los precios que subirlos. La clave, como en todo, estaría en distinguir calidades: pagar más por los contenidos mejores. Aquí la comercialización programática y la automatización parecen presionar en sentido contrario. Pero no tiene por qué ser así.

Esto proviene de otro de los errores iniciales de Internet: si pagamos por impresiones y puede haber muchas impresiones por segundo, incluso en sites diferentes, hacemos que la oferta tienda muy rapidamente a infinito. Y si la oferta tiende a infinito, el precio tenderá a cero. Hay que meter el tiempo en la ecuación, como ya hacen algunos medios. El tiempo no es infinito. Y a más tiempo de exposición mayor posibilidad de generar un efecto.

J. Fermín Larrea, el promotor de Dinosaurios, afirma que hay que reinventar un modelo que no funciona. E introduce un factor interesante: las grandes consultoras están al acecho para luchar por la inversión publicitaria. No le falta razón: las agencias tienen, tenemos, que demostrar que aportamos el valor por el que se nos paga. Si no, perderemos el tren. Gente con más medios, más prestigio y un nivel de interlocución más alto, está a la espera del menor fallo nuestro.

Ignacio Monar, uno de los más activos en el debate, introduce varias ideas interesantes: de nuevo el precio; y las ofertas temerarias en los concursos que acaban arrastrando a los medios a los que se pagará muy poco e incluso pueden tener que cerrar y de ahí a la sospecha: el más listo se lo lleva crudo.

Ahí ya, Ignacio me interpela directamente para buscar unas respuestas que yo no tengo.

¿Que convierte a un medio/s online en: fiable, digno de confianza, libre de especulaciones de fraude,…para la industria publicitaria? ¿Con qué métricas y herramientas justificas el valor del ‘medio/soporte’ ante agencias y anunciantes? ¿Que auditores van a tener validez ahora que nadie se fía de nadie?

Algunas de esas respuestas las he dado en la entrada anterior: las mediciones de terceros deberían tener un papel cada vez más relevante; el nuevo concurso puede ser una oportunidad.

Y cada medio tendrá que ganarse su credibilidad, huir del fraude, que a la larga se paga. Y no basarse sólo en la superficialidad a la busca de la visita fácil.

No tengo mucho más que decir. Pero cuando algunos grandes anunciantes o grandes agencias han retirado su publicidad de grandes sitios que finalmente acababan en otros que hacen apología de la violencia, del Daesh, que promueven la anorexia, el suicidio o los malos tratos…está claro que tenemos un problema y que algo no estamos haciendo bien. El sistema de listas negras, o blancas, puede ser muy complicado de mantener en un panorama casi infinito, hiperfragmentado y en permanente cambio.

Antón Márquez hace una perfecta analogía entre los precios de las marcas de fabricante (el Fairy de P&G) y los de las marcas blancas, frente al precio de los medios de calidad comparado con otros sitios de Internet. No todo vale y no todo tiene que costar lo mismo. De nuevo la automatización parece empujarnos en la mala dirección.

En el discurso de Antón se intuye una crítica a las grandes marcas que, como P&G, siempre han comprado muy barato los medios. Creo que a los medios les ha interesado tener a esos grandes clientes, con sus grandes volúmenes y con presencia a lo largo de todo el año, o casi. Incluso a precios más bajos que los de otros anunciantes.

¡Ah! y yo, como Antón, siempre compro marcas de fabricante; más aún si he trabajado para ellas, Creo que es la mínima coherencia con la forma en que me he ganado la vida.

J. Fermín insiste en la importancia de que un anunciante tan grande como P&G quiera que se limpie el mercado. P&G está en su derecho y puede hacerlo. A cambio ¿pagará más? Esa sería una de las medidas con potencial de cambio.

Francisco Hernández-Marcos la emprende contra Marc Pritchard y P&G: no han entendido digital y quieren reproducir lo que hacían en televisión.

Nadie entiende del todo digital pero creo que P&G es uno de los anunciantes que más esfuerzo han hecho para conseguirlo. Cuando Francisco acusa a P&G de no hacer investigación, no puedo estar más en desacuerdo: Yo mismo he hecho muchísima investigación para ellos.

(Continuará. El debate siguió todavía durante bastante tiempo y dio para mucho más).

 

Limpiando el entorno digital

Continúo colocando las piezas del puzzle que inicié ayer.

Parece que el problema es más de credibilidad del sistema publicitario en general, y de transparencia, que específicamente de la parte digital.

En el alegato de Mr. Pritchard, de P&G hay dos elementos que creo que son claves: la medición por parte de terceros y los controles sobre la visibilidad.

En la práctica del negocio publicitario siempre se ha buscado que quién nos da los datos, o al menos que quien nos los certifique, no sea el propio medio. No se puede ser juez y parte. Por eso sugieron, a principios del siglo XX las ABC (Audit Bureau of Circulation) que en los países latinos fueron OJD (Oficinas de Justificación de la Difusión) y después los estudios de medios.

La OJD española cumplió ya cincuenta años; el EGM está a punto de cumplirlos.

Cuando llegó Internet le dejamos a Facebook que nos diera los datos de Facebook, a Google que nos diera sus datos y los de su YouTube, a Twitter los datos de Twitter,…

Este año hemos comprobado que Facebook se ha equivocado a veces al medir sus datos; igual ha pasado con YouTube o con Twitter. Casualmente todos esos errores favorecían a la empresa medida…que también era la medidora. Casualmente.

No voy a decir que la medición que nos ha proporcionado ComScore estos últimos años haya sido la panacea, como no lo fue antes la de Nielsen o la de Netvalue o Mediametrix, los otros medidores. Pero al menos son mediciones de terceros y en el caso de ComScore, el medidor recomendado por el mercado. Ahora, con el nuevo concurso, tenemos una oportunidad de mejorar…o de hacer las cosas peor. Es nuestra responsabilidad pedir al ganador del nuevo concurso que vaya adaptando sus métodos de medición a las nuevas realidades. La tecnología hace que la realidad que hay que medir evolucione muy rápidamente.

Otro tema interesante es el de la visibilidad. Que un anuncio se haya servido no significa que haya aparecido en la pantalla del internauta. Y si no ha aparecido, no se ha podido ver. Hace unos años, cuando hicimos el estudio The Pool, llegamos a contar hasta con cinco datos diferentes para las mismas variables: las diferencias eran muy importantes. El proceso de la publicidad en Internet es complejo y en él intervienen varios actores; las posibilidades de incidencias crecen.

Una publicidad que tarde mucho en cargar o una ubicación muy abajo en el scroll pueden impedir que llegue a aparecer en la pantalla. Si no aparece no hay oportunidad de ver y por tanto ninguna posibilidad de tener ningún efecto en eficacia o recuerdo. Tenemos un problema. Un problema que no teníamos, o que no era igual, en otros medios.

Decía el otro día en mis comentarios en Facebook que cuando decidimos (como mercado) que para que un anuncio sea visible bastaba con que la mitad del contenido hubiera aparecido en pantalla durante un segundo, nos hicimos un flaco favor…pero al menos respetemos esa regla de mínimos.

(Continuará)

¿Hay que limpiar el entorno digital?

El sábado pasado participé en un interesante debate.

En algún momento, hace ya varios años, alguien me incluyó en un grupo de Facebook, Dinosaurios de Internet. Se supone que ahí estamos los que iniciamos, en España, la historia de la publicidad en Internet. Hace ya más de veinte años.

Habíamos ido a la playa (la de las Mil Palmeras, al sur de la provincia de Alicante). Yo siempre me llevo un libro; pero me habían dicho que volvíamos para comer. Un par de días antes me había caído con la bici y tengo una pequeña herida en la rodilla que me impide bañarme.

Nos tomamos un aperitivo…y no volvimos para comer. Es lo que tiene ir en grupo.

Así que tiré de móvil y allí me los encontré: José Fermín, Ignacio, Antón, César y algunos más debatiendo sobre publicidad digital, medición, eficacia y algunas cosas más. A algunos les conozco personalmente, a otros sólo como buenos profesionales a los que seguramente no he visto nunca. Pero entré al trapo; prometí ampliar en este blog cuando tuviera tiempo…y aquí estoy, aunque no tengo mucho tiempo. Hoy ha sido un día complicado y la biblioteca del pueblo, donde tengo wifi, está a punto de cerrar.

Así que sólo me va a dar tiempo de empezar a colocar las piezas del puzzle.

¿Hay dudas sobre la publicidad igital? Sí; siempre las ha habido. Como sobre cualquier tipo de publicidad. Pero los datos del primer semestre (de Infoadex y de i2p) nos dicen que es, junto con la Radio, la única que crece en estos momentos de dudas.

¿Cuando Mr. Pritchard, de P&G, dice que hay que limpiar la publicidad digital quiere decir que no hay que hacer publicidad digital? No. Decididamente no. Mr. Pritchrad está corrigiendo levemente la dirección: hace varios años decidió que P&G tenía que dedicar una parte importante de su presupuesto publicitario a digital (creo que era un 25% pero mi memoria me puede engañar). Eso para todos los países, sin tener en cuenta su desarrollo digital. Por ejemplo, en España P&G ha sido durante varios años el líder en inversión digital.

Luego, P&G ha decidido concentrar sus decisiones de compra en unos pocos países. A lo mejor es más eficiente en términos globales pero seguro que se pierde un poco en cada país. Incluso si la italiana de turno es mejor negociadora que Rosa Margarit, cosa que dudo, su visión de los medios españoles será más lejana.

¿Le pedimos a digital más que a otros medios? Seguramente sí. Y seguramente es así como debe ser.

(Continuará)

Cierra Bez Diario

El pasado domingo, 30 de julio, nos despertábamos con una mala noticia: ése era el último día de publicación de Bez Diario.

Siempre es malo que desaparezca un medio de comunicación; más aún si se trata de uno diferente, que llenaba un hueco.

Así se despidió Bez Diario

Bez Diario llevaba poco tiempo, no llegaba a dos años, en Internet. Trataba de un intento de hacer un periodismo diferente: mucho más análisis que noticias; siete u ocho temas cada día pero tratados en profundidad.

La fórmula me gustaba; creo que es una de las maneras de responder a estos nuevos tiempos en que cuando nos acercamos a un medio de información de los tradicionales ya conocemos todas o casi todas las noticias que podemos encontrar allí. Pero casi siempre de forma superficial.

Bez aportaba esa parte de análisis que nos falta como complemento.

Seguí a Bez desde el principio; me llegaba al e.mail aunque yo nunca me suscribí. Esas también son las cosas de Internet. Prácticamente todos los días entraba a leer alguno de los análisis; luego podía estar, o no, de acuerdo con el punto de vista del analista.

Los domingos venía con premio: los artículos de los colaboradores de ese día tenían casi siempre un interés especial.

A principios de este año mi relación con Bez se hizo más intensa. A raíz de un artículo de Miriam Puelles sobre la medición de la audiencia de Televisión, que comenté aquí, conocí a los directores y empecé una colaboración.

La verdad es que esa colaboración resultó un tanto frustrante y acabó siendo muy breve. Me pidieron un artículo a la semana. Envié mi primer artículo y lo publicaron en seguida: el 13 de febrero. Pero cuando envié el segundo, el que se refería precisamente a la medición de audiencia de Televisión que había propiciado nuestro encuentro, no obtuve respuesta. Envié otro sobre evolución de la inversión publicitaria y, éste sí, se publicó el 1 de marzo.

Me interesé por el artículo sobre Televisión y me dijeron que era poco cañero. Lo reescribí, pero tampoco lo publicaban. Comenté que me empezaba a sonar a censura y lo publicaron el 26 de marzo.

Pero ahí terminó nuestra relación. Mi artículo sobre Cine nunca se publicó en Bez Diario

Creo que Bez Diario no encontró, como tantos otros medios digitales, la fórmula de financiación: consiguió el apoyo de muy pocos anunciantes; no apeló a los suscriptores; los pequeños eventos que organizaba seguramente no fueron muy rentables…no lo sé; no conozco bien el problema. Hacer rentable un medio en Internet es muy complejo. Pocos lo consiguen.

Pero siento, ¡y mucho! la desaparición de un medio de comunicación que me gustaba.

Aunque nuestra relación no fuera la más gratificante del mundo.

La investigación y su coste

Antes de fin de año tendremos un nuevo concurso para decidir el medidor recomendado para los medios digitales. A las asociaciones que convocaron el de hace unos años (AIMC e IAB) se ha unido ahora la AEA.

Han transcurrido unos cuantos años desde el concurso anterior y se puede decir que ya tocaba.

Ni entonces ni ahora el mercado ha sido capaz de tomar una decisión valiente y convertir a los convocantes en un JIC (Comité Conjunto de la Industria) que haga algo más que recomendar y pueda tomar decisiones sobre la elaboración del estudio y la propiedad de los datos.

La realidad que se pretende medir ha evolucionado muy fuertemente es estos años; mucho más que los sistemas de medición. Puede estar muy bien abrir las ventanas para ver si existe alguna empresa que pueda mejorar lo que tenemos actualmente. Y si no, ponerle las pilas al medidor actual.

No han faltado críticas a ComScore. Nunca faltan críticas a los medidores. Muchas veces los mismos que critican un mes elogian al mes siguiente si los resultados les son más favorables.

Un mercado tan dependiente de las mediciones como el publicitario debe aspirar siempre a tener la mejor investigación que sea capaz de pagar.

La realidad del mercado digital es muy compleja y añade complicación cada día que pasa. No existen en el mundo muchas empresas con capacidad para medir bien ese fenómeno; seguramente todas las existentes se presentarán al concurso español. Nuestro mercado puede ser muy goloso.

Pero ¿cuánto está dispuesto a pagar nuestro mercado?

Si queremos tener la mejor investigación de una realidad muy compleja y que cambia rápidamente, que sea capaz de responder con agilidad a esos cambios, tendremos que estar dispuestos a pagar su coste verdadero. Si es así, nuestro mercado será atractivo para ese pequeño grupo de medidores que pueden concursar y plantearán propuestas ambiciosas.

Si el mercado se plantea el concurso como un camino hacia el ahorro de costes, no podemos aspirar a una mejoría notable.

Arduo trabajo el que le espera a la Mesa de Contratación. Si nunca es fácil comparar entre las realidades del medidor actual y las promesas de los aspirantes, aún será más difícil si no se tiene claro cuál debe ser el criterio de decisión. Mi deseo es que el precio no tenga mucho peso.

 

(*) Este artículo es muy similar al publicado en el número de julio de la revista IPMark en papel.

La @: una apuesta por la innovación ( y III)

En La @, el seminario digital que AEDEMO celebró la semana pasada, tuvimos muchas otras cosas; tantas que el resumen podría hacerse interminable. Pero tengo que terminar.

Tuvimos un apartado sobre start ups en el que intervinieron:

Josu Rodrigo, de We are testers, una empresa que con un año de vida ofrece un panel con cerca de diez mil personas dispuestas a ayudarnos. Su filosofía es poner siempre al cliente en el centro del proceso.

Jiaqi Pan, de Helloumi, una empresa centrada en la web conversacional, dispuesta a revolucionar el mundo de los bots de voz.

Javier Parra, de Súmate y Roberto López de Artelnics nos hablaron de la analítica avanzada y sistemas como las redes neuronales para predecir cuales pueden ser los efectos de nuestras acciones de marketing y así transformar nuestro gasto en inversión.

Agustín Bustos, de ECM ware, presentó addconvertsion, un sistema para segmentar audiencias que conecta directamente con los DSP. Quizá le faltó claridad en su exposición.

Yael Hernández, de Adeventurees, un sistema de crowdfunding de inversión para apoyar a lo que llamó start ups hippies, empresas innovadoras de alto potencial. Pretende romper el cículo vicioso de las start ups: necesito dinero para poder crecer pero necesito crecer para obtener dinero.

Paco Pérez, de Hawkers, durante su charla. (FOTO:E: Madinaveitia)

Ya no es una start up pero lo fue hace muy pocos años: Hawkers se ha convertido en una de las empresas de más éxito. Paco Pérez se convirtió con su eposición en uno de los triunfadores de La @. Como suele hacer siempre, Paco se ganó al público con su desparpajo. Con 300€ iniciales compraron 27 gafas y un cupón de 50€ (que les costó 5) para hacer publicidad en Facebook. En un momento del proceso encontraron un fallo en Facebook (no estaba preparado para hacer múltiples campañas simultáneas de un euro) y consiguieron una reunión con los responsables de la mpresa en Estados Unidos; ahora invierten 20.000 euros al día en esa red social. Entraron por la puerta de atrás en el mundo de las celebrities: enviaban 500 gafas al día a 500 famosos confiando en que alguno se las pusiera y se hiciera una foto con ellas. Así sucedió; luego negociaron para utilizar esas (y otras) fotos. También el patrocinio de los Lakers empezó con su propia anécdota…y así todo. Sin duda fue la ponencia más divertida.

La @es, al menos en su punto de partida, un seminario de investigación y, por supuesto, no faltaron las investigaciones tradicionales, que cada vez tienen menos de tradicionales.

Carles Iglesias y Joan Miró, de Netquest, nos desvelaron cómo podemos averiguar cuánto vende on line nuestra competencia. Ya se registran más visitas desde móviles que desde ordenador, pero las tasas de conversión son todavía el triple desde el ordenador.

Beatriz Tejedor, de SSI, se preguntaba sobre la investigación en el futuro. El móvil, tan presente en nuestras vidas, tiene todavía poca importancia en la investigación. Una gran parte de los cuestionarios no están adaptados, o están poco adaptados, al móvil. Pero las utilidades del móvil han de verse como oportunidades para la investigación.

Marga Castro y Cristina Viudez, de Mindshare, nos hablaron sobre tendencias digitales: las claves son la hiperconectividad y la aceleración tecnológica. El reconocimiento de voz puede ser el elemento que acabe de cerrar el círculo; el 89% de los usuarios cree que cuando funciona bien hace más fácil la vida. Cuanto más natural es la interacción más se usa; ya pasó con las pantallas táctiles.

Raquel García, de Mediaset, explicó un interesante análisis en el que se compara la eficacia de formatos de display y vídeo. El diseño de la investigación, realizada para campañas de un producto interno del grupo, Taquillas Mediaset, tres giras de conocidos artistas que no se anunciaron en otros medios, permitió calcular cuánto más eficaz es el vídeo que los formatos display.

Victor Gil y Jairo Murciano, de Nethodology, tras plantear un problema creciente: las acciones en Redes Sociales cada vez tienen menos texto, lo que complica el análisis que se venía haciendo, expusieron las soluciones de reconocimiento y análisis de imágenes que están utilizando en la actualidad. A medida que el análisis de textos va perdiendo sentido lo gana el análisis de imágenes. En muchos casos basta con analizar las caras de las personas que están provocando una supuesta crisis en Redes Sociales para minimizar su importancia.

Los miembros del Comité sujetan La @

El seminario terminó con la ponencia de Sara Picazo, de Twitter, Second screening: estudiando nuevos hábitos en televisión y Twitter. Destacó la influencia recíproca entre la televisión y los comentarios en la red del pajarito, que se ha convertido en el mayor sofá del mundo en el que espectadores que no se conocen entre sí comentan sus programas favoritos.

El Comité organizador: Jaime Agulló, coordinador, Fernando Carrión, Virginia Frías y Eduardo Madinaveitia, ya estamos pensando en la cuarta edición del seminario. La encuesta realizada nos dice que ha sido un éxito pero también nos ayuda a identificar las áreas de mejora.

La @: una apuesta por la innovación (II)

En La @ se habló también de neuromarketing, un tema que ha progresado mucho en los últimos años.

En este campo tampoco nos faltó una de las más grandes. María López, de Bitbrain, que es, nada menos que la representante en España de la Asociación Mundial de Neuromarketing presentó su

María López durante su intervención. (FOTO: E.Madinaveitia)

ponencia en la mañana del jueves y estuvo con nosotros hasta el final del seminario. Ya sabemos que en nuestras decisiones racionales las emociones tienen mucho que ver. Cada vez tenemos más maneras de conocer y medir esas emociones. María recordó que también en neuromarketing la digitalización está siendo determinante; ahora podemos obtener muchos más datos de una manera mucho menos intrusiva. La tecnología nos ayuda a preguntar, observar y analizar. La disciplina es aún joven, lo que hace que haya pocos estándares, y poco escalable (por los precios elevados de los sensores, que obligan a utilizar muestras pequeñas). Pero el futuro está claro y avanza por el camino de los wearables, que acabaremos pagando con datos: cada vez llevamos más dispositivos conectados que miden nuestras reacciones. El análisis de esos datos (que compartimos voluntariamente) nos dará, está dando ya, nuevas vías para el conocimiento.

El neuromarketing también estuvo presente en la charla de Elena Martín, de Sociograph, una empresa que utiliza un dispositivo compuesto por un brazalete y dos anillos para medir nuestras reacciones. El uso del dispositivo en grupos ayuda a minimizar el error que se produciría por los sesgos en casos individuales. Aunque con el dispositivo se miden múltiples variables, Elena centró su análisis en la emoción y la atención. También nos dio a conocer el premio a la película más emocional que su empresa entrega en la Seminci, el festival de cine de Valladolid. Los espectadores entran gratis a la sala a cambio de dejarse colocar el dispositivo. La riqueza de los datos que consigue Sociograph es inmensa. También pudimos conocer el caso de la vuelta al mundo en moto conectada, con piloto también conectado o el de la canción compuesta por Carlos Jean a partir de las emociones de los oyentes.

Jaume Portell, de Beabloo, centró su intervención en el uso de nuevas tecnologías para ayudar a la distribución (retail) presencial. No sabemos si la distribución on line ha tocado techo; puede que no, o no en todos los países. Pero lo que está claro es que la tecnología puede ayudar mucho al análisis del consumidor en el punto de venta. La cartelería digital lleva sensores que nos ayudan a identificar al consumidor (género, edad, sentimientos,…) analizando la imagen de su cara; los sensores wi-fi detectan los móviles y por tanto las personas que pasan frente a o se detienen ante el escaparate; en el interior de la tienda nos ayudará la tecnología beacon… Jaume puso el ejemplo de las tiendas NBA en China, que han multiplicado su cifra de negocio. Ahora Beabloo ofrece apoyo al pequeño comercio para su digitalización.

 

La @: una apuesta por la innovación (I)

Los días 15 y 16 de junio se ha celebrado La @ de AEDEMO, un seminario que nació para acercar el mundo digital y el de la investigación de mercados. Tienen muchos puntos de contacto, necesitan caminar juntos, pero a veces parece que no lo saben y miran en direcciones distintas.

La digitalización ha transformado la realidad; en muchos sentidos la ha hecho más compleja. Para la investigación de mercados tradicional medir esa realidad es más difícil pero a su vez la digitalización nos proporciona nuevas maneras de aproximarnos a esa realidad.

Cada vez se generan más datos; el análisis de esos datos nos da información que podemos transformar en conocimiento. Los datos, el big data, estuvieron presentes en varias ponencias. El neuromarketing ha avanzado mucho es estos últimos años y también tuvo su protagonismo. El reconocimiento de imágenes, los bots, el tratamiento de voz, la investigación en general y la de la eficacia publicitaria en concreto, completaron el panorama. Un panorama al que aún le faltaría una pieza si no tuviera en cuenta a las start ups que se inician en el negocio; también de eso tuvimos, incluso a la gran triunfadora de estos últimos años.

Gemma Muñoz al comenzar su intervención. (FOTO: EMadinaveitia)

La @ tuvo un comienzo de lujo. Es posible que haya alguien que sepa más de big data que Gemma Muñoz (@sorprendida); lo dudo, pero es posible. Pero seguro que nadie habla de datos con más pasión y conocimiento que Gemma. Los datos contienen información de la que hay que extraer conocimiento para la toma de decisiones. Hay que detectar qué nos pueden decir los datos; hacer big data no es acumular datos: no siempre es mejor tener más datos. @sorprendida sorprende también con su ironía:

los analistas hacen dashboards para que les dejen en paz.

Pero tiene muy clara la importancia de visualizar bien los datos así que recomienda no enseñar nunca una tabla y sí buscar buenos sistemas de visualización.

Gemma define su empresa El arte de medir como Pasión y precisión. Cuando se asiste a una de sus presentaciones queda claro que cumple con su eslogan.

Los datos y su tratamiento estuvieron presentes a lo largo de todo el seminario pero lo que más sorprendió fue la visión de Juan Mora, de Datacentric, que aportó una visión muy diferente. Su investigación es más detectivesca que sociológica. Juan habla de pasar del big data al deep data: enriquecer la información acerca de cada posible cliente utilizando información pública (del catastro, de los ficheros de morosidad, de la cobertura de fibra óptica,…). Añadiendo información fue perfilando la fotografía de un posible cliente (persona individual o empresa) hasta dotarla de una gran nitidez. Reforzó así la idea de que, también en datos, la calidad puede ser más importante que la cantidad.

Radio on Line, medición y consensos

Miércoles, 14 de junio, Biblioteca Eugenio Trías en el Parque del Retiro de Madrid: fuera el calor asfixiante de este mes de junio dispuesto a batir récords de temperatura; dentro el calor de un sector, el de la Radio on Line, dispuesto a comerse el mundo.

Se celebra la Jornada de AERO en la que se va a presentar el Directorio de la Radio on Line.

José María García Lastra, Vicepresidente de la asociación, empieza la primera mesa redonda haciéndonos notar que estamos en la antigua Casa de Fieras y que en la sala en la que nos reunimos se exhibe una exposición con el título Resistencia sonora. Toda una declaración de principios. El día promete.

Todos los presentes saben, o intuyen al menos, que la Radio on Line es el futuro. Pero es un futuro cuya rentabilidad no acaba de llegar. Juan Ignacio Solera, de Ivoox, es el primero en acercarse a esta realidad: la Radio del siglo XXI es personalizada pero de momento, con audiencias microsegmentadas, no es rentable. Álex García Amat, de Radio Gladys Palmera completa la idea: en esta radio personalizada, en la que se conoce mejor a los oyentes habría que pensar en fórmulas diferentes a la cuña para conseguir ingresos.

Miguel Ángel Fernández, de Canal Sur sugiere que la Radio pública debería ser el puente entre la Radio tradicional y la on line. Fran Izuzquiza cree que en la Radio generalista casi no hay hueco para la innovación; sólo en la madrugada y en los fines de semana. En el resto de la horas las fórmulas que son rentables impiden cualquier intento de hacer algo nuevo. Eso le llevó a apostar por el podcast: aún no es rentable pero es optimista y sabe que lo acabrá siendo.

En la nueva radio cada uno se creará sus playlist con los contenidos que le gustan y los oirá cuando y donde quiera.

Anna Tur, la Directora de Ibiza Global Radio, no llegó a la mesa redonda inicial pero pudo preguntar durante el transcurso de la segunda. No comprende cómo con las altas cifras de visitas que consigue, los anunciantes y las agencias de medios no se pelean por estar en su programación. Ese fue el tema de una buena parte de las preguntas que surgieron del público: ¿qué tengo que hacer para que mis datos, que son buenos, se conviertan en dinero? Las críticas a las fuentes de datos del mercado (EGM, Kantar, ComScore,…) estaban en todas; en unos casos más y en otros menos explícitas.

La segunda mesa, moderada por Raúl Domingo, vocal de AERO, se dedicó a la parte comercial del medio: un anunciante (José María Llop, de Atrápalo), una agencia creativa (Gonzalo Sánchez Taiz, de McCann) y dos agencias de medios (Álvaro Morales, de Carat y Córdoba Ruiz, de Entusiasmo).

Gonzalo Sánchez-Taiz durante su intervención. FOTO: EMadinaveitia

El moderador encarriló la mesa con una sabia consideración: en los primeros tiempos de un medio hace falta mucha más cooperación que competencia entre los protagonistas del medio. José María y Álvaro estuvieron de acuerdo en que la Radio on Line es todavía poco conocida y, por tanto, poco usada por los anunciantes y las agencias. Álvaro puso de manifiesto la importancia que en el estado actual del medio tienen la medición y la agregación de audiencias: una emisora o un podcast muy especializado no necesitan muchos datos para llegar a sus potenciales anunciantes, pero éstos tampoco serán muchos. Cuando se buscan grandes anunciantes hay que tener datos que nos hagan destacar en un panorama altamente fragmentado o utilizar otra fñormulas de comercialización, como la programática.

Córdoba reconoción que la estructura de las agencias, con un departamento para Digital, otro para Radio,… no facilitó en un primer momento la andadura de la Radio on Line.

Gonzalo remchó con una frase que todos oímos mucho, sobre todo últimamente: el contenido es el rey; pero apostilló: una buena publicidad es un buen contenido. La Radio no ha sido muy mimada por los creativos.

Como introducción a la presentación del Directorio, Luis Miguel Pedrero hizo un excelente y rápido resumen de la situación actual de la Radio: número de emisoras, audiencias, inversiones y otros datos de interés de un medio sorprendentemente estable.

Para terminar Elisa Escobedo, Presidenta de AERO, presentó el Primer Directorio de la Radio on Line. Se trata de un listado de cerca de mil emisoras, que lo propios responsables confesaron que probablemente estará incompleto y pidieron ayuda para mejorarlo en el futuro próximo. Es un primer paso en una buena dirección: conocer la dimensión del fenómeno. El siguiente paso, la certificación de los datos de cada una de esas emisoras, se ha empezado a dar pero, en un primer vistazo, son muy pocas las emisoras con esos datos certificados.

Y aquí llegamos al meollo de la cuestión: un medio (o una parte de un medio) todavía poco conocido, muy fragmentado y sin acuerdos sobre sus datos, lo va a tener muy complicado.

El mercado publicitario necesita que los datos con los que trabaja estén medidos, o al menos auditados, por un tercero. EGM, Kantar o ComScore serán mejorables, sin duda lo son. Pero son las fuentes consensuadas por el mercado, con las metodologías que hemos decidido entre todos y con las dimensiones que estamos dispuestos a pagar.

Las medidas internas tienen gran valor…interno. Para salir al mercado, para compararse con los demás, te debe medir un tercero y un tercero al que los demás reconozcan su autoridad.

Este Directorio es un pequeño, pero importante, primer paso; los certificados serán otro; la medición de los podcasts por el EGM también ayudará.

El camino es largo. Seguro que quedan muchos pasos. Pero si se tiene la voluntad de darlos, avanzaremos.

Estamos ante un nuevo escenario muy diferente y se necesitan nuevos consensos para avanzar.

Otra visión sobre la presentación del Directorio se puede encontrar en Gorka Zumeta.