Graças aos avanços no poder da computação, a análises de informações em nuvem e técnicas de ciência de dados, anunciantes e agências estão desenvolvendo sistemas que geram insights de marketing para alimentar seus programas de pesquisas. Calcula-se que cerca de 60% das empresas1 estejam em processo de implementação de inteligência artificial (AI). Chame isso de “disrupção do insight”, se preferir. Neste artigo, vamos falar de uma série de novidades que estamos vendo na área de AI e iniciativas de marketing que permitem esse tipo de disrupção.
Entendendo as emoções
Embora as máquinas não tenham emoções, elas são capazes de detectá-las – desde que estejam habilitadas para isso. Com técnicas como o embedding, tendo como base um treinamento anterior, as máquinas podem entender sinais emocionais presentes em textos. Isso não é novidade, mas esses modelos e classificações têm a ver um com o outro.
Por exemplo, uma máquina pode não entender o que é tristeza, mas sabe que esse sentimento está próximo da melancolia e longe da felicidade. Isso tem várias aplicações no marketing, desde a análise de sentimentos nas mídias sociais, na imprensa até o atendimento ao consumidor. Um exemplo do seu uso prático seria a priorização de e-mails de clientes baseada em emoções. Esse tipo de tecnologia leva a insights mais rápidos sobre que consumidores mais precisam de ajuda – os que demonstram mais emoções poderiam ser atendidos pelo agente que lida melhor com cada uma delas.
Extraindo emoções dos textos
A ciência por trás de softwares que leem o que escrevemos, chamada de processamento de linguagem natural, está obtendo resultados importantes graças ao machine learning. Esse tipo de interpretação é empregado há anos, mas a precisão e velocidade com que podemos fazer isso alcançou novos patamares. Atualmente, a mensuração é feita não mais em dias, mas em milissegundos.
Essa habilidade está sendo útil na análise de uploads no YouTube, onde um único vídeo pode receber milhares de mensagens, dificultando a interpretação de sentimentos pelos humanos. O BrandUnit, think tank criativo do Google nos Estados Unidos, usa o API Google Cloud Natural Language nos comentários em larga escala do YouTube, identificando como os usuários estão reagindo ao conteúdo das marcas.
Um exemplo desses experimentos vem da Dunkin Donuts, que recentemente trabalhou com Miranda Sings, uma criadora de conteúdo do YouTube, para criar um vídeo customizado para promover o lançamento das Donut Fries – e que recebeu mais de 6 mil comentários. Trabalhando com o BrandUnit do Google, eles deram ao vídeo uma “nota de sentimento” e o compararam com outras peças analisadas antes - no fim, descobriram que ele tinha a melhor nota já vista pela equipe. O tempo necessário para obter esse insight? Apenas 28 minutos.
E se 28 minutos for demais para esperar, você pode fazer isso em tempo real usando esse API e o Google Firebase. A inteligência artificial combinada com feeds do Twitter consegue analisar sentimentos em tempo real2. Imagine ter zero atrasos e zero relatórios pós-evento: somente insights pelo machine learning.
Máquinas vendo vídeos
“E se fosse possível saber que partes de um vídeo tiveram maior retenção? Isso é possível em enorme escala graças aos avanços em visão computacional.”
– Adam Fahrenkopf, Technical Program Manager, Google Assistant
A linha de frente do machine learning e da geração de insights é a análise de conteúdo de vídeos. Aqui, as máquinas são treinadas para “assistir” e entender mais profundamente o que estão de fato vendo. Essa tecnologia está hoje dando seus primeiros passos, sendo capaz apenas de identificar objetos óbvios que aparecem na tela. Mas à medida que as pesquisas avançarem, seremos capazes de detectar narrativas, fios condutores de histórias e outros conceitos mais complexos.
Mas tudo isso não leva necessariamente aos insights. Só quando você mescla esse tipo de análise com outras coisas é que se chega a algo inovador e executável. Em testes recentes, pesquisadores do Google encontraram correlações entre skip rates (o quanto as pessoas pulam partes do vídeo) em anúncios no YouTube TrueView e o que aparecia na tela. Isso quer dizer que podemos começar a identificar, em grande escala, padrões comuns dos melhores anúncios, aconselhar melhorias ou testar novas ideias. Com essa tecnologia, analisar 10 mil anúncios no YouTube pode levar poucos minutos, e com pouco retrabalho.
Em anúncios de batons, por exemplo, descobrimos que os pincéis obtêm maior retenção dos espectadores do que os lápis labiais. Em anúncios de beleza, geralmente as mulheres de cabelos castanhos ou escuros capturam mais a atenção de quem assiste do que as loiras. Nessa categoria, descobrimos também que usar modelos e supermodelos funciona melhor. Isso trouxe uma questão: para uma máquina, qual a diferença entre uma modelo e uma supermodelo? Quando fizemos essa pergunta às maiores marcas de beleza do mundo, elas especularam fatores como simetria facial ou iluminação. Mas a resposta é mais simples: cabelos ao vento. Basta ligar o ventilador, e você passa de modelo para supermodelo. Esse insight levou menos de 10 minutos para ser obtido.
Ainda estamos no começo desse caminho, mas nos próximos meses e anos, os melhores profissionais de marketing e anunciantes não vão apenas gerar insights: eles farão isso mais rápido com a IA. Ou seja, será possível fazer testes e repetir as experiências com muita rapidez. Para isso, anunciantes e agências precisam planejar múltiplas versões de criativos desde o início das campanhas e reservar tempo e orçamento para testes comparativos3. Assim, as marcas poderão se beneficiar dos insights produzidos pela inteligência artificial em uma velocidade ainda maior.