Pronto(a) para começar?
Execute campanhas de UA eficazes baseadas em ML (machine learning) com base na segmentação contextual.
Com a depreciação iminente do IDFA no iOS 14, os anunciantes são desafiados a encontrar uma solução alternativa de segmentação que não seja baseada no usuário, mas que ainda gere CPIs competitivos e usuários valiosos. O jogo mudou, mas o objetivo continua o mesmo: crescimento eficaz.
Como a segmentação contextual agora assume uma importância central, para obter informações que vão além da categoria da loja, o que é de fácil manipulação, usamos um método de representação de palavras denominado ELMo para representar cada pacote (ou "bundle") como um vetor, permitindo a medição da "distância" contextual entre aplicativos. A distância calculada é então integrada às centenas de outros elementos dos nossos modelos de previsão e desempenha um papel significativo em nossa lógica de lances.
Para destacar sua eficácia, criamos a Calculadora de Distância Contextual. Ao utilizá-la, você verá quais são os aplicativos mais próximos do seu em termos de mecânica, tema, recursos e muito mais, com base em uma comparação detalhada entre cada texto de descrição na loja de aplicativos.
Ao desenvolver os recursos de aproximação contextual para os nossos modelos de previsão de instalação e compra, consideramos inicialmente duas noções principais: 1) a de que o contexto desempenha um papel importante na previsão de comportamento do usuário e de engajamento com anúncios e 2) a de que esse contexto pode envolver diferenças sutis, mas significativas.
Com essas noções, o uso de categorias de lojas tornou-se inútil, uma vez que elas incluem uma parcialidade inerentee, em alguns casos, imprecisões notórias devido a questões de otimização ASO, ao passo que outras abordagens, como a categorização (clustering) usando métodos de modelagem de tópicos (como LDA ou W2V), não geraram o ganho de informações e a melhoria de precisão que buscávamos. Assim, percebemos que seria necessário encontraruma forma de representar cada pacote (bundle) individualmente.
Após avaliar a complexidade da tarefa e as ferramentas normalmente usadas para resolver problemas relacionados à linguagem com o machine learning, a pesquisa dos nossos cientistas de dados culminou no teste do ELMo. O ELMo faz uso de uma rede neural para aprender associações entre palavras e seu significado quando utilizadas em diferentes contextos, aprendendo em que frases elas são usadas dentro de um enorme conjunto de dados de 5,5 bilhões de tokens (palavras e seus elementos componentes).
Após a preparação do modelo ELMo, ele exibe uma representação de cada palavra como um vetor, o que nos permite medir a distância do cosseno entre cada palavra, indicando o nível de similaridade semântica e sintática entre elas. Uma vez que considerar cada palavra é fundamental para compreender o contexto, o ELMo se mostra uma das alternativas mais confiáveis para uma tarefa com tal complexidade.
Um exemplo de como os vetores de palavras são contextualmente próximos e, ao mesmo tempo, medidos de forma eficaz pela distância do cosseno
Uma representação de como um vetor de pacote é formado a partir de uma agregação de soma ponderada de suas palavras
Depois de gerar os vetores de palavras, o próximo passo é agregá-los em cada pacote, de forma que seu contexto seja representado com eficácia. Ostensivamente, incorporando toda a descrição da loja em uma única representação vetorial, para que possamos medir a "distância" contextual entre diferentes aplicativos.
Essa etapa do nosso processo de pesquisa e desenvolvimento revelou-se a mais complicada. Simplesmente calcular a média dos vetores de todas as palavras da descrição do aplicativo na loja de aplicativos parece razoável, mas incorreria na perda de dados valiosos relacionados à frequência com que palavras específicas aparecem ou se repetem na descrição do aplicativo específico, bem como em todo o corpus.
Após um longo processo de testagem, a abordagem que gerou o maior ganho de informações nos testes foi baseada em uma estatística numérica básica em PLN (Processamento de Linguagem Natural, a área do machine learning que se concentra na análise de texto) – TF–IDF (sigla em inglês para "Term Frequency– Inverse Document Frequency", ou "Frequência de Termo – Frequência Inversa do Documento" em português) –, que basicamente indica a raridade de palavras específicas dentro de um corpus.
Por fim, a nossa representação de pacote evoluiu, tornando-se uma média ponderada de cada vetor de palavras, multiplicada por seu valor TF-IDF normalizado, a fim de enfatizar as palavras mais raras e matizadas que geralmente expressam temas, mecânicas e características únicas de cada aplicativo – fornecendo, assim, informações um tanto granulares, mas valiosas aos nossos modelos.
Execute campanhas de UA eficazes baseadas em ML (machine learning) com base na segmentação contextual.