Siap Mulai?
Jalankan campaign UA berbasis machine learning yang efektif berdasarkan contextual targeting.
Dengan pembatalan IDFA pada iOS 14 mendatang, advertiser menghadapi tantangan untuk menemukan solusi targeting alternatif berbasis non-pengguna yang masih akan menghasilkan CPI kompetitif dan pengguna berharga - permainannya berbeda, tetapi tujuannya tetap sama, yaitu pertumbuhan secara efektif.
Karena contextual targeting kini menjadi populer, untuk mendapatkan informasi di luar kategori toko yang mudah dimanipulasi, kami menggunakan metode representasi kata ELMo untuk merepresentasikan setiap bundel sebagai vektor, sehingga dapat dilakukan pengukuran 'jarak' kontekstual antaraplikasi. Lalu, perhitungan jarak itu dimasukkan sebagai satu dari ratusan fitur lain dalam model prediksi kami dan berperan penting dalam logika bidding kami.
Untuk menekankan efektivitasnya, kami mengembangkan Context Distance Calculator. Kalkulator ini akan menunjukkan berbagai aplikasi yang paling dekat dengan aplikasi Anda dalam hal mekanik, tema, fitur, dan lainnya, berdasarkan perbandingan kompleks dari setiap deskripsi di toko aplikasi.
Saat mengembangkan fitur-fitur yang berkaitan dengan konteks untuk model prediksi instal dan pembelian, kami mempertimbangkan dua gagasan utama awal: konteks berperan penting dalam memprediksi perilaku pengguna dan ad engagement, serta konteks dapat memiliki perbedaan yang signifikan.
Gagasan ini menganggap penggunaan kategori toko tidak berguna karena memiliki bias bawaan dan dalam beberapa kasus, ketidakakuratan yang jelas akibat masalah ASO. Selain itu, pendekatan lain, seperti membuat kategori sendiri melalui pengelompokan menggunakan metode topic modeling (seperti LDA atau W2V), tidak memberikan informasi dan peningkatan akurasi yang kami harapkan. Oleh karena itu, kami sadar bahwa kami harus menemukan cara untuk merepresentasikan setiap bundel secara individu.
Setelah menimbang kompleksitas dari tugas dan tool yang sering digunakan machine learning untuk menyelesaikan masalah terkait bahasa, para ilmuwan data kami melakukan penelitian yang mengarah ke pengujian ELMo. ELMo menggunakan jaringan neural untuk mengetahui hubungan antarkata dan maknanya saat digunakan dalam konteks berbeda, dengan mempelajari frasa-frasa yang digunakan dalam 5,5 miliar set data token (kata dan bagian-bagian yang menyusunnya).
Setelah dilatih, model ELMo merepresentasikan setiap kata sebagai vektor, sehingga kami dapat mengukur jarak kosinus antarkata, yang menunjukkan level kemiripan semantik dan sintaksis. Karena mempertimbangkan setiap kata itu sangat penting untuk memahami konteks, ELMo terbukti sebagai salah satu pilihan yang paling andal untuk tugas kompleks.
Contoh seberapa dekat vektor kata secara kontekstual, melalui pengukuran yang efektif menggunakan jarak kosinus
Gambaran bagaimana vektor bundel terbentuk dari jumlah tertimbang agregat dari kata-katanya
Setelah menghasilkan vektor kata, langkah selanjutnya adalah mengumpulkannya untuk setiap bundel, dengan cara yang merepresentasikan konteksnya secara efektif. Seolah-olah memasukkan seluruh deskripsi toko ke dalam satu representasi vektor agar kami dapat mengukur 'jarak' kontekstual antaraplikasi yang berbeda.
Ini ternyata merupakan langkah yang paling sulit dalam proses penelitian dan pengembangan kami. Merata-rata vektor dari semua kata dalam deskripsi toko aplikasi memang masuk akal, tetapi akan menyebabkan hilangnya data berharga yang berkaitan dengan frekuensi kemunculan atau perulangan kata tertentu dalam deskripsi toko aplikasi tertentu, serta seluruh corpusnya.
Setelah melakukan pengujian ekstensif, pendekatan yang menghasilkan informasi terbanyak adalah yang berbasis pada statistik angka pokok dalam NLP (natural language programming, bidang machine learning yang fokus pada analisis teks) - TFIDF - Term Frequency Inverse (to) Document Frequency, yang pada dasarnya menunjukkan tingkat kelangkaan kata tertentu dalam suatu corpus.
Pada akhirnya, representasi bundel kami berkembang menjadi rata-rata tertimbang dari setiap vektor kata, dikalikan dengan nilai TFIDF yang ternormalisasi, untuk memberi penekanan pada kata-kata yang lebih langka dan berbeda, yang biasanya menunjukkan tema, mekanik, dan fitur unik dari setiap aplikasi, sehingga memberikan model kami informasi yang sangat granular tetapi berharga.
Jalankan campaign UA berbasis machine learning yang efektif berdasarkan contextual targeting.