Universal Analytics Verilerinizi R ile BigQuery'ye Nasıl Yedeklersiniz?
Yayınlanan: 2023-09-26Universal Analytics (UA) nihayet kullanımdan kaldırıldı ve verilerimiz artık Google Analytics 4 (GA4) mülklerimize serbestçe akıyor. UA kurulumlarımıza bir daha asla bakmamak cazip gelebilir, ancak UA'yı geride bırakmadan önce, gelecekte analiz etmemiz gerekirse, halihazırda işlediği verileri saklamamız önemlidir. Verilerinizi depolamak için elbette Google'ın veri depolama hizmeti olan BigQuery'yi öneriyoruz ve bu blogda size UA'dan hangi verileri yedekleyeceğinizi ve bunu nasıl yapacağınızı göstereceğiz!
Verilerimizi indirmek için Google Analytics API'sini kullanacağız. Gerekli verileri UA'dan indirip BigQuery'ye tek seferde yükleyecek bir script yazacağız. GoogleAnalyticsR ve bigQueryR paketleri bu işi çok kolaylaştırdığından, bu görev için R kullanmanızı şiddetle tavsiye ediyoruz ve R için eğitimimizi de bu nedenle yazdık!
Bu kılavuz, kimlik bilgileri dosyanızı indirmek gibi kimlik doğrulama kurulumunun daha karmaşık adımlarını kapsamayacaktır. Bununla ilgili bilgi ve BigQuery'ye nasıl veri yükleneceği hakkında daha fazla bilgi için R ve Python'dan BigQuery'ye veri yükleme hakkındaki blogumuza göz atın!
UA Verilerinizi R ile Yedekleme
Her R betiğinde olduğu gibi ilk adım kitaplıklarımızı yüklemektir. Bu komut dosyası için aşağıdakilere ihtiyacımız olacak:
kitaplık(googleAuthR)
kitaplık(googleAnalyticsR)
kitaplık(bigQueryR)
Bu kitaplıkları daha önce kullanmadıysanız, yüklemek için konsolda install.packages(<PAKET ADI>) komutunu çalıştırın.
Daha sonra tüm çeşitli yetkilerimizi sıralamamız gerekecek. Bunu yapmak için aşağıdaki kodu çalıştırmanız ve size verilen talimatları izlemeniz gerekir:
googleAuthR::gar_cache_empty()
googleAuthR::gar_set_client(“C:\\Kullanıcılar\\Tom Brown\\Documents\\R\\APIs\\credentials.json”)
bqr_auth(email = “<buraya e-posta adresiniz>”)
ga_id <- <GA GÖRÜNTÜLEME KİMLİĞİNİZ BURADA>
Ga_id, aşağıda gösterildiği gibi UA'da seçtiğinizde görünümün adının altında bulunabilir:
Daha sonra UA'dan gerçekte hangi verileri alacağımıza karar vermeliyiz. Aşağıdakileri çekmenizi öneririz:
Oturum Kapsamlı Boyutlar | Etkinlik Kapsamlı Boyutlar | Sayfa Görüntüleme Kapsamlı Boyutlar |
Müşteri Kimliği | Müşteri Kimliği | Sayfa Yolu |
Zaman damgası | Zaman damgası | Zaman damgası |
Kaynak / Aracı | Etkinlik Kategorisi | Kaynak / Aracı |
Cihaz Kategorisi | Etkinlik Eylemi | Cihaz Kategorisi |
Kampanya | Etkinlik Etiketi | Kampanya |
Kanal Gruplaması | Kaynak / Aracı | Kanal Gruplaması |
Kampanya |
Bunları BigQuery'de üç tabloya koymak, gelecekteki tüm potansiyel UA veri ihtiyaçlarınız için yeterli olacaktır. Bu verileri UA'dan almak için öncelikle bir tarih aralığı belirtmeniz gerekir. Veri toplamanın ilk ne zaman başladığını görmek için UA platformuna gidin ve raporlarınızdan birine göz atın. Ardından, komut dosyanızı çalıştırmadan önceki güne kadar çalışacak bir tarih aralığı belirtin; bu, 24 saatlik veriye sahip olacağınız son gündür (ve bunu UA çalıştırıldıktan sonra yapıyorsanız). gün batımı, yine de mevcut verilerinizin %100'ünü içerecektir). Veri toplamamız Mayıs 2017'de başladı ve şunu yazdım:
tarihler <- c(“2017-05-01”, Sys.Date()-1)
Şimdi UA’dan nelerin çekilmesi gerektiğini yukarıdaki tabloya göre belirtmemiz gerekiyor. Bunun için farklı kapsamların boyutlarını bir arada sorgulayamayacağınız için google_analytics() yöntemini üç kez çalıştırmamız gerekecek. Aşağıdaki kodu tam olarak kopyalayabilirsiniz:
sessionpull <- google_analytics(ga_id,
tarih_aralığı = tarihler,
ölçümler = c(“oturumlar”),
boyutlar = c(“clientId”, “dateHourMinute”,
“sourceMedium”, “deviceCategory”, “kampanya”, “kanalGruplama”),
anti_örnek = DOĞRU)
eventpull <- google_analytics(ga_id,
tarih_aralığı = tarihler,
ölçümler = c(“toplamOlaylar”, “olayDeğeri”),
boyutlar = c(“clientId”, “dateHourMinute”, “eventCategory”, “eventAction”, “eventLabel”, “sourceMedium”, “campaign”),
anti_örnek = DOĞRU)
pvpull <- google_analytics(ga_id,
tarih_aralığı = tarihler,
ölçümler = c(“sayfa görüntülemeleri”),
boyutlar = c(“pagePath”, “dateHourMinute”, “sourceMedium”, “deviceCategory”, “campaign”, “channelGrouping”),
anti_örnek = DOĞRU)
Bu, tüm verilerinizi düzgün bir şekilde oturum kapsamlı boyutlar için sessionpull , etkinlik kapsamlı boyutlar için eventspull ve sayfa görüntüleme kapsamlı boyutlar için pvpull başlıklı üç veri çerçevesine yerleştirmelidir.
Şimdi verileri BigQuery'ye yüklememiz gerekiyor; kodun her veri çerçevesi için üç kez tekrarlanarak şuna benzemesi gerekir:
bqr_upload_data(“<projeniz>”, “<veri kümeniz>”, “<tablonuz>”, <veri çerçeveniz>)
Benim durumumda bu, kodumun okuduğu anlamına gelir:
bqr_upload_data(“projem”, “test2”, “bloguploadRSess”, sessionpull)
bqr_upload_data(“projem”, “test2”, “bloguploadREvent”, eventpull)
bqr_upload_data(“projem”, “test2”, “bloguploadRpv”, pvpull)
Bunların hepsi yazıldıktan sonra senaryonuzu çalışacak, arkanıza yaslanacak ve rahatlayacak şekilde ayarlayabilirsiniz! İşlem tamamlandıktan sonra BigQuery'ye gidebileceksiniz ve tüm verilerinizin ait olduğu yeri görebileceksiniz!
UA verileriniz yağmurlu bir gün için güvenli bir şekilde saklandığında, tüm odağınızı GA4 kurulumunuzun potansiyelini en üst düzeye çıkarmaya verebilirsiniz - Semetrical bu konuda yardımcı olmak için burada! Verilerinizden en iyi şekilde nasıl yararlanabileceğiniz hakkında daha fazla bilgi için blogumuza göz atın. Veya analizle ilgili her konuda daha fazla destek için web analizi hizmetlerimize göz atarak size nasıl yardımcı olabileceğimizi öğrenin.