Facebook重建廣告系統(tǒng),個性化廣告即將改朝換代

來源: TopMarketing
作者:TOP君
時間:2021-08-27
18068
前有谷歌禁用第三方cookie,后有蘋果推出ATT隱私新政,個性化廣告首當其沖,隱私安全終成互聯(lián)網(wǎng)公司繞不開的命題。
前有谷歌禁用第三方cookie,后有蘋果推出ATT隱私新政,個性化廣告首當其沖,隱私安全終成互聯(lián)網(wǎng)公司繞不開的命題。

 
上周三,Graham Mudd在Facebook官網(wǎng)主頁上發(fā)布了一篇名為“Privacy-Enhancing Technologies and Building for the Future”(隱私增強技術和面對未來的建設)的文章。其在文中提到:“必須承認的是,數(shù)字廣告勢必要減少對個人第三方數(shù)據(jù)的依賴,這也是我們多年來一直投資建設一系列隱私增強技術,并與行業(yè)一同制定標準以支持下一時代的原因?!?/section>
 
毫無疑問,F(xiàn)acebook的龐大廣告帝國正是建立在跨平臺用戶追蹤的個性化能力基礎之上,而隱私監(jiān)管的收緊則對其帶來了諸多限制。
 
今年年初,TOP君曾在文章里分析過,蘋果的隱私條款將對Facebook廣告的轉化追蹤能力、定向能力以及Facebook Audience Network的個性化能力產(chǎn)生一定影響。這也是當時Facebook從中小企業(yè)利益切入,利用各種公關手段高調控訴蘋果的主要原因,不過最終依然難以撼動大局。
 
正如歷史不會倒退,隱私保護的趨勢不會逆轉,已經(jīng)融入人們日常生活的個性化營銷活動也不會突然消失,F(xiàn)acebook勢必要在個性化廣告與個人隱私之間找到和解之道。
 
“我們相信營銷個性化對用戶和企業(yè)而言仍是最佳體驗。沒有個性化廣告,企業(yè)將更難啟動和發(fā)展,新的產(chǎn)品與服務也會更難被人們發(fā)現(xiàn),并且成本也會更高。同樣,人們將會看到很多不相關、不及時且不感興趣的廣告。互聯(lián)網(wǎng)不再是免費且自由的場所,讀新聞、聊天、娛樂也許都需要付費,對無法承擔訂閱費的人來說將變得難以訪問,”Graham Mudd寫道。
 
從這篇文章里,我們深刻感受到,邁向個性化廣告下一時代的鑰匙正是利用技術解決隱私安全問題,形成大規(guī)模應用,并得到社會認可。建設未來的重要一環(huán)就是研發(fā)一系列隱私增強技術(Privacy-enhancing technologies,簡稱PETs) ,使得Facebook在保障個人隱私的同時還能夠做廣告效果度量和優(yōu)化,這其中廣告主和平臺任何一方都不能得到用戶的個人信息。
隱私增強技術是數(shù)字廣告下一代的核心
 
“我們相信PETs將會支撐起下一代數(shù)字廣告,”Graham表示。
 
PETs主要涉及到密碼學和統(tǒng)計學技術??傮w來說,這些技術能夠通過最小化數(shù)據(jù)處理量來保護個人信息安全,與此同時保留廣告度量、個性化等核心功能。這其中,F(xiàn)acebook主要介紹了三種常用技術:secure multi-party computation(安全多方計算技術,簡稱MPC)、on-device learning和differential privacy(差分隱私)。TOP君用比較通俗的話術分別介紹下各自邏輯。
 
1. 安全多方計算(MPC)
 
安全多方計算(MPC)是一種密碼學技術,即多方將各自數(shù)據(jù)分別加密,再進行交換與學習,從而實現(xiàn)對廣告效果的度量與優(yōu)化。在數(shù)據(jù)傳輸、存儲、應用等過程中,數(shù)據(jù)全程處于加密狀態(tài),任何一方都不會看到其他方數(shù)據(jù)。
 
在廣告效果度量場景中,以往,廣告主會對數(shù)據(jù)加密,然后傳輸給平臺方或第三方,而平臺或第三方在接收到數(shù)據(jù)之后可以解密,從而獲得洞察,這意味著至少其中一方會看到用戶從點擊到購買的全路徑數(shù)據(jù)。
 
如果MPC技術得到應用,則意味著一方只能看到其所擁有的用戶點擊數(shù)據(jù),另一方只能看到用戶購買數(shù)據(jù),在加密條件下,雙方交換各自已經(jīng)加密的數(shù)據(jù)包并對另一方數(shù)據(jù)再次加密,這樣兩個數(shù)據(jù)包都各自上了兩道鎖,保證雙方最終除了匹配結果之外不會獲得其他信息,也無需再將數(shù)據(jù)授權給其他方,從而降低數(shù)據(jù)隱私泄露風險。

而在廣告優(yōu)化場景中,例如廣告主想知道點擊用戶在該品牌的平均消費金額,MPC技術也能實現(xiàn)在不泄露任何個人數(shù)據(jù)的情況下給到廣告主最終計算結果。大致原理是,對每位轉化用戶的消費數(shù)據(jù)進行拆分,然后重新洗牌、聚合、加和,最終除以總人數(shù)得到平均消費金額。這樣廣告主既得到了想要的廣告效果數(shù)據(jù)以優(yōu)化后續(xù)投放策略,又保證了個人消費數(shù)據(jù)的安全。
 
Facebook透露,目前MPC技術已經(jīng)開始投入使用。去年,其已經(jīng)開始測試一個叫Private Lift Measurement的解決方案,其中包括利用MPC技術幫助廣告主進行效果度量,預計明年就會面向全部廣告主開放使用。此外,F(xiàn)acebook也已經(jīng)推出了隱私計算開源框架,任何開發(fā)人員都可以使用 MPC 創(chuàng)建以隱私為中心的測量產(chǎn)品。
 2. On-device learning
 
On-device learning,即系統(tǒng)可直接在用戶設備上基于歷史數(shù)據(jù)來找到一些有用的模式,并通過不斷學習優(yōu)化算法模型,此過程無需再將個人數(shù)據(jù)發(fā)送到遠程服務器或云,即可實現(xiàn)預測。例如如果愛健身的人群可能也是蛋白奶昔的潛在購買用戶,那么On-device learning就能通過學習找出二者之間的關聯(lián)模型,這一過程中,用戶個人信息不會上傳到Facebook的服務器,只會保留在設備上,避免了隱私泄露風險。
 
那么On-device learning又是通過什么原理來實現(xiàn)對隱私的保護的呢?
 
通俗來講,在每個設備上,都有一個獨立、安全的“小房子”,用來收集用戶在各個APP內的數(shù)據(jù),通常稱之為Sandbox(沙箱)。
 
像APP下載、購買記錄等數(shù)據(jù)都會保存在這里,不會與其他方共享。在沙箱里,系統(tǒng)就可以根據(jù)用戶在設備上的一系列行為來學習得到一些模式,如一個人喜歡聽搖滾樂,經(jīng)常在晚上網(wǎng)購等,然后對這些模式進行匯總,保證其不會被識別。當有更新時,系統(tǒng)可直接更新模式,無需再去通過匯總個人數(shù)據(jù)來重新學習,這樣雖然每一個設備只是完成了一次微小的模式更新,但成千上萬個設備匯總起來就會生成一個安全、不可識別的報告,完成一次模型的優(yōu)化,F(xiàn)acebook只需學習最終匯總成的模型,就能更好地為每個用戶推薦匹配的廣告。
 
事實上,這項技術已經(jīng)在很多蘋果設備上廣泛應用了。不過根據(jù)Graham,目前On-device learning應用的最大挑戰(zhàn)其實還是運營系統(tǒng),平臺能否利用所需的計算資源來執(zhí)行,掌控權還在蘋果手中。“如果未來可以圍繞這些資源的訪問和使用(以公平競爭的方式)建立一系列標準,那么就會很有意義?!?/section>
3. Differential privacy(差分隱私)

差分隱私是保護個人數(shù)據(jù)被破解的一種技術手段,可以單獨使用也可以與其他技術聯(lián)合應用?;驹砭褪窃跀?shù)據(jù)集中混入一定比例的“噪聲”,這樣就很難會利用第三方數(shù)據(jù)反向推導出個人信息。例如,F(xiàn)acebook上一則廣告有118人在點擊后進行了購買,那么差分隱私技術就會從中添加或抽取隨機數(shù)量,最后使用該系統(tǒng)的人可能看到的數(shù)字會是120或是114。
 
現(xiàn)實生活中,經(jīng)過匿名、去標識化后的數(shù)據(jù),依然有個人身份被識別的可能。這樣的事情并不少見。TOP君給大家講兩個非常出名的故事。
 
1997年,馬薩諸塞州州長William Weld曾同意將政府雇員就診信息公開用于學者研究,而為了保護個人隱私,這些數(shù)據(jù)其實已經(jīng)將姓名、住址等信息刪掉,去標識化了。不過一名研究生卻通過交叉比對一份選舉記錄輕松人肉出了州長,并找到了他的全部醫(yī)療記錄。
 
同樣,在2006年,奈飛舉辦了一個算法大賽,要求利用一份匿名后的數(shù)據(jù)庫來預測用戶電影評分。而后兩位研究人員將這份數(shù)據(jù)庫通過關聯(lián)IMDb網(wǎng)站上的公開記錄,識別出了一些匿名用戶的真實身份。最終,奈飛因隱私問題停賽,不得不面對巨額罰款。
 
由此看來,即便去標識化,依舊無法保證隱私安全,這就需要差分隱私技術在數(shù)據(jù)庫中混入“噪聲”,在保證不改變數(shù)據(jù)原有模式的基礎上,防止外人破解。當然,這其中也包含不同方式,涉及到不同算法。
 用差分隱私技術,在數(shù)據(jù)庫中混入一定比例“噪聲”
 
舉一個比較簡單的例子。
 
一個酒店做調查,需要顧客回答是否會帶走酒店浴袍當作紀念品。不過這種問題,很多人都不會直接承認,畢竟被別人知道會非常尷尬,于是酒店就可以用差分隱私的方法,讓系統(tǒng)只能有一部分概率得到顧客的真實回答。如果更具象化一點,可以將這里差分隱私的應用當做一次拋硬幣,得到正面,系統(tǒng)將真實記錄顧客的回答;得到背面則會再拋一次,如果還是正面,就記為“是”,背面則為“否”。這樣酒店就不知道誰拿了浴袍,只知道有多少比例的人拿了浴袍當紀念品。

立即登錄,閱讀全文
版權說明:
本文內容來自于TopMarketing,本站不擁有所有權,不承擔相關法律責任。文章內容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權,請聯(lián)系管理員(zzx@kchuhai.com)刪除!
優(yōu)質服務商推薦
更多
掃碼登錄
打開掃一掃, 關注公眾號后即可登錄/注冊
加載中
二維碼已失效 請重試
刷新
賬號登錄/注冊
個人VIP
小程序
快出海小程序
公眾號
快出海公眾號
商務合作
商務合作
投稿采訪
投稿采訪
出海管家
出海管家