###### tags: `linedevday` `memo`
###### 2019-11-20
# 常に進化を続けるLINEの運用型広告プラットフォーム「LINE Ads Platform」
[資料はコレ](https://speakerdeck.com/line_devday2019/how-line-ads-platform-is-constantly-evolving)
2年前: 速度やレイテンシ問題を抱えた
### 課題
- 広告主にフレンドリーになりたい
- システムのアーキテクチャ
### using MLという方向性
広告主に対してフレンドリーとは? = 人を理解することが重要
LAPシステム構築の時点で広告業界のプロを集めてはじめた
LAPの考え方を業界標準にしたい
プラットフォーマーとしてロジックの美しさは重要視しなかった
数字を確認したり and splacementの2点
3ヶ月で開発し、初めはタイでopenした(日本は遅れた
online accoutの登場で個人がLAPにアクセスできるようになった
CTR予測手法(実装)は既出だが、conversion bidding も予測しようとした話
(そもそもCVRとはの用語説明)
ex.)
app install ごとに入札500円にできれば入札金額が20回の app install が買える(イベントを増やす
- coversion auto bidding
- conversion events added
進化を遂げた話
- system architecture
業界基準に準拠すべき->プロトコル、スケーラビリティ
- recruting
専門家を集めよ
SSP,DSP + DMP, Pipline(ログの格納 支払状況など)
- **プロトコル**
openRTB DSPとしてサポートしている
拡張の観点から説明
FIVE(LINEが買収した) SSP
- **ロジック**
なぜロジックがかかせないか?
広告主はお金を支払い多くの収益を獲得しようとする
マーケのゴールに対して戦略で様々なフィーチャーを用意
- **marketing funnel**
フィーチャーを組み合わせて各ファネルを達成しようとする
ここで必要なものがRTB,CVR,BA
MLerが注意を払っていないと考えるポイント
- real time monitoring
バグの発見が損失に直結する
prometheusとgrafanaを使っている
Druid/Imprid
- 実験的環境
開発研究側へのルールを用意した-> offlineテストの合格
date pipline を作る
multi ABtest をする
たくさんの環境を同時に作った
- real time serving
バッヂではなくリアルタイムにサーブする(view, clickなど
レーテンシを抑えることが重要
### R&Dしたロジックの紹介
いくつかpaper出したぞ([これとか](http://wnzhang.net/share/rtb-papers/budget-smooth.pdf))
6つのロジックを紹介
- CTR predicton
realtime, latency, model performance
logistic回帰, FTR(google使ってる), GBT, clusteringなどから実験して選んだ
- CV predicton
clickのイベントより、CVイベントは長期間のため難しい
データなしで予測しなけれな行けなくなる
CV dataはdirtyでクレンジングが大変
data clearing, rerity, delay, multi-label
このような観点から実験
L-BFGS, 分散があるためpoissonなど
- auto bidding
- look-Alike
だれか、なにかが他のものに似ているはずなのでその仮定のもとユーザ選択
-> メインカスタマーに入れて、ユーザを探す
embedding, speed, monitoring
- simulator
トレースしたい数字,CV予測
Reach&Frequency simulatorを採用
- optimazation status
モデルが安定するまでどれくらい時間がかかるのか、などを広告主が理解しなくてはいけない
待つ時間は赤いエリア(グラフ参照)
- Auto Series
自動化シリーズ
auto delivery とは
正しいユーザを見つける(ターゲティングに近い)
onlineで実験も自動でたくさん実施している