仕事概要
■トリビューについて
トリビューは、「ありたい自分でいられる世界の実現」を目指し、自由診療に特化した口コミ・予約プラットフォームを展開しています。
自由診療は、人々の選択肢を広げる一方で、情報の非対称性や不透明な価格設定といった課題も多く残されています。
私たちは、信頼できる情報基盤と快適なユーザー体験を整えることで、安心して選択できる新しいスタンダードを築いてきました。
そして今、次なるステージとして「AIによる体験の変革」に挑戦しています。
■募集背景
トリビューは美容医療の口コミ・予約アプリを中心に、toC / toBの両軸で複数プロダクトを展開しています。
累計DL数200万、流通総額250億円を超え、ユーザー・クリニック双方の利用が急速に拡大する中、今後はLLMやデータ活用を通じて「体験・マーケティング・営業活動・経営判断の全領域をデータで接続する」フェーズに入っています。
これまでの分析業務は、主にによるBIダッシュボードやSQLによる統計分析が中心でしたが、今後は
- 機械学習・統計モデリングを活用した相関分析
- マーケティングROIの統合的な可視化
- クリニックの成果を支えるデータパイプライン・レポーティング自動化
など、データ基盤とプロダクトを横断して価値を生み出す分析組織への進化を目指しています。このため、データを活用して意思決定と体験改善をドライブする「データサイエンティスト」を募集します!
【このポジションの魅力】
- 事業KPI・UX・マーケティングをつなぐデータ基盤を自ら設計・構築できます
- 事業部・PdM・LLMエンジニアと密に連携し、プロダクト戦略に直結する分析を推進できます
- データパイプラインやETL自動化など、分析環境の整備から実務分析までを一貫して担うことができます
■お任せしたい業務内容
データサイエンティストとして、データ基盤構築から分析・活用までを一貫して推進していただきます。
具体的には:
1)データ基盤の構築・整備
- 各種アプリ・サーバー・外部ツール(広告、CRM、BIなど)からのデータ収集・ETL設計
- BigQuery / dbt / Cloud Functions 等を活用したデータパイプラインの維持、アップデート
- データ品質管理・スキーマ設計・メタデータ整備(再現性・信頼性の確保)
2)分析・モデリング業務
- 施術・来院・予約などのユーザー行動データを用いた統計・機械学習分析(LTV、リテンション、チャーン分析など)
- 事業KPIの設計・トラッキング・可視化(BIダッシュボード構築)
- BigQuery SQL・Pythonを用いたデータモデリングおよび再現性の高い分析設計
3)データ活用推進・チーム連携
- PdM・マーケ・CSの分析サポート、および、プロセスの汎用・簡単な仕組み化
- データ基盤・分析知見の共有・ドキュメント整備・ナレッジ化
■環境
# データ基盤 / DWH:
- BigQuery Data Transfer
- Aurora (MySQL 互換)
- ElasticCache (Redis)
- OpenSearch Serverless
# BI / 可視化:
- Redash(将来的には Looker Studio や DataPortal 連携の拡張も想定可)
# ETL / データ転送:
- BigQuery Data Transfer Service
- アプリケーション側の RakeTask / Sidekiq などによる定期ジョブ実行
- S3 経由での一部ログ・ファイル転送
# 監視 / ログ:
- Datadog:Rails・Nginx・RDS・ElastiCache のメトリクス収集
- CloudWatch / ALB Logs / EKS Logs(Datadog 連携経由)
# 言語 / フレームワーク:
- SQL(BigQuery / Aurora)
- Python(ETLや統計分析で利用想定、pandas, scikit-learn, matplotlib など)
- Ruby on Rails(アプリ側でのデータ収集やETLトリガーに関与)
■選考フロー
書類選考→面接2〜3回→内定
※他社選考や現職のご都合に合わせて、開始時間や日程は柔軟に対応致しますのでお気軽にご相談ください。
※最終面接は恵比寿本社にて対面での実施となります。交通費は自費でご負担いただいております。あらかじめご了承ください。
■更にトリビューについて知りたい方はこちら!
https://tribeau.notion.site/TRIBEAU-Entrance-Book-3fe15ab7ee3a4957aece6bfbf07d54fb
必須スキル
- BigQuery などの DWH を用いたデータ分析・モデリングの実務経験
- SQL を用いた大規模データの抽出・集計・最適化経験
- Python によるデータ処理・分析(pandas / NumPy / scikit-learn など)の実装経験
- ETL パイプラインの設計・構築・運用経験(BigQuery Data Transfer / Airflow / Cloud Functions 等)
- クラウド環境(AWS / GCP 等)でのデータ基盤設計・運用経験
- BI / 可視化ツール(Looker Studio / Tableau / Google Sheets 等)を用いたダッシュボード構築・レポーティング経験
歓迎スキル
# 歓迎
- 事業KPI・LTV・リテンション分析など、経営・マーケティング領域における分析経験
- BigQuery / dbt によるデータモデリング・スキーマ設計経験
- 機械学習モデルを活用した相関・予測分析(例:チャーンモデル、CV予測など)の設計・運用経験
- データ品質管理・メタデータ設計・監視の仕組み化(Data Catalog / Datadog 等)
# 大歓迎
- BigQuery を中心としたモダンデータスタック(dbt / Fivetran / Looker 等)全体の設計・リード経験
- LLM や RAG とデータ分析を組み合わせた知識探索・自動分析パイプライン構築の経験
- マーケティング・UX・事業データを横断的に結合し、事業戦略レベルでデータドリブン文化を浸透させた経験
求める人物像
- データを「事業の意思決定と成長を支えるプロダクト」として捉え、仕組みで解決することにワクワクできる方
- PdM・エンジニア・マーケティングなど多職種と協働し、共通言語で議論できる方
- 数字・事実をもとに物事を判断しつつ、事業のストーリーや仮説思考も大切にできる方
- データ基盤の整備や運用を地道に進めながらも、最終的に「意思決定スピードを上げる」ことに価値を感じられる方
応募概要
| 給与 | ・年収600〜1,000万を想定 ・スキル・経験・能力を考慮し決定いたします。 ・年俸制、年2回見直しあり ・みなし時間外手当(月45時間相当)を含む |
|---|---|
| 勤務地 | 〒150-0013 東京都渋谷区恵比寿1丁目19-23 東邦ビル3階 JR恵比寿駅東口より徒歩3分 |
| 雇用形態 | 正社員 |
| 勤務体系 | ■勤務時間・就業場所 ・フレックスタイム制 ・標準就業時間は10:00〜19:00(内:11:00〜15:00がコアタイム、60分間の休憩を含む) ・現在は月・水・金曜日を全社出社日としており、その他はリモートワーク可 ■休日 ・完全週休2日制(土日祝) ・有給休暇(初回は6ヶ月間勤務後、10日間付与) ・夏季休暇(※入社時期により付与日数が異なります) |
| 試用期間 | 3ヶ月間(本採用と同条件) ※能力に応じて延長となる場合があります。 |
| 福利厚生 | ・各種社会保険あり ・通勤手当 (50,000円/月を上限に支給) ・シックリーブ(※入社時期により付与日数が異なります) ・健康診断オプション補助金(上限11,000円まで) ・育児介護休暇 ・子の看護休暇 ・産前産後の休暇 ・育児介護の時短勤務 ・裁判員休暇 ・生理休暇 ・育児休職 ・介護休職 |
企業情報
| 企業名 | 株式会社トリビュー |
|---|---|
| 設立年月 | 2017年7月26日 |
| 本社所在地 | 〒150-0002 東京都渋谷区恵比寿1-19-23 東邦ビル3階 |
| 資本金 | 1,078,943,784円(資本準備金等含む) |
| 従業員数 | 46名(業務委託・派遣を含めると120名)※2024年10月1日時点 |