株式会社unerryのデータエンジニアの求人
✨ あなたと求人のマッチ度診断
β版職務経歴書など、あなたの経験やスキルが分かるファイルをアップロードすると、 求人とのマッチ度とその理由が表示されます💡
※AIにより自動生成するもので、選考結果を保証するものではありません。
※現在、本機能はPCブラウザでのみご利用いただけます。
募集概要
日本最大級の位置情報系IoTプラットフォーム"Beacon Bank(ビーコンバンク)"というプラットフォームにかかわるデータの処理・分析基盤の設計、開発、運用をしていただきます。 ### 具体的な業務内容 \- 外部とのデータ連携 \- 取引先あるいは社内フロントメンバーとデータ仕様や処理のスキームについて要件を議論し決める。 \- AWS S3, Google Cloud Storage, Google Drive と言った各種ストレージと BigQuery 間でのデータの転送処理を Cloud Functions と Airflow を用いて実装・管理する。 \- IAM の発行・管理、データのアクセスコントロールを行う。 \- データサイエンティストと意見交換しながら、データの取得や前処理、予測モデル・予測値生成、および抽出のバッチ化・運用を行う。 \- データ処理に係るコストのモニタリング、最適化施策を行う。 \- データ連携に係るプライバシーマークへの対応を行う。 (業務内容の変更範囲)各事業部に係る業務全般 ### 仕事の魅力 \- 市場で誰も見たことのない新サービス・新データプロダクトに携わることが可能です \- 最新のデータ分析/インフラ技術にキャッチアップし、自社サービスやプロジェクトに反映することが奨励されます \- 自身で物事を推進する文化のため、自身のスキルを活かして上記業務内容にとどまらず活躍いただくことが奨励されます ### 必須要件 \- 社内外と的確かつ迅速に物事を相談して進めるためのコミュニケーションスキル \- データベース、処理スキームの設計、運用 \- ビッグデータの処理スクリプト開発(大量ファイル・大容量データにおける文字コード変換、文字置換、一括解凍・圧縮等) \- Python, Java, Go, Rのいずれかの言語による簡易なデータ分析スクリプト開発 ### 歓迎要件 \- クラウドサービス(特にGoogle Cloud, AWS)の利用経験 \- Google Cloud : Cloud Storage | Cloud Functions | Dataflow | BigQuery | Compute Engine | AI Platform | Monitoring \- AWS : S3 | Lambda | Data Pipeline | Redshift | E2 | SageMaker | Cost Explorer \- Snowflakeとそれに組み合わせる各種SaaSなどデータ製品群 \- Airflow を使ったバッチ処理の実行、運用 \- REST API によるデータの GET|POST の経験 \- 統計検定2級以上の知識 \- 統計モデル・機械学習の構築経験 ### こんな方と一緒に働きたいです \- 自ら進め方を考え、他人と調整し、失敗を恐れず実行ができる方 \- 周囲と適切にコミュニケーションをとりながら的確な処理を定義し実行することができる方 \- データの種類・ボリューム・活用方法は常に変動している中で、最適なソリューションを自発的かつ積極的に提案・実行できる方 \- データアナリストやデータサイエンティストのご経験をお持ちでデータエンジニア領域に幅を広げたい方も大歓迎
応募概要
- 給与
応相談 前職を考慮 専門業務型裁量労働制 年俸制 深夜残業・休日出勤は別途支給
- 勤務地
東京都港区虎ノ門4丁目1番1号 神谷町トラストタワー23階
- 雇用形態
正社員
- 勤務体系
専門業務型裁量労働制 ※参考:標準勤務時間 10:00~19:00 完全週休二日制 土・日・会社が定める日 年間休日120日
- 試用期間
- 福利厚生
交通費支給あり(上限月5万円) 副業OK 服装自由 テレワーク・在宅OK 時短勤務制度あり
更新日時:
2025/11/03 18:16