b. SWE(MLシステム) の求人一覧 - Turing株式会社
3001_ソフトウェアエンジニア / Software Engineer(オープンポジション)
◆本求人は、Webサービス開発・MLOps、低レイヤーのソフトウェア開発(Linux / 組み込み含む)などを通じて、自動運転システム全体の成立に関わるソフトウェア領域で高い専門性を持つ方を対象としています◆
チューリングは完全自動運転の実現を目指しているディープテックスタートアップです。
「We Overtake Tesla」をミッションに掲げ、創業Day1からEnd-to-End(E2E)の考え方を掲げ、自動運転AIの開発に取り組んできました。現在では、東京都内を30分以上人間が介入することなく走行できる自動運転システムを開発するに至り、まさに今、モデルおよびシステム全体が指数関数的な成長を見せるカーブの手前に位置していると捉えています。これからはE2Eモデルをさらに発展させ、
物理的な振る舞いと世界理解を統合したフィジカル基盤モデルとすることで、
運転能力だけでなく、言語やマルチモーダルな理解を組み合わせ、
人間にしか対応できなかったような難しいシーンにも対処できる自動運転AIを開発していきます。
■ ソフトウェアエンジニアに期待すること
この挑戦を前に進めるうえで鍵になるのが、ソフトウェアの力で「学習〜検証〜実車」までの開発サイクルを高速に回し続け、
自動運転AIを“実世界で動くシステム”として成立させることです。モデル改善につながるデータが継続的に回り続ける仕組み走行実験・評価・解析が一体となって回る検証フローセンサ・推論・制御が連動した自動運転システム全体を、安全かつ高性能に動かすためのソフトウェア設計チューリングのソフトウェアエンジニアは、
単なる個別機能の実装に留まらず、自動運転AIの進化を“システムとして”成立させ続ける中核を担います。
■ オープンポジションについて
本ポジションは、ソフトウェアエンジニアをご志望の方で、現在公開中の募集ポジションに適合するものが見つからない方向けの応募フォームです。
書類選考後、ご希望やご経験に応じた適切なポジションを検討するマッチング面談を設定いたします。
応募時「応募先へのメッセージ」欄には、以下を自由にご記入ください。
・ご自身の強み・得意分野
・希望する業務領域(設計・実装・運用・最適化 等)
・これまでの成果が分かる情報(GitHub、設計資料、プロジェクト概要、登壇 / 記事 等)
■ソフトウェアポジション例
▽MLOps・モデル開発関連
3011_ソフトウェアエンジニア / Software Engineer(自動運転MLOps基盤開発)
[https://herp.careers/v1/turing/Qc3t_q0FYFq](https://herp.careers/v1/turing/Qc3t_q0FYFq)
3012_ソフトウェアエンジニア / Software Engineer(自動運転VLAモデル開発)
[https://herp.careers/v1/turing/lqrK5k1NqzyU](https://herp.careers/v1/turing/lqrK5k1NqzyU)
3013_ロボティクス・ソフトウェアエンジニア / Robotics Software Engineer(自動運転開発)
[https://herp.careers/v1/turing/SMo30RyV5I9L](https://herp.careers/v1/turing/SMo30RyV5I9L)
3016_コンピュータービジョンエンジニア / Computer Vision Engineer(画像処理)
[https://herp.careers/v1/turing/uMUjp4fFtvZ7](https://herp.careers/v1/turing/uMUjp4fFtvZ7)
▽自動運転システム開発関連
3032_ソフトウェアエンジニア / Software Engineer(OS・組み込みシステム、ファームウェア開発)
[https://herp.careers/v1/turing/01gtnhsLWgVe](https://herp.careers/v1/turing/01gtnhsLWgVe)
3034_ソフトウェアエンジニア / Software Engineer(ミドルウェア、車載システム開発)
[https://herp.careers/v1/turing/abHB5x7zASkv](https://herp.careers/v1/turing/abHB5x7zASkv)
3035_ソフトウェアエンジニア / Software Engineer(車載アプリケーション開発)
[https://herp.careers/v1/turing/IFKgdYLwpdc7](https://herp.careers/v1/turing/IFKgdYLwpdc7)
3011_ソフトウェアエンジニア / Software Engineer(MLOps)
◆本求人は、大規模・高信頼性が求められるデータ基盤および分散システムの開発・運用経験を有するソフトウェアエンジニアを対象としています◆
チューリングでは、車載カメラの映像を入力に車の制御を行う「End-to-Endの自動運転MLモデル」の開発を行っています。
開発をスケーリングしていくために、継続的なデータ改善・モデル改善を阻む様々なボトルネックの解消に、多岐にわたって取り組む必要があります。単なる基盤構築にとどまらず、チームを横断して課題を見つけ、仮説を立て、探索し、解決していくこと自体が本ポジションのミッションになります。
【業務内容】
・ステイクホルダーと協力して、データやモデルの継続的な改善
・大規模データ基盤の構築・運用
・クラウドやオンプレミス環境を含めた、処理パイプライン・データ転送の最適化
・内部ツール・API・Webサービスの設計・実装
・システム全体を俯瞰したアーキテクチャ設計、パフォーマンスチューニング
チューリングの開発対象は自動運転です。開発したソフトウェアは実際の車両に搭載され、物理世界で動作します。WebやSaaSとはまた違う技術的チャレンジがあります。強いMLエンジニアとソフトウェア・インフラが一体となって初めて実現できる領域で、これまでのエンジニアリング経験を活かし、人類のグランドチャレンジに挑めます。
3012_ソフトウェアエンジニア / Software Engineer(自動運転VLAモデル開発)
◆本求人は、機械学習・自動運転・コンピュータビジョンのいずれかの領域で専門性を持つMLエンジニアや、大規模なMLOps・データ基盤開発に取り組んできたソフトウェアエンジニア、あるいはロボティクス領域でMLやソフトウェアエンジニアリングに取り組んできた方を対象としています◆
チューリングでは、車載カメラの映像を入力に車の制御を行う「End-to-endの自動運転モデル」の開発を行っています。チューリングのミッションは、完全自動運転レベルの自動運転システムの開発を行うことです。大きく2つの方向性でわれわれは開発を進めています。エキスパートドライバーのデータを模倣学習させ、数ミリオンほどのニューラルネットワークで多様なシーンを学習させるものと、Vision-Language-Actionモデル(VLAモデル)をはじめとした基盤モデルを車両で動かし、さまざまなシーンを判断させるものです。
VLAモデルを使った自動運転は世界レベルで見てもまだ知見が少なく、最新の論文や開発事例を参考にし、探索的に取り組んでいかねばなりません。そのためには機械学習の知見だけではなく、さまざまなエンジニアリング要素を駆使してプロジェクトを進めていく必要があります。
今回の求人ではそういった挑戦的な取り組みを進めるメンバーを募集しています。基盤モデルの学習パイプライン構築や、モデルの量子化・最適化などさまざまなレイヤーで開発イシューがあります。
【業務内容】
※下記のうちの全てを担当するわけではなく、自身の強みを活かしたドメインで開発を進めつつ、他領域にも染み出しながら開発を進めていただきます
・データキャリブレーションや異なるセンサデバイス間の座標変換
・データセットの作成・改善
・論文や既存実装の調査・再現・実装
・自社データセットを利用した既存実装の評価
・モデル量子化・最適化
・実車でのモデル評価・実験管理
・自動運転VLAモデルの実装
・オートラベリングの実装
【Embodied AIというテーマの最前線を楽しむ】
AIに身体性を持たせ、物理空間の中で価値を発揮する。そういったテーマにおいて自動運転はまさに人類がいま取り組んでいるものです。すでに社内で進んでいるプロジェクトのナレッジを活かしつつも、独自のMLパイプラインを構築していかなければなりません。レファレンスがほとんどない領域で開発を推進していただける方を探しています。
【自分のつくったモデルを実車で試して改善していく】
「データセットやモデルを作る→走行実験→実験ログ解析実験→モデルの管理」という流れで自動運転AIを進化させていきます。自身のつくったモデルを五感で捉えながら改善サイクルを回していきます。机上だけでなく、現実世界からのフィードバックを開発に活かしてください。
【こんな人が活躍しています】
- 研究機関出身の自然言語処理リサーチャー
- システム開発会社でのシステムエンジニア/データサイエンティスト
- 広告系メガベンチャー出身の機械学習/ソフトウェアエンジニア
3013_ロボティクス・ソフトウェアエンジニア / Robotics Software Engineer(自動運転開発)
◆本求人は、機械学習・自動運転・コンピュータビジョンのいずれかの領域で経験のあるエンジニアや、大規模なMLOps・データ基盤開発に取り組んできたソフトウェアエンジニア、あるいはロボティクス領域でMLやソフトウェアエンジニアリングに取り組んできた方を対象としています◆
チューリングのミッションは、完全自動運転レベルの自動運転システムの開発を行うことです。
自動運転システム全体ではさまざまなモジュールがあり、それらがPub/Sub間通信でやりとりしています。依存関係はできる限りシンプルに開発しているものの、自動運転モデル開発やモデル精度向上のためにはさまざまなソフトウェアイシューを解決する必要があります。
今回の求人では、さまざまなレイヤーのソフトウェアイシューに対応できる方を募集しています。MLモデルの学習パイプライン構築や、モデルの量子化・最適化、センサーデータキャリブレーション、車両運動制御実装などさまざまなレイヤーで開発イシューがあります。
※入社時は自身の強みを発揮して特定のイシューで活躍しつつ、さまざまなレイヤーに貢献範囲を広げていくことを期待しています
【業務内容】
※下記のうちの全てを担当するわけではなく、自身の強みを活かしたドメインで開発を進めつつ、他領域にも染み出しながら開発を進めていただきます
・データキャリブレーションや異なるセンサデバイス間の座標変換
・データセットの作成・改善
・論文や既存実装の調査・再現・実装
・自社データセットを利用した既存実装の評価
・モデル量子化・最適化
・実車でのモデル評価・実験管理
・車両運動制御システムやアルゴリズムの設計・実装
・実車両を用いた制御性能の評価・チューニング
【自分のつくったシステム・MLモデルを実車で試して改善していく】
「データセットやモデルを作る→走行実験→実験ログ解析実験→モデルの管理」という流れで自動運転AIを進化させていきます。自身のつくったモデルを五感で捉えながら改善サイクルを回していきます。机上だけでなく、現実世界からのフィードバックを開発に活かしてください。
【こんな人が活躍しています】
- 自動運転領域で開発経験のあるソフトウェアエンジニア
- 自動車会社でソフトウェア/制御開発をしてきたエンジニア
- システム開発会社でのソフトウェアエンジニア/制御エンジニア
- 広告系メガベンチャー出身の機械学習/ソフトウェアエンジニア
3015_シミュレーションエンジニア / Simulation Engineer(End-to-End自動運転モデル開発)
◆本求人は、シミュレーション領域で専門性を持つエンジニアを対象としています◆
チューリングは完全自動運転の実現を目指しているディープテックスタートアップです。
当社では、End-to-End 自動運転モデルの研究開発を加速させるために、次世代のシミュレーション技術の構築に取り組んでいます。具体的には、評価・学習に使用する 3D Gaussian Splatting ベースのシミュレータ, 大規模分散学習基盤, 制御システム(MPC等)を組み合わせることで、実車実験に依存しない効率的でロバストな自動運転システム開発を推進しています。
本ポジションのシミュレーションエンジニアは、その基盤となるクローズドループシミュレータの設計・開発をリードし、MLエンジニアと連携しながら、自動運転技術の進化を加速させる役割を担います。
■業務内容
- 3DGSベースのクローズドループシミュレータ開発
- End-to-End自動運転モデル開発支援
- 分散学習基盤との統合
【シミュレータ開発の目的】
大規模に生成された3DGSシーンを活用し、End-to-Endモデルの学習・評価を可能にする高精度シミュレーション環境を構築していきます。制御レイヤーや物理シミュレーションを統合し、実車実験に依存せず制御アルゴリズム探索を行える環境を実現しようと考えています
【モデル開発支援とは?】
強化学習や模倣学習に適したE2Eモデルの事前学習をサポートしていきます。また、制御レイヤーを含めた効率的なE2Eモデル探索を推進をしていただきます。
【分散学習基盤との統合について】
われわれは多様な交通シナリオや物理特性のランダム化に対応した堅牢なモデル学習を支えるシミュレーション環境を拡張していきます。
シミュレーション環境を全社で活用可能な共通基盤にするには、現状のモデル開発のデータパイプライン環境や学習基盤環境とシームレスに接続していく必要があります。
単にシミュレーターを作るのではなく、共通基盤としての構築を目指し、全社のモデル開発を支援していきます。
3016_コンピュータービジョンエンジニア / Computervision Engineer(画像処理)
◆本求人は、機械学習・自動運転・コンピュータビジョンのいずれかの領域で経験のあるエンジニアや、大規模なMLOps・データ基盤開発に取り組んできたソフトウェアエンジニア、あるいはMLや低レイヤ領域のソフトウェアエンジニアリングに取り組んできた方を対象としています◆
チューリングのミッションは、完全自動運転レベルの自動運転システムの開発を行うことです。
自動運転システム全体ではさまざまなモジュールがあり、それらがPub/Sub間通信でやりとりしています。依存関係はできる限りシンプルに開発しているものの、自動運転モデル開発やモデル精度向上のためにはさまざまなソフトウェアイシューを解決する必要があります。
今回の求人では、自動運転AIのデータパイプラインを画像処理の専門性で支えるポジションです。動画・画像データをメインモダニティとするチューリングにおいて、画像のエンコード/デコードの知見は機械学習パイプライン全体へ寄与する重要な技術イシューです。複数のレイヤーにまたがって技術課題を解決します。
【業務内容】
※下記のうちの全てを担当するわけではなく、自身の強みを活かしたドメインで開発を進めつつ、他領域にも染み出しながら開発を進めていただきます
・データキャリブレーションや異なるセンサデバイス間の座標変換
・画像、動画データ処理パイプラインの高速化
・実車でのモデル評価・実験管理
【自分のつくったシステム・MLモデルを実車で試して改善していく】
「データセットやモデルを作る→走行実験→実験ログ解析実験→モデルの管理」という流れで自動運転AIを進化させていきます。自身のつくったモデルを五感で捉えながら改善サイクルを回していきます。机上だけでなく、現実世界からのフィードバックを開発に活かしてください。
【こんな人が活躍しています】
- 自動運転領域で開発経験のあるソフトウェアエンジニア
- カメラなどのエッジ環境で画像処理を経験したエンジニア
- 自動車会社でソフトウェア/制御開発をしてきたエンジニア
- システム開発会社でのソフトウェアエンジニア/制御エンジニア
- 広告系メガベンチャー出身の機械学習/ソフトウェアエンジニア
3017_データエンジニア / Data Engineer(自動運転モデル評価基盤開発/アナリティクス)
◆ 本求人は、データ基盤・アプリケーション開発の経験をもつソフトウェアエンジニアを対象としています。E2E自動運転モデルの評価・分析基盤の設計・構築・運用がミッションです◆
チューリングでは、実世界の運転データログやシミュレーターのデータからモデルの品質・パフォーマンス評価を継続的に行い、モデルトレーニングとシステム改善に活かす評価基盤が不可欠です。分析基盤・BI活用・評価指標体系の設計を通じて、開発の意思決定を支える仕組みづくりを担っていただきます。
【業務内容】
- E2E自動運転モデルの評価指標体系の設計・実装・改善
- 自動運転走行データの分析、レポートプロセスの実装
- MLチームとの密な連携による評価要件の整理・合意形成
- 評価実行基盤および自動評価パイプラインの設計・構築・運用(Amazon EKS, AWS Lambda, Amazon API Gateway, FastAPI, PostgreSQL等)
- DWHやBIツールを用いた評価ダッシュボード設計・共有(Databricks, PySpark等)
【正解のない世界で、評価基準をつくる】
自動運転は、AI・ソフトウェア・データが交差する人類規模の挑戦です。
その中で本ポジションが担うのは、自動運転モデルの「良し悪し」を客観的に定義し、共有可能な形にすることです。
E2E自動運転では、人間がルールを定義するのではなく、モデルが世界をどう理解し、どう判断したかが結果として現れます。そのため、「このモデルは本当に良くなっているのか」「どこが改善され、どこが課題なのか」を、感覚ではなくデータに基づいて説明できる評価基盤 が不可欠です。
これまで培ってきたデータ基盤・アプリケーション開発の経験を活かしながら、実走行データやシミュレーション結果をもとに評価指標・可視化を設計することで、モデルの状態を誰もが同じ軸で理解できるようにし、開発の意思決定を前に進める重要なポジションです。
3018_ソフトウェアエンジニア / Software Engineer(Web評価基盤)
◆本求人は、Web/SaaS開発を経験してきたWebエンジニア向けの求人です◆
本ポジションでは、チューリングが開発するE2E(End-to-End)自動運転モデルの性能を評価・分析するためのWebダッシュボードおよびプラットフォームの開発を担当します。
自動運転の開発プロセスでは、膨大な走行データ、シミュレーションを活用したモデルの推論ログを、エンジニアを含めたステイクホルダーも直感的に理解できる形で提示する必要があります。単なる管理画面の制作ではなく、地図情報や空間データ、多系統のセンサーログを高度に融合させ、「自動運転の知能を解剖する」ためのビジュアライゼーション・プラットフォームを構築することがこのポジションのミッションです。
【具体的な業務内容】
・自動運転AIの評価指標(KPI)、介入ポイントのログ、動画・センサーデータの同期再生機能などを備えたステイクホルダーが利用可能な高クオリティなWebアプリケーションの設計・開発
・MapboxやDeck.glなどを用いた、空間データや車両ログのビジュアライゼーション
・ビジュアライゼーションサービスのバックエンド開発
・複雑な自動運転データを「どう見せれば意思決定を加速できるか」という視点でのUI/UX提案と実装
3030_ソフトウェアエンジニア / Software Engineer(学習・推論最適化)
◆本求人は、学習最適化、推論最適化に取り組んだMLや低レイヤ領域でソフトウェアエンジニアリングに取り組んできた方を対象としています◆
チューリングはマルチモーダル生成AIで完全自動運転の実現を目指しているディープテックスタートアップです。
今回の求人では、学習・推論最適化に対応できる方を募集しています。チューリングの自動運転技術で安定して車両を動かすために、AI技術や自動運転システムなどのソフトウェアレイヤーの要求を適切に理解し、各種ハードウェアのコントロールを担います。さまざまな機能を開発することはもちろんのこと、信頼性や保守性といった面でも高い性能を達成することがミッションとなります。
【業務のミッション】
自動運転モデルによる推論の実現に責任を持ちます。ハードウェアとコンパイラ、機械学習モデル構築の技術と知見のすべてを駆使し、計算資源の限られる車載環境内での安定した推論実行を実現することが求められます。
【業務内容】
・自動運転向けSoCへの実装と最適化
・自動運転モデル全体の高速化
- モデル学習からデプロイメントまでのMLパイプラインの自動化(MLflow、Airflowなど)
- CI/CDの導入とエンジニアリング生産性の向上
・PyTorchで学習されたモデルのonnxへの変換とオペレータの実装
・現状のモデルのボトルネック分析と最適化
・車載システムで動作させるための適切なモデル構築と学習方法の選定
EN_2015_Machine Learning Engineer (Autonomous Driving — World Model / Video Generation Model Development)
-About the role-
◆This role is open to engineers with a machine learning background who have worked on large-scale development of video generation models or foundation models, as well as the MLOps / data infrastructure, distillation, optimization, and on-device deployment that supports them. (Experience in autonomous driving / CV / robotics is a plus.)◆
At Turing, we are developing an End-to-End autonomous driving model that takes input from vehicle-mounted cameras and directly controls the vehicle.
As we work toward full self-driving, we are in an exploratory phase
— combining imitation learning with the rapid advances in video generation and world model research to actively find what works.
In particular, large-scale pretraining on not only driving data but also general video data (video generation, self-supervised learning, etc.) has been shown to significantly boost downstream task performance (behavior prediction, planning, etc.), and this trend is growing stronger.
With this in mind, Turing is pursuing a World Action Model (WAM) approach — a unified pipeline that spans modern model families such as video generation models, image/video foundation models (e.g., DINOv3, V-JEPA-style concepts), and world models — from training at scale, through validation and downstream task integration, to distillation, quantization, inference optimization, and final deployment on real vehicles.
We are looking for members who can take these ambitious research directions all the way to something that actually works in the real world.
■What you will work on
・ML development centered on WAM (World Action Model) for autonomous driving
・Large-scale pretraining (scaling training with driving data + general video data, etc.)
・Modeling, implementation, and validation using video generation models and world models
・Validation and application of image/video foundation models based on self-supervised learning (e.g., DINOv3, V-JEPA-style, etc.)
・Application to downstream tasks (e.g., behavior prediction, planning), evaluation design, and improvement
・Model compression and acceleration via distillation, quantization, and inference optimization
・Building and improving experimental infrastructure (data pipelines, reproducibility, experiment management, model operations)
・Literature review and implementation validation in related areas (Transformers, robotics, world models, etc.)
■Enjoy being at the frontier of Physical AI
Giving AI a physical presence and enabling it to deliver value in the real world — autonomous driving is exactly where humanity is pushing this frontier today. You will need to build unique ML pipelines while leveraging the knowledge already accumulated within the company. We are looking for someone who can drive development in a domain with almost no existing reference points.
■Test your model in the real world
Our development cycle: Build dataset & model → Drive test → Analyze experiment logs → Manage model. You will iterate on your models by experiencing them firsthand in a real vehicle. Use feedback from the physical world to drive your development forward.
■Who is thriving in this role
・Engineers with strengths in robotics, world models, or autonomous driving (behavior prediction, planning, etc.) who have led model development
・Engineers who have pursued large-scale data preprocessing, filtering, and data quality design, and have achieved training reproducibility and scaling in practice
・Engineers from research labs or corporate research teams who have taken exploratory topics all the way from implementation → validation → improvement to tangible results
・Engineers who can quickly catch up with the work of leading researchers and recent papers, reproduce and extend them, and connect the results to product or on-vehicle validation
EN_3001_Software Engineer (Open Position)
-About the role-
◆This role is open to engineers with deep expertise in software domains that contribute to the overall realization of autonomous driving systems
— including web service development, MLOps, and low-level software development (including Linux and embedded systems).
Turing is a deep-tech startup on a mission to achieve full self-driving. Under our mission "We Overtake Tesla," we have pursued an End-to-End (E2E) approach to autonomous driving AI since day one.
Today, our system can navigate Tokyo streets for 30+ consecutive minutes without human intervention — and we believe we are standing right at the inflection point of exponential growth across both our models and the overall system.
Our next step is to evolve the E2E model into a Physical Foundation Model that unifies physical behavior with world understanding — combining driving, language, and multimodal reasoning to handle the complex, unpredictable scenes that only humans could previously manage.
■What we expect from software engineers
The key to pushing this mission forward is using the power of software to continuously accelerate the development cycle from training → validation → real vehicle, and to make autonomous driving AI work as a system in the real world. This means:
・A continuous data flywheel that keeps feeding model improvements
・A validation workflow where driving experiments, evaluation, and analysis operate as one integrated loop
・Software design that keeps the full autonomous driving system — sensors, inference, and control — running safely and at high performance
Turing's software engineers are not simply implementing individual features. They are the core of what keeps autonomous driving AI advancing as a coherent system.
■About this open position
This is an open application form for software engineer candidates who are interested in Turing but haven't found an exact match among our current active listings. After an initial document screening, we will arrange a matching interview to identify the most suitable team and role based on your background and interests.
In the "Message to the team" field of your application, please feel free to share:
・Your strengths and areas of expertise
・The type of work you are looking for (design, implementation, operations, optimization, etc.)
・Information that demonstrates your past results (GitHub, design documents, project overviews, talks / articles, etc.)
■Example positions you may be matched to
▽MLOps & model development
3011 — Software Engineer (Autonomous Driving MLOps Infrastructure Development)
https://herp.careers/v1/turing/Qc3t_q0FYFq
3012 — Software Engineer (Autonomous Driving VLA Model Development)
https://herp.careers/v1/turing/lqrK5k1NqzyU
3013 — Robotics Software Engineer (Autonomous Driving Development)
https://herp.careers/v1/turing/SMo30RyV5I9L
3016 — Computer Vision Engineer (Image Processing)
https://herp.careers/v1/turing/uMUjp4fFtvZ7
▽Autonomous driving system development
3032 — Software Engineer (OS, Embedded Systems & Firmware Development)
https://herp.careers/v1/turing/01gtnhsLWgVe
3034 — Software Engineer (Middleware & In-Vehicle System Development)
https://herp.careers/v1/turing/abHB5x7zASkv
3035 — Software Engineer (In-Vehicle Application Development)
https://herp.careers/v1/turing/IFKgdYLwpdc7
EN_3011_Software Engineer (MLOps)
-About the role-
◆This role is open to software engineers with experience developing and operating large-scale, high-reliability data infrastructure and distributed systems.
At Turing, we are developing an End-to-End autonomous driving ML model — a system that takes input from vehicle-mounted cameras and directly controls the vehicle.
To scale our development, we need to address a wide variety of bottlenecks that stand in the way of continuous data and model improvement. The mission of this role goes beyond simply building infrastructure — it is to identify problems across teams, form hypotheses, explore solutions, and drive resolution.
■What you will work on
・Continuous improvement of data and models in collaboration with stakeholders
・Building and operating large-scale data infrastructure
・Optimizing processing pipelines and data transfer across cloud and on-premises environments
・Designing and implementing internal tools, APIs, and web services
・System-wide architecture design and performance tuning
Turing's development target is autonomous driving. The software you build will be deployed on real vehicles and operate in the physical world. This presents technical challenges unlike those in web or SaaS development. This is a domain where strong ML engineers and software/infrastructure engineers must work as one — and where your engineering experience can be applied to one of humanity's grand challenges.
EN_3012_Software Engineer (Autonomous Driving VLA Model Development)
-About the role-
◆This role is open to ML engineers with expertise in machine learning, autonomous driving, or computer vision, as well as software engineers with experience in large-scale MLOps or data infrastructure development, or engineers who have worked on ML or software engineering in the robotics domain.
At Turing, we are developing an End-to-End autonomous driving model
— a system that takes input from vehicle-mounted cameras and directly controls the vehicle. Our mission is to develop a fully autonomous driving system. We are pursuing this through two main directions: training a neural network of several million parameters to imitate expert driver behavior across diverse scenarios, and running foundation models — including Vision-Language-Action (VLA) models — on the vehicle to handle a wide variety of driving situations.Applying VLA models to autonomous driving is still an emerging field even on a global scale, requiring us to explore the latest research papers and development cases while advancing the work experimentally. This means we need not only machine learning expertise, but also a wide range of engineering capabilities to drive the project forward.We are looking for members who are ready to take on these challenges. Development issues exist at many layers — from building training pipelines for foundation models to model quantization and optimization.
■What you will work on
※ You will not be responsible for all of the following. You will focus on areas where your strengths shine, while also expanding into adjacent domains.・Data calibration and coordinate transformation between different sensor devices
・Dataset creation and improvement
・Research, reproduction, and implementation of papers and existing implementations
・Evaluation of existing implementations using our proprietary datasets
・Model quantization and optimization
・On-vehicle model evaluation and experiment management
・Implementation of autonomous driving VLA models
・Auto-labeling implementation
■Enjoy being at the frontier of Embodied AI
Giving AI a physical presence and enabling it to deliver value in the real world — autonomous driving is exactly where humanity is pushing this frontier today. You will need to build unique ML pipelines while leveraging the knowledge already accumulated within the company. We are looking for someone who can drive development in a domain with almost no existing reference points.
■Test your model in the real world
Our development cycle: Build dataset & model → Drive test → Analyze experiment logs → Manage model. You will iterate on your models by experiencing them firsthand in a real vehicle. Use feedback from the physical world to drive your development forward.
■Who is thriving in this role
NLP researchers from research institutions
System engineers / data scientists from system development companies
ML / software engineers from large-scale ad-tech companies
EN_3013_Robotics Software Engineer (Autonomous Driving Development)
-About the role-
◆This role is open to engineers with experience in machine learning, autonomous driving, or computer vision, as well as software engineers with experience in large-scale MLOps or data infrastructure development, or engineers who have worked on ML or software engineering in the robotics domain.
Turing's mission is to develop a fully autonomous driving system.
The overall autonomous driving system consists of various modules that communicate with each other via Pub/Sub messaging. While we keep dependencies as simple as possible, solving a wide range of software issues is essential for advancing autonomous driving model development and improving model accuracy.
We are looking for engineers who can address software issues across multiple layers. Development challenges exist at many levels — from building ML model training pipelines and model quantization/optimization, to sensor data calibration and vehicle motion control implementation.
※ At the time of joining, we expect you to make an immediate impact by leveraging your existing strengths in a specific area, while gradually expanding your contributions across different layers over time.
■What you will work on
※ You will not be responsible for all of the following. You will focus on areas where your strengths shine, while also expanding into adjacent domains.
・Data calibration and coordinate transformation between different sensor devices
・Dataset creation and improvement
・Research, reproduction, and implementation of papers and existing implementations
・Evaluation of existing implementations using our proprietary datasets
・Model quantization and optimization
・On-vehicle model evaluation and experiment management
・Design and implementation of vehicle motion control systems and algorithms
・Evaluation and tuning of control performance using real vehicles
■Test your system and ML models in the real world
Our development cycle: Build dataset & model → Drive test → Analyze experiment logs → Manage model. You will iterate on your models by experiencing them firsthand in a real vehicle. Use feedback from the physical world to drive your development forward.
■Who is thriving in this role
Software engineers with development experience in the autonomous driving domain
Engineers who have worked on software / control development at automotive companies
Software engineers / control engineers from system development companies
ML / software engineers from large-scale ad-tech companies
EN_3015_Simulation Engineer (End-to-End Autonomous Driving Model Development)
-About the role-
◆This role is open to engineers with expertise in the simulation domain.◆
Turing is a deep-tech startup on a mission to achieve full self-driving.
To accelerate research and development of our End-to-End autonomous driving model, we are building next-generation simulation technology. Specifically, we are combining a 3D Gaussian Splatting-based simulator for evaluation and training, a large-scale distributed training infrastructure, and control systems (such as MPC) to enable efficient and robust autonomous driving development that is not dependent on real-vehicle testing.
The Simulation Engineer in this role will lead the design and development of the closed-loop simulator that forms the foundation of this effort, working closely with ML engineers to accelerate the advancement of autonomous driving technology.
■What you will work on
-Development of a 3DGS-based closed-loop simulator
-Support for End-to-End autonomous driving model development
-Integration with distributed training infrastructure
■Goal of simulator development
We will build a high-fidelity simulation environment that leverages large-scale generated 3DGS scenes to enable training and evaluation of End-to-End models.
We aim to integrate control layers and physical simulation to create an environment where control algorithm exploration can be conducted without relying on real-vehicle testing.
■What does "model development support" mean?
We will support pretraining of E2E models suited for reinforcement learning and imitation learning, and drive efficient E2E model exploration including the control layer.
■Integration with distributed training infrastructure
We will expand our simulation environment to support robust model training across diverse traffic scenarios and randomized physical properties. To make the simulation environment a shared infrastructure usable across the entire company, it needs to connect seamlessly with our existing model development data pipeline and training infrastructure.
Rather than simply building a simulator, we aim to establish it as a company-wide common platform that supports model development across all teams.
EN_3016_Computer Vision Engineer (Image Processing)
-About the role-
◆This role is open to engineers with experience in machine learning, autonomous driving, or computer vision, as well as software engineers with experience in large-scale MLOps or data infrastructure development, or engineers who have worked on ML or low-level software engineering.
Turing's mission is to develop a fully autonomous driving system.
The overall autonomous driving system consists of various modules that communicate with each other via Pub/Sub messaging. While we keep dependencies as simple as possible, solving a wide range of software issues is essential for advancing autonomous driving model development and improving model accuracy.
This position supports the autonomous driving AI data pipeline through image processing expertise. At Turing, where video and image data are the primary modality, knowledge of image encoding/decoding is a critical technical area that contributes to the entire machine learning pipeline.
You will solve technical challenges that span multiple layers of the stack.
■What you will work on
※ You will not be responsible for all of the following. You will focus on areas where your strengths shine, while also expanding into adjacent domains.
・Data calibration and coordinate transformation between different sensor devices
・Acceleration of image and video data processing pipelines
・On-vehicle model evaluation and experiment management
■Test your system and ML models in the real world
Our development cycle: Build dataset & model → Drive test → Analyze experiment logs → Manage model. You will iterate on your models by experiencing them firsthand in a real vehicle. Use feedback from the physical world to drive your development forward.
■Who is thriving in this role
-Software engineers with development experience in the autonomous driving domain
-Engineers with experience in image processing in edge environments such as cameras
-Engineers who have worked on software / control development at automotive companies
-Software engineers / control engineers from system development companies
-ML / software engineers from large-scale ad-tech companies
EN_3017_Data Engineer (Autonomous Driving Model Evaluation Infrastructure & Analytics)
About the role
◆This role is open to software engineers with experience in data infrastructure and application development. The mission is to design, build, and operate the evaluation and analytics infrastructure for E2E autonomous driving models.
At Turing, continuously evaluating model quality and performance from real-world driving data logs and simulator data — and feeding those insights back into model training and system improvement — is essential. You will be responsible for building the systems that support development decision-making through analytics infrastructure, BI tooling, and evaluation metric design.
■What you will work on
・Design, implementation, and improvement of evaluation metric frameworks for E2E autonomous driving models
・Analysis of autonomous driving data logs and implementation of reporting processes
・Close collaboration with the ML team to define and align on evaluation requirements
・Design, build, and operation of evaluation execution infrastructure and automated evaluation pipelines (Amazon EKS, AWS Lambda, Amazon API Gateway, FastAPI, PostgreSQL, etc.)
・Design and sharing of evaluation dashboards using DWH and BI tools (Databricks, PySpark, etc.)
■Defining evaluation standards in a world without ground truth
Autonomous driving is a humanity-scale challenge at the intersection of AI, software, and data. The role of this position within that challenge is to objectively define what "good" looks like for autonomous driving models — and make that definition shareable and actionable.
In E2E autonomous driving, humans do not define the rules. What matters is how the model understands and interprets the world, and how that understanding translates into outcomes. That is why an evaluation infrastructure that can explain — based on data, not intuition — whether a model is genuinely improving, what has gotten better, and where the remaining challenges lie, is absolutely essential.
By leveraging your experience in data infrastructure and application development to design evaluation metrics and visualizations based on real driving data and simulation results, you will make the state of the model understandable to everyone on a shared axis — and drive development decision-making forward. This is a critical role.
EN_3018_Software Engineer (Web Evaluation Platform)
-About the role-
◆This role is open to web engineers with experience in web / SaaS development.◆
In this position, you will be responsible for developing the web dashboard and platform used to evaluate and analyze the performance of Turing's E2E (End-to-End) autonomous driving models.
In the autonomous driving development process, the vast amounts of driving data and model inference logs from simulations need to be presented in a form that stakeholders — including engineers — can intuitively understand.
The mission of this role is not simply to build an admin interface, but to construct a visualization platform that deeply integrates map data, spatial data, and multi-channel sensor logs to "dissect the intelligence of autonomous driving."
■What you will work on
・Design and development of high-quality web applications for stakeholders — featuring autonomous driving AI evaluation metrics (KPIs), intervention point logs, and synchronized playback of video and sensor data
・Visualization of spatial data and vehicle logs using Mapbox, Deck.gl, and similar tools
・Backend development for visualization services
・UI/UX proposals and implementation from the perspective of "how to present complex autonomous driving data in a way that accelerates decision-making"
EN_3030_Software Engineer (Training & Inference Optimization)
-About the role-
◆This role is open to engineers with a background in ML or low-level software engineering who have worked on training optimization and inference optimization.
Turing is a deep-tech startup working to achieve full self-driving through multimodal generative AI.
We are looking for engineers who can take on training and inference optimization challenges. To keep vehicles operating stably using Turing's autonomous driving technology, you will need to deeply understand the requirements of software layers including AI systems and autonomous driving software, and take ownership of hardware control. Your mission will be to achieve not only a wide range of functional development, but also high performance in terms of reliability and maintainability.
■Mission
You are responsible for realizing inference with autonomous driving models.
You will be required to leverage all of your knowledge across hardware, compilers, and machine learning model development to achieve stable inference execution within the resource-constrained in-vehicle environment.
■What you will work on
・Implementation and optimization for autonomous driving SoCs
・Acceleration of the overall autonomous driving model
- Automation of the ML pipeline from model training through deployment (MLflow, Airflow, etc.)
- Introduction of CI/CD and improvement of engineering productivity
・Conversion of PyTorch-trained models to ONNX format and operator implementation
・Bottleneck analysis and optimization of existing models
・Selection of appropriate model architectures and training methods for deployment on in-vehicle systems