toB向けSaaSプロダクトのデータエンジニア【GCP/リモートあり】
作業内容
【20代、30代が活躍中!】 ※週5日〜OKの案件です! ※実務経験1年以上お持ちの方が対象の案件です! ▼概要 toB向けSaaSプロダクトにおけるデータエンジニア募集案件 社内のステークホルダに対して、積極的にコミュニケーションを取り、データを利活用するための基盤作りに務めていただきます。 ・技術選定、設計や構築に関わる開発物のレビューの実施 ・データ分析、機械学習などの業務を定常的に実施するための仕組み、環境の整備 ・個人情報保護法や関連規制を踏まえたセキュアなデータ管理体制の設計・構築 ・ステークホルダが継続的かつ効率的にデータへアプローチできるセキュアなインフラの整備 ・データの抽出ロジック、アルゴリズムの開発運用 ・データパイプライン実行環境の運用・保守 ▼条件等 出社:週1出社 場所:渋谷 面談回数:1回 勤務時間:10:00 ~ 19:00 【必須スキル】 ・データエンジニア もしくは SREとしての経験3年以上 ・アプリケーション開発経験3年以上 ・コーディングエージェント(Claude CodeやCodexなど)の使用経験 ・GCPにおいて、データ分析基盤のアーキテクチャ設計及び構築運用経験 ・Terraformの利用経験 ・ログ転送(FlunetdやApache Kafkaなど)やメッセージキューイングを利用した リアルタイムログ転送の構築運用経験 【尚可スキル】 ・AIツール(Cursor/Cline/Roo Code/Windsurf等)の日常的な使用経験 ・MLに係るパイプラインの設計~保守経験 ・データリネージやメタデータを管理するツール導入、システム開発の経験 ・アクセス制御・暗号化などのセキュリティ技術の知見 ・データマート設計経験 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
必須スキル
・データエンジニア もしくは SREとしての経験3年以上 ・アプリケーション開発経験3年以上 ・コーディングエージェント(Claude CodeやCodexなど)の使用経験 ・GCPにおいて、データ分析基盤のアーキテクチャ設計及び構築運用経験 ・Terraformの利用経験 ・ログ転送(FlunetdやApache Kafkaなど)やメッセージキューイングを利用した リアルタイムログ転送の構築運用経験
歓迎スキル
・AIツール(Cursor/Cline/Roo Code/Windsurf等)の日常的な使用経験 ・MLに係るパイプラインの設計~保守経験 ・データリネージやメタデータを管理するツール導入、システム開発の経験 ・アクセス制御・暗号化などのセキュリティ技術の知見 ・データマート設計経験
稼働日数
週5日
勤務形態
一部リモート
勤務地
渋谷
面談回数
1回
開発環境
Apache, Terraform, 機械学習, 構築, インフラ, データ分析, GCP, セキュリティ, サポート, AI
作業時間
10:00 ~ 19:00
募集回数
1回
スキル
募集背景
この案件は、新規プロジェクトの立ち上げに伴い、経験豊富なエンジニアを募集しています。チームは10名規模で、アジャイル開発を採用しています。現場の雰囲気は和やかで、コミュニケーションを大切にしています。
募集人数
2名を予定しており、即日参画可能な方を優先的にご案内いたします。経験年数は3年以上を想定しています。フロントエンド1名、バックエンド1名の募集となります。
企業名
大手IT企業の子会社で、安定した経営基盤を持っています。詳細は面談時にご案内いたします。上場企業グループの一員として、長期的なプロジェクトを多数抱えています。
チーム人数
チーム構成はフロントエンド3名、バックエンド5名、インフラ2名となっています。プロジェクトマネージャー1名、デザイナー2名も在籍しています。総勢13名のチームで開発を進めています。
現場の雰囲気
アジャイル開発を採用しており、チーム内のコミュニケーションを大切にしています。週1回の定例会議があり、意見交換が活発です。リモートワークも可能で、柔軟な働き方ができます。
案件について詳しく聞いてみませんか?
知りたい内容を選んでください(複数選択可)
