【Python/SQL Server】資産運用会社向け取込バッチシステム改修案件
- ■必須スキル:
- ・Pythonによる開発経験 ・シェルスクリプトによる開発経験 ・バッチシステムの設計以降の工程の経験 ・SQLに関する経験
- ■歓迎スキル:
- ・JP1の利用経験 ・金融機関での本番作業経験 ・資産運用業務の知見
394件中 1〜30件を表示
【作業内容】 ・仕様検討、設計~開発、テスト作業、リリースを実施いたします。 ・外部の情報ベンダーからIFファイルをDWHに取り込み、他業務やシステムにて利用している現行の取込処理(バッチシステム)をアーキテクチャレベルから改修予定です。 ・26年度にまずは一部ベンダー分を対象に改善を実施いたします。 【開発環境】 ・JP1 ・SQL Server(Transact-SQL) ・vbs、PowerShell、bash ・Python
【作業内容】 ・仕様検討、設計~開発、テスト作業、リリースを実施いたします。 ・外部の情報ベンダーからIFファイルをDWHに取り込み、他業務やシステムにて利用している現行の取込処理(バッチシステム)をアーキテクチャレベルから改修予定です。 ・26年度にまずは一部ベンダー分を対象に改善を実施いたします。 【開発環境】 ・JP1 ・SQL Server(Transact-SQL) ・vbs、PowerShell、bash ・Python
【作業内容】 1. エンジン出力の評価・ビジネス解釈として、需要予測・最適化結果(商品Mix)の精度検証および計画値との乖離分析を実施いたします。 2. DP計画レビューへの参画および関連部署(DP/SR)からの質疑応答対応を行います。 3. 精度向上や業務変更に伴うエンジン改修の要件定義を行います。 4. アルゴリズム改修およびPythonライブラリ等のアップデート対応を行います。 5. DataLake/IBPとの連携レイアウト変更に伴う入出力処理の修正を行います。 6. AWS SageMakerのバージョンアップ等、セキュリティルールに準じた環境保守を行います。 7. パイプラインおよび最適化エンジンの実行状態監視(ログ確認)を行います。 8. ジョブ異常終了時の原因特定と復旧(データ修正・コード修正)を行います。
【作業内容】 1. エンジン出力の評価・ビジネス解釈として、需要予測・最適化結果(商品Mix)の精度検証および計画値との乖離分析を実施いたします。 2. DP計画レビューへの参画および関連部署(DP/SR)からの質疑応答対応を行います。 3. 精度向上や業務変更に伴うエンジン改修の要件定義を行います。 4. アルゴリズム改修およびPythonライブラリ等のアップデート対応を行います。 5. DataLake/IBPとの連携レイアウト変更に伴う入出力処理の修正を行います。 6. AWS SageMakerのバージョンアップ等、セキュリティルールに準じた環境保守を行います。 7. パイプラインおよび最適化エンジンの実行状態監視(ログ確認)を行います。 8. ジョブ異常終了時の原因特定と復旧(データ修正・コード修正)を行います。
【募集背景】 TERASSでは不動産取引における解決すべき課題を洗い出し、分析し、優先順位をつけながら年間2~3つの新規プロダクトを開発しています。 【作業内容】 TERASSでは生成AIによる不動産仲介業の効率化を目指しアプリケーションの開発を行っています。本ポジションでは、不動産取引における非効率を解消し不動産取引をより安全に加速するため、課題の発見 / 解決策の模索 / 検証 / アプリケーションへの実装と幅広い範囲で業務をお任せします。 具体的には、生成AIを用いたソリューションの考案と実装、複数のモデルを用いた検証と精度の比較、アプリケーションへの実装、継続的な精度向上のための仕組みづくりに取り組んでいただきます。 【求める人物像】 TERASSのミッションや価値観に共感いただける方、自由な働き方の中でも自律自走できる方、高い責任感をもって最後までやりきる力をお持ちの方を求めています。 【開発環境】 フロントエンドはTypeScript / React.js / Next.js、バックエンドはTypeScript / Node.js / (Python)、インフラはGoogle Cloud Platform / Terraformを利用しています。主な利用ツールはSlack、Notion、Github、Google Workspace(meet, calendar, gmail)です。
【募集背景】 TERASSでは不動産取引における解決すべき課題を洗い出し、分析し、優先順位をつけながら年間2~3つの新規プロダクトを開発しています。 【作業内容】 TERASSでは生成AIによる不動産仲介業の効率化を目指しアプリケーションの開発を行っています。本ポジションでは、不動産取引における非効率を解消し不動産取引をより安全に加速するため、課題の発見 / 解決策の模索 / 検証 / アプリケーションへの実装と幅広い範囲で業務をお任せします。 具体的には、生成AIを用いたソリューションの考案と実装、複数のモデルを用いた検証と精度の比較、アプリケーションへの実装、継続的な精度向上のための仕組みづくりに取り組んでいただきます。 【求める人物像】 TERASSのミッションや価値観に共感いただける方、自由な働き方の中でも自律自走できる方、高い責任感をもって最後までやりきる力をお持ちの方を求めています。 【開発環境】 フロントエンドはTypeScript / React.js / Next.js、バックエンドはTypeScript / Node.js / (Python)、インフラはGoogle Cloud Platform / Terraformを利用しています。主な利用ツールはSlack、Notion、Github、Google Workspace(meet, calendar, gmail)です。
【作業内容】 プロジェクトリーダー候補として、データ分析基盤の構築から運用、展開、改善に関するエンジニアリング全般を担い、全社からプロジェクト別までのデータ分析業務、KPIマネジメント、アナリスト業務の支援を行います。 データ分析基盤の設計・開発・運用およびパフォーマンス改善をアジャイルプロジェクト下で実行いたします。 AIから分析基盤・ビジネス・インテリジェンスの運用支援を行います。 プロジェクトの社外パートナーへの基盤環境導入および運用支援を行います。 データ分析基盤に関する課題解決や新規技術の調査と導入を行います。 【開発環境】 プログラミング言語: Python, Ruby, Go, C#, Javascript, PHP, Java, Swift 開発環境: AWS, GCP, Linux, Android, iOS, GitLab、GitHub、copilot 開発ツール: Athena, BigQuery, Terraform, Digdag, MySQL, Redis, Docker, Unity, Jenkins
【作業内容】 プロジェクトリーダー候補として、データ分析基盤の構築から運用、展開、改善に関するエンジニアリング全般を担い、全社からプロジェクト別までのデータ分析業務、KPIマネジメント、アナリスト業務の支援を行います。 データ分析基盤の設計・開発・運用およびパフォーマンス改善をアジャイルプロジェクト下で実行いたします。 AIから分析基盤・ビジネス・インテリジェンスの運用支援を行います。 プロジェクトの社外パートナーへの基盤環境導入および運用支援を行います。 データ分析基盤に関する課題解決や新規技術の調査と導入を行います。 【開発環境】 プログラミング言語: Python, Ruby, Go, C#, Javascript, PHP, Java, Swift 開発環境: AWS, GCP, Linux, Android, iOS, GitLab、GitHub、copilot 開発ツール: Athena, BigQuery, Terraform, Digdag, MySQL, Redis, Docker, Unity, Jenkins
【作業内容】 開発・運用プロダクトのデータ活用を主務とするエンジニアとして、AI活用を前提としたダッシュボードの構築運用、管理、各種ログデータ分析を行い実際の課題解決を支援します。 ・BI構築、データ取得、ETL処理、パイプライン構築をアジャイルプロジェクト下で実行します。 ・プロダクトや各部署に対し、AI活用を前提としたダッシュボードやログ分析結果を柔軟に提供します。 ・外部データの取り込みや、新機能・新サービスの業務プロセスへの落とし込みを行います。 【開発環境】 GCP(BigQuery、Looker Studio Pro、Gemini)、AWS(Athena、Amazon Quick Suite、Chatagent)、Python、R、MySQL、SuperSet、copilot、GitLab、GitHubを利用します。
【作業内容】 開発・運用プロダクトのデータ活用を主務とするエンジニアとして、AI活用を前提としたダッシュボードの構築運用、管理、各種ログデータ分析を行い実際の課題解決を支援します。 ・BI構築、データ取得、ETL処理、パイプライン構築をアジャイルプロジェクト下で実行します。 ・プロダクトや各部署に対し、AI活用を前提としたダッシュボードやログ分析結果を柔軟に提供します。 ・外部データの取り込みや、新機能・新サービスの業務プロセスへの落とし込みを行います。 【開発環境】 GCP(BigQuery、Looker Studio Pro、Gemini)、AWS(Athena、Amazon Quick Suite、Chatagent)、Python、R、MySQL、SuperSet、copilot、GitLab、GitHubを利用します。
【作業内容】 ・情報検索やレコメンデーション技術を中心とした機械学習活用やデータ活用の支援を行います。 ・ベクトル検索システムの構築を行います。 ・レコメンドAPIの構築を行います。 ・LLMアプリケーションのPoCやツール化を行います。 ・アプリケーション開発を担当します。 【求める人物像】 ・適切にコミュニケーションを取り、迅速にアウトプットを出せる方を求めています。
【作業内容】 ・情報検索やレコメンデーション技術を中心とした機械学習活用やデータ活用の支援を行います。 ・ベクトル検索システムの構築を行います。 ・レコメンドAPIの構築を行います。 ・LLMアプリケーションのPoCやツール化を行います。 ・アプリケーション開発を担当します。 【求める人物像】 ・適切にコミュニケーションを取り、迅速にアウトプットを出せる方を求めています。
【作業内容】 RPAを活用した業務効率化を目的とした開発・運用支援を担当します。Python(PyAutoGUI)を用いたRPA構築を中心に、新規RPAの設計・開発、既存RPAおよびPC環境の保守・運用を行います。 【求める人物像】 業務内容を理解し、既存RPAを参考にしながら自走できる方。テストや運用フェーズを丁寧に対応できる方。月末~月初の繁忙を理解し、柔軟に対応できる方。 【開発環境】 開発環境はMac、実行環境はWindowsで、環境差分を意識した対応が必要です。 【ポジションの魅力】 Pythonを用いたRPA開発で業務効率化に直接貢献できます。UiPath移植後は新規RPA構築が中心となり、裁量を持って対応可能です。
【作業内容】 RPAを活用した業務効率化を目的とした開発・運用支援を担当します。Python(PyAutoGUI)を用いたRPA構築を中心に、新規RPAの設計・開発、既存RPAおよびPC環境の保守・運用を行います。 【求める人物像】 業務内容を理解し、既存RPAを参考にしながら自走できる方。テストや運用フェーズを丁寧に対応できる方。月末~月初の繁忙を理解し、柔軟に対応できる方。 【開発環境】 開発環境はMac、実行環境はWindowsで、環境差分を意識した対応が必要です。 【ポジションの魅力】 Pythonを用いたRPA開発で業務効率化に直接貢献できます。UiPath移植後は新規RPA構築が中心となり、裁量を持って対応可能です。
【作業内容】 大手金融事業会社(銀行)の開発部・次期情報系にて、AWSを活用した情報系基盤の開発・運用支援を担当します。具体的には、データパイプライン構築、AWSサービス連携、DB設計レビュー、ジョブフロー改善など基盤中核業務を担当します。 【求める人物像】 自律的に行動でき、ハンズオン作業に前向きな方を求めています。関係者との調整やコミュニケーションを円滑に行い、金融案件特有のルールやプロセスに柔軟に対応できる方を歓迎します。 【ポジションの魅力】 金融×AWS×データ基盤の中核を担うポジションで、市場価値の高い経験を積めます。長期継続前提の案件で、安定した参画が見込め、TableauやSnowflakeなど周辺技術にも関与でき、スキル拡張の余地が大きいです。
【作業内容】 大手金融事業会社(銀行)の開発部・次期情報系にて、AWSを活用した情報系基盤の開発・運用支援を担当します。具体的には、データパイプライン構築、AWSサービス連携、DB設計レビュー、ジョブフロー改善など基盤中核業務を担当します。 【求める人物像】 自律的に行動でき、ハンズオン作業に前向きな方を求めています。関係者との調整やコミュニケーションを円滑に行い、金融案件特有のルールやプロセスに柔軟に対応できる方を歓迎します。 【ポジションの魅力】 金融×AWS×データ基盤の中核を担うポジションで、市場価値の高い経験を積めます。長期継続前提の案件で、安定した参画が見込め、TableauやSnowflakeなど周辺技術にも関与でき、スキル拡張の余地が大きいです。
【作業内容】 Teradataのデータ参照に使用されていた同社製BIツールと同様の機能を持つBIツールの開発を担当します。スケジュールリカバリーに向けたポイント対応も含まれます。
【作業内容】 Teradataのデータ参照に使用されていた同社製BIツールと同様の機能を持つBIツールの開発を担当します。スケジュールリカバリーに向けたポイント対応も含まれます。
【作業内容】 既存アプリ向け中継サービスの開発、運用保守を行います。 企業顧客向けアプリ認証基盤のバックエンド開発、運用保守を行います。 認証・金融系サービス基盤向けの認証基盤の管理機能開発、運用保守を行います。 【開発環境】 OS:Linux / Windows DB:DynamoDB / MySQL 言語:Python / Java / JavaScript その他:GitHub / CodeCommit にてコード管理 AWS利用サービス:API Gateway / WAF / CloudWatch / DynamoDB / Lambda / S3 / Secrets Manager / Parameter Store / KMS / ACM / Route53 / CloudFront / CloudFormation / RDS などです。
【作業内容】 既存アプリ向け中継サービスの開発、運用保守を行います。 企業顧客向けアプリ認証基盤のバックエンド開発、運用保守を行います。 認証・金融系サービス基盤向けの認証基盤の管理機能開発、運用保守を行います。 【開発環境】 OS:Linux / Windows DB:DynamoDB / MySQL 言語:Python / Java / JavaScript その他:GitHub / CodeCommit にてコード管理 AWS利用サービス:API Gateway / WAF / CloudWatch / DynamoDB / Lambda / S3 / Secrets Manager / Parameter Store / KMS / ACM / Route53 / CloudFront / CloudFormation / RDS などです。
【作業内容】 AWS関連:ECS、Lambda、Cognito、DynamoDB、API Gateway、AWS IoT Coreを用いた開発支援を行います。 【求める人物像】 自律的に考え、行動できる方を求めています。必要な情報を積極的に取りに行き、その正確性を確認できるコミュニケーション力が重要です。また、検証や差異確認を行い、会話で調整できる方が求められます。
【作業内容】 AWS関連:ECS、Lambda、Cognito、DynamoDB、API Gateway、AWS IoT Coreを用いた開発支援を行います。 【求める人物像】 自律的に考え、行動できる方を求めています。必要な情報を積極的に取りに行き、その正確性を確認できるコミュニケーション力が重要です。また、検証や差異確認を行い、会話で調整できる方が求められます。
【募集背景】 【作業内容】 AIチャット機能のリグレッションテスト実施、AI会議録機能の品質検証・テスト、AIエージェント機能の動作確認・検証、ユーザー受け入れテスト(UAT)の設計・実行、テストケースの作成・メンテナンス、バグレポートの作成・管理、開発チームとの連携によるプロダクト品質向上、AI SaaS プロダクトに関するQA業務を行います。 【開発環境】 開発言語はPython、TypeScript, Next.jsで、インフラはGCP、GPU cloud Servicesを使用しています。ツールとしてSlack, Confluence, Jira, Google Workspace, GitHubなどを活用しています。
【募集背景】 【作業内容】 AIチャット機能のリグレッションテスト実施、AI会議録機能の品質検証・テスト、AIエージェント機能の動作確認・検証、ユーザー受け入れテスト(UAT)の設計・実行、テストケースの作成・メンテナンス、バグレポートの作成・管理、開発チームとの連携によるプロダクト品質向上、AI SaaS プロダクトに関するQA業務を行います。 【開発環境】 開発言語はPython、TypeScript, Next.jsで、インフラはGCP、GPU cloud Servicesを使用しています。ツールとしてSlack, Confluence, Jira, Google Workspace, GitHubなどを活用しています。
【募集背景】 自社プロダクトの製造業向けAIエージェント(SaaS)、業務AI実装支援プラットフォーム(PaaS)の導入、運営をしている企業において、エンタープライズ向けのPoCプロジェクトが増加する中、テキスト情報だけでなく図面、図表を含むドキュメントの活用ニーズ(Visual RAG)が急増していることや、VLM(Vision-Language Model)の活用において精度・コスト・速度・信頼性の面で多くの課題があること、VLMを活用したドキュメント構造化のPoC実施から安定した機能としてプロダクトに組み込むための運用改善、パイプライン構築を担うR&Dリソースを強化したいことから、AI R&Dエンジニア(VLM・マルチモーダル)を募集しております。 【作業内容】 ・VLM等の最新技術を活用し、ドキュメント構造化の信頼性や機能を向上させるための研究開発および検証をリードしていただきます。 ・単なるPoCにとどまらず、実運用を見据えた使える技術への昇華を担っていただきます。 ・VLMを活用したドキュメント構造化パイプラインの構築・改善を行っていただきます。 ・プロンプトチューニングなどによるVLM出力精度の向上と、バリデーション機能の開発を行っていただきます。 ・図面解析など、顧客課題に応じたPoCの技術検証・実施を行っていただきます。 【開発環境】 ・使用言語/フレームワーク:Python、TypeScript、Vue.js、Node.js ・コンテナ:Docker ・IaC:Terraform ・クラウド:AWS、Azure
【募集背景】 自社プロダクトの製造業向けAIエージェント(SaaS)、業務AI実装支援プラットフォーム(PaaS)の導入、運営をしている企業において、エンタープライズ向けのPoCプロジェクトが増加する中、テキスト情報だけでなく図面、図表を含むドキュメントの活用ニーズ(Visual RAG)が急増していることや、VLM(Vision-Language Model)の活用において精度・コスト・速度・信頼性の面で多くの課題があること、VLMを活用したドキュメント構造化のPoC実施から安定した機能としてプロダクトに組み込むための運用改善、パイプライン構築を担うR&Dリソースを強化したいことから、AI R&Dエンジニア(VLM・マルチモーダル)を募集しております。 【作業内容】 ・VLM等の最新技術を活用し、ドキュメント構造化の信頼性や機能を向上させるための研究開発および検証をリードしていただきます。 ・単なるPoCにとどまらず、実運用を見据えた使える技術への昇華を担っていただきます。 ・VLMを活用したドキュメント構造化パイプラインの構築・改善を行っていただきます。 ・プロンプトチューニングなどによるVLM出力精度の向上と、バリデーション機能の開発を行っていただきます。 ・図面解析など、顧客課題に応じたPoCの技術検証・実施を行っていただきます。 【開発環境】 ・使用言語/フレームワーク:Python、TypeScript、Vue.js、Node.js ・コンテナ:Docker ・IaC:Terraform ・クラウド:AWS、Azure
【募集背景】 自社プロダクトの製造業向けAIエージェント(SaaS)、業務AI実装支援プラットフォーム(PaaS)の導入、運営をしている企業において、エンタープライズ向けのPoCプロジェクトが増加する中でのVisual RAGニーズの急増や、VLMを活用したドキュメント構造化のPoC実施からプロダクト組み込みまでの運用改善、パイプライン構築を担うR&Dリソース強化のため、AI R&Dエンジニア(VLM・マルチモーダル)を募集しています。 【作業内容】 VLM等の最新技術を活用し、ドキュメント構造化の信頼性や機能を向上させるための研究開発および検証をリードしていただきます。 単なるPoCにとどまらず、実運用を見据えた「使える技術」への昇華を担っていただきます。 VLMを活用したドキュメント構造化パイプラインの構築・改善を行っていただきます。 プロンプトチューニングなどによるVLM出力精度の向上と、バリデーション機能の開発を行っていただきます。 図面解析など、顧客課題に応じたPoCの技術検証・実施を行っていただきます。 【開発環境】 使用言語/フレームワークはPython、TypeScript、Vue.js、Node.jsです。 コンテナはDockerです。 IaCはTerraformです。 クラウドはAWS、Azureです。
【募集背景】 自社プロダクトの製造業向けAIエージェント(SaaS)、業務AI実装支援プラットフォーム(PaaS)の導入、運営をしている企業において、エンタープライズ向けのPoCプロジェクトが増加する中でのVisual RAGニーズの急増や、VLMを活用したドキュメント構造化のPoC実施からプロダクト組み込みまでの運用改善、パイプライン構築を担うR&Dリソース強化のため、AI R&Dエンジニア(VLM・マルチモーダル)を募集しています。 【作業内容】 VLM等の最新技術を活用し、ドキュメント構造化の信頼性や機能を向上させるための研究開発および検証をリードしていただきます。 単なるPoCにとどまらず、実運用を見据えた「使える技術」への昇華を担っていただきます。 VLMを活用したドキュメント構造化パイプラインの構築・改善を行っていただきます。 プロンプトチューニングなどによるVLM出力精度の向上と、バリデーション機能の開発を行っていただきます。 図面解析など、顧客課題に応じたPoCの技術検証・実施を行っていただきます。 【開発環境】 使用言語/フレームワークはPython、TypeScript、Vue.js、Node.jsです。 コンテナはDockerです。 IaCはTerraformです。 クラウドはAWS、Azureです。
【募集背景】 これからの会社のフェーズにおいて、マッチングアルゴリズムを進化させることで事業成長をより加速していくため、チームの強化を測っていきたいと考えております。 【作業内容】 サービス拡大に向け、ユーザーが利用する検索システムを起点にユーザーへ良質な体験を提供することをミッションになります。データ&AI戦略部でデータエンジニアをご担当いただきます。具体的には、検索システムの基盤設計 / 構築 / 運用、推薦(レコメンド)システムの基盤設計 / 構築 /運用、不正検知システムの基盤設計 / 構築 / 運用、データ収集基盤のSLO, SLIの定義・保守、データ分析ツールの管理・運用を行っていただきます。 【求める人物像】 会社のVISION、MISSIONを体現し、価値観、実現したい世界観に共感できる方や、どんなときでもヒトでなくコトにあたれる人、ミッションに向かって協働できる方、自分の領域を定めず、必要であればどんどん染み出していける方を求めています。 【開発環境】 言語:Ruby、Python データ転送:Embulk、Digdag、Fluentd DWH:BigQuery、Airflow データベース:MySQL データ分析ツール:DOMO ソースコード管理:GitHub プロジェクト管理:ASANA コミュニケーションツール:Slack 情報共有ツール: Confluence インフラ環境:GCP、AWS
【募集背景】 これからの会社のフェーズにおいて、マッチングアルゴリズムを進化させることで事業成長をより加速していくため、チームの強化を測っていきたいと考えております。 【作業内容】 サービス拡大に向け、ユーザーが利用する検索システムを起点にユーザーへ良質な体験を提供することをミッションになります。データ&AI戦略部でデータエンジニアをご担当いただきます。具体的には、検索システムの基盤設計 / 構築 / 運用、推薦(レコメンド)システムの基盤設計 / 構築 /運用、不正検知システムの基盤設計 / 構築 / 運用、データ収集基盤のSLO, SLIの定義・保守、データ分析ツールの管理・運用を行っていただきます。 【求める人物像】 会社のVISION、MISSIONを体現し、価値観、実現したい世界観に共感できる方や、どんなときでもヒトでなくコトにあたれる人、ミッションに向かって協働できる方、自分の領域を定めず、必要であればどんどん染み出していける方を求めています。 【開発環境】 言語:Ruby、Python データ転送:Embulk、Digdag、Fluentd DWH:BigQuery、Airflow データベース:MySQL データ分析ツール:DOMO ソースコード管理:GitHub プロジェクト管理:ASANA コミュニケーションツール:Slack 情報共有ツール: Confluence インフラ環境:GCP、AWS
【作業内容】 データエンジニアは、グローバルのデータマネジメント・ガバナンス業務を推進するためのデータ基盤を整備するポジションです。社内に存在するあらゆるデータに対して、全社横断のデータ基盤を構築し、各組織が自律的に分析、データを利活用できる環境を整備しています。このポジションでは、データエンジニアとして、社内のステークホルダに対して、自ら積極的にコミュニケーションをし、データを利活用するための基盤作りに努めていただきます。 - データエンジニアリングに関連する技術選定、設計や構築に関わる開発物のレビューを主体的に実施する - データアナリストや専門職のメンバーがデータ分析、機械学習などの業務を定常的に実施するための仕組み、環境整備をする - 法律関連の機密データを扱うため、個人情報保護法やその他の関連規制を踏まえたセキュアなデータ管理体制の設計・構築に携わる - データサイジング・コストを考慮しつつ、各ステークホルダが継続的かつ効率的にデータへアプローチできるセキュアなインフラを整備する - データ要件を元にしたデータの抽出ロジック、アルゴリズムを開発、運用する - 定常的に実行されるデータパイプラインの実行環境を、定義した要件に基づき、運用・保守する
【作業内容】 データエンジニアは、グローバルのデータマネジメント・ガバナンス業務を推進するためのデータ基盤を整備するポジションです。社内に存在するあらゆるデータに対して、全社横断のデータ基盤を構築し、各組織が自律的に分析、データを利活用できる環境を整備しています。このポジションでは、データエンジニアとして、社内のステークホルダに対して、自ら積極的にコミュニケーションをし、データを利活用するための基盤作りに努めていただきます。 - データエンジニアリングに関連する技術選定、設計や構築に関わる開発物のレビューを主体的に実施する - データアナリストや専門職のメンバーがデータ分析、機械学習などの業務を定常的に実施するための仕組み、環境整備をする - 法律関連の機密データを扱うため、個人情報保護法やその他の関連規制を踏まえたセキュアなデータ管理体制の設計・構築に携わる - データサイジング・コストを考慮しつつ、各ステークホルダが継続的かつ効率的にデータへアプローチできるセキュアなインフラを整備する - データ要件を元にしたデータの抽出ロジック、アルゴリズムを開発、運用する - 定常的に実行されるデータパイプラインの実行環境を、定義した要件に基づき、運用・保守する
【作業内容】 顧客企業(某国内大手IT関連)社員と協業し、製品化前のセキュリティ暗号システムにおけるAIエージェントを使用して、セキュリティ上で外部からの攻撃を行うPoCを実施します。設計 ~ 開発 ~ テスト ~ 納品を担当します。
【作業内容】 顧客企業(某国内大手IT関連)社員と協業し、製品化前のセキュリティ暗号システムにおけるAIエージェントを使用して、セキュリティ上で外部からの攻撃を行うPoCを実施します。設計 ~ 開発 ~ テスト ~ 納品を担当します。
【作業内容】 AWS Lambda/ダッシュボード開発担当として、業務用複合機から取得した各種データをクラウドに蓄積して可視化する作業を行っていただきます。ダッシュボードの構築・運用を担当していただきます。AWSサービスを活用したバックエンド開発となります。 開発言語 : Python, C, SQL 関連技術 : AWS, Metabase
【作業内容】 AWS Lambda/ダッシュボード開発担当として、業務用複合機から取得した各種データをクラウドに蓄積して可視化する作業を行っていただきます。ダッシュボードの構築・運用を担当していただきます。AWSサービスを活用したバックエンド開発となります。 開発言語 : Python, C, SQL 関連技術 : AWS, Metabase
【作業内容】 ・ステークホルダーヒアリングを通じた課題理解・改善ソリューションの実施を行っていただきます。 ・ディメンショナルモデリングを活用したデータモデル設計・データパイプラインの改善を行っていただきます。 ・Airflow DAG,dbtなどによるSnowflake上でのデータパイプライン構築・実装を行っていただきます。 ・データパイプラインの運用監視・障害対応などの運用を行っていただきます。 ・技術的な提案・検証(メタデータ管理、データ品質管理など)を行っていただきます。 【ポジションの魅力】 ・データモデリングについて更なるスキルアップにつなげていただける案件でございます。 【開発環境】 開発言語: Python, SQL 等 開発/運用環境: Docker, VSCode, IntelliJ, GitLab, GitLab CI, Claude Code, GitHub Copilot, JetBrains AI Assistant データ基盤: Snowflake ワークフロー管理: Amazon Managed Workflows for Apache Airflow (MWAA) インフラ環境: AWS [AppFlow, MWAA, S3 等](※インフラの設計・構築・運用は別担当) 社内ツール: Confluence, JIRA, Redmine, Slack, Zoom, Google Meet 外部SaaS: Salesforce, Marketo, GA4, Datadog, Zendesk等
【作業内容】 ・ステークホルダーヒアリングを通じた課題理解・改善ソリューションの実施を行っていただきます。 ・ディメンショナルモデリングを活用したデータモデル設計・データパイプラインの改善を行っていただきます。 ・Airflow DAG,dbtなどによるSnowflake上でのデータパイプライン構築・実装を行っていただきます。 ・データパイプラインの運用監視・障害対応などの運用を行っていただきます。 ・技術的な提案・検証(メタデータ管理、データ品質管理など)を行っていただきます。 【ポジションの魅力】 ・データモデリングについて更なるスキルアップにつなげていただける案件でございます。 【開発環境】 開発言語: Python, SQL 等 開発/運用環境: Docker, VSCode, IntelliJ, GitLab, GitLab CI, Claude Code, GitHub Copilot, JetBrains AI Assistant データ基盤: Snowflake ワークフロー管理: Amazon Managed Workflows for Apache Airflow (MWAA) インフラ環境: AWS [AppFlow, MWAA, S3 等](※インフラの設計・構築・運用は別担当) 社内ツール: Confluence, JIRA, Redmine, Slack, Zoom, Google Meet 外部SaaS: Salesforce, Marketo, GA4, Datadog, Zendesk等
【作業内容】 ・金融SaaSサービス運営企業におけるデータサイエンティストとしてデータ解析及び機械学習モデルの活用に携わっていただきます。 ・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善を行っていただきます。 ・機械学習モデルのパフォーマンス最適化を行っていただきます。 ・プロダクト内および社内へのAI導入に携わっていただきます。 【開発環境】 ・開発言語:Python、Typescript ・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy ・クラウドプラットフォーム:Google Cloud Platform ・分析基盤:BigQuery ・アプリケーション:Next.js、FastAPI ・構成管理ツール:Terraform、Cloud Build ・データモデリング:Dataform ・データビジュアライゼーション:Metabase、Redash ・その他:Docker、GitHub、Slack、Github Copilot
【作業内容】 ・金融SaaSサービス運営企業におけるデータサイエンティストとしてデータ解析及び機械学習モデルの活用に携わっていただきます。 ・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善を行っていただきます。 ・機械学習モデルのパフォーマンス最適化を行っていただきます。 ・プロダクト内および社内へのAI導入に携わっていただきます。 【開発環境】 ・開発言語:Python、Typescript ・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy ・クラウドプラットフォーム:Google Cloud Platform ・分析基盤:BigQuery ・アプリケーション:Next.js、FastAPI ・構成管理ツール:Terraform、Cloud Build ・データモデリング:Dataform ・データビジュアライゼーション:Metabase、Redash ・その他:Docker、GitHub、Slack、Github Copilot
【募集背景】 ユーザー数のさらなる増加を実現するためのサービス拡大を目指しているが、そのためにはサイトの信頼性を高めるSREの強化が重要なポイントと捉えています。SREとして、プロアクティブに施策を実施していけるようにチームに新たな方を迎えることで、組織強化を図りたいと考え増員募集をします。 【作業内容】 急拡大中の事業を牽引するSRE(Site Reliability Engineer)ポジションを任せします。 具体的には「どのようにしたらサービスをより多くの方に、より便利に使ってもらえるか」というユーザー視点に立ち、 仮説・実行・検証のサイクルを回しながら、サービスの信頼性を高めて頂きます。 ・SLA/SLO/SLIの設定・監視、モニタリング環境の改善 ・OS、ミドルウェアなどの継続的アップデート ・障害対応およびボトルネック調査・対応 ・AWSなど複数クラウドを使用したシステム環境の運用安定化 ・アーキテクチャ改善(マイクロサービス、API Gatewayの導入など) 【ポジションの魅力】 ・自身の技術をベースに、加速度高く信頼性向上を中心としたSRE施策に携わっていける。 ・新技術の調査 / 導入に積極的に関われる。 →マイクロサービス化を進めていたり、分散トレーシングの仕組み作り、カオスエンジニアリング、カナリアリリースなどの技術にも取り組んでいる。 ・まだまだSREとしての活動は完全ではない中で、組織の作り込みから携わることができる。 【開発環境】 ・言語:Go, Python, JavaScript, Ruby, PHP ・サーバ:AWS VPC, EC2, ECS, RDS, ElastiCache, S3, CloudFront, GCP Compute Engine, Amazon EKS, Kubernetes Engine ・サーバOS:Ubuntu, Amazon Linux ・データベース:Amazon Aurora MySQL ・検索エンジン:Elasticsearch, Cloudsearch ・サーバレス:Lambda, Cloud Functions ・プロビジョニング:Ansible, Docker ・オーケストレーション:Terraform, CloudFormation, Capistrano ・アプリケーションモニタリング:NewRelic, AWS X-Ray ・インフラモニンタリング:CloudWatch, Datadog, PagerDuty, Prometheus、Grafana ・ログ管理:Fluentd ・データ分析:Bigquery, Athena ・CI/CD:CircleCI, GitHub Actions, AWS CDK, Argo CD ・バージョン管理:GitHub
【募集背景】 ユーザー数のさらなる増加を実現するためのサービス拡大を目指しているが、そのためにはサイトの信頼性を高めるSREの強化が重要なポイントと捉えています。SREとして、プロアクティブに施策を実施していけるようにチームに新たな方を迎えることで、組織強化を図りたいと考え増員募集をします。 【作業内容】 急拡大中の事業を牽引するSRE(Site Reliability Engineer)ポジションを任せします。 具体的には「どのようにしたらサービスをより多くの方に、より便利に使ってもらえるか」というユーザー視点に立ち、 仮説・実行・検証のサイクルを回しながら、サービスの信頼性を高めて頂きます。 ・SLA/SLO/SLIの設定・監視、モニタリング環境の改善 ・OS、ミドルウェアなどの継続的アップデート ・障害対応およびボトルネック調査・対応 ・AWSなど複数クラウドを使用したシステム環境の運用安定化 ・アーキテクチャ改善(マイクロサービス、API Gatewayの導入など) 【ポジションの魅力】 ・自身の技術をベースに、加速度高く信頼性向上を中心としたSRE施策に携わっていける。 ・新技術の調査 / 導入に積極的に関われる。 →マイクロサービス化を進めていたり、分散トレーシングの仕組み作り、カオスエンジニアリング、カナリアリリースなどの技術にも取り組んでいる。 ・まだまだSREとしての活動は完全ではない中で、組織の作り込みから携わることができる。 【開発環境】 ・言語:Go, Python, JavaScript, Ruby, PHP ・サーバ:AWS VPC, EC2, ECS, RDS, ElastiCache, S3, CloudFront, GCP Compute Engine, Amazon EKS, Kubernetes Engine ・サーバOS:Ubuntu, Amazon Linux ・データベース:Amazon Aurora MySQL ・検索エンジン:Elasticsearch, Cloudsearch ・サーバレス:Lambda, Cloud Functions ・プロビジョニング:Ansible, Docker ・オーケストレーション:Terraform, CloudFormation, Capistrano ・アプリケーションモニタリング:NewRelic, AWS X-Ray ・インフラモニンタリング:CloudWatch, Datadog, PagerDuty, Prometheus、Grafana ・ログ管理:Fluentd ・データ分析:Bigquery, Athena ・CI/CD:CircleCI, GitHub Actions, AWS CDK, Argo CD ・バージョン管理:GitHub
【作業内容】 住宅ローン商品の追加に伴い、融資実行・償還・金利計算・期日処理などの各種バッチ処理を拡張する開発をご担当いただきます。 商品仕様に応じたPL/SQLを中心としたバッチロジックの追加・修正に加え、周辺のShell・Pythonスクリプトの調整や関連テーブルの更新処理など、詳細設計から結合テストまでを一気通貫で対応いただく想定です。 【開発環境】 開発環境はPL/SQL/Shell/Python/GitHubを中心に構成されております。
【作業内容】 住宅ローン商品の追加に伴い、融資実行・償還・金利計算・期日処理などの各種バッチ処理を拡張する開発をご担当いただきます。 商品仕様に応じたPL/SQLを中心としたバッチロジックの追加・修正に加え、周辺のShell・Pythonスクリプトの調整や関連テーブルの更新処理など、詳細設計から結合テストまでを一気通貫で対応いただく想定です。 【開発環境】 開発環境はPL/SQL/Shell/Python/GitHubを中心に構成されております。
【作業内容】 ・LLMの研究開発支援 - LLMベンチマーク用データの作成、評価実施 - LLMのファインチューニング、評価結果の取りまとめ・報告、等 - LLMの安全性向上に関するデータ作成、評価 【求める人物像】 ・複数名で業務を推進しているためコミュニケーション力は必要(お客様とのコミュニケーションが必須)
【作業内容】 ・LLMの研究開発支援 - LLMベンチマーク用データの作成、評価実施 - LLMのファインチューニング、評価結果の取りまとめ・報告、等 - LLMの安全性向上に関するデータ作成、評価 【求める人物像】 ・複数名で業務を推進しているためコミュニケーション力は必要(お客様とのコミュニケーションが必須)
【作業内容】 ・AIプロダクト開発 - AIエージェントや音声処理など、LLM活用のバックエンドシステム設計・開発 - 自然言語処理パイプラインやAPIの構築・最適化 ・システムアーキテクチャ・インフラ - マイクロサービスによる分散システム設計・スケーラブルなAPI実装 - GCP・Kubernetes運用や大量データ対応のDB設計 - データベース設計・クエリ最適化 (大量データ処理対応) ・開発プロセス・品質向上 - CI/CDや自動テスト、監視・ログ分析などの開発基盤構築 - セキュリティ要件対応や品質向上のための運用改善 ・機械学習/AI - 機械学習モデルのデプロイ・MLOpsパイプライン構築 - 推論APIの最適化やA/Bテスト基盤の開発 ・チーム協働・技術推進 - 多職種チームとの協働開発・技術選定への参画 - 新技術調査・プロトタイプ開発やプロセス自動化推進 【開発環境】 ・開発言語:Python、TypeScript、Next.js、React ・インフラ:GCP、Docker ・作業環境:Mac
【作業内容】 ・AIプロダクト開発 - AIエージェントや音声処理など、LLM活用のバックエンドシステム設計・開発 - 自然言語処理パイプラインやAPIの構築・最適化 ・システムアーキテクチャ・インフラ - マイクロサービスによる分散システム設計・スケーラブルなAPI実装 - GCP・Kubernetes運用や大量データ対応のDB設計 - データベース設計・クエリ最適化 (大量データ処理対応) ・開発プロセス・品質向上 - CI/CDや自動テスト、監視・ログ分析などの開発基盤構築 - セキュリティ要件対応や品質向上のための運用改善 ・機械学習/AI - 機械学習モデルのデプロイ・MLOpsパイプライン構築 - 推論APIの最適化やA/Bテスト基盤の開発 ・チーム協働・技術推進 - 多職種チームとの協働開発・技術選定への参画 - 新技術調査・プロトタイプ開発やプロセス自動化推進 【開発環境】 ・開発言語:Python、TypeScript、Next.js、React ・インフラ:GCP、Docker ・作業環境:Mac
【作業内容】 「DXエンジニア人材の育成」の領域で、独自のHRプラットフォームを活用した、新入社員向け研修のメイン講師を募集しております。 今回は主に組み込み系をメインで教えていただける方を探しております。 一方的に講義を行う集合研修スタイルではなく、研修生1人1人の習熟度に応じたアダプティブラーニングを取り入れて運営していただきます。(プロダクト使用) <業務内容> ・研修準備 ・朝礼/夕礼の参加 ・クライアント向けの振り返り資料の作成(スライドで1,2ページ程度) ・受講生との1on1 ・講義 ・研修全体のハンドリング ・全体向けの講義 ・進捗度合いにより、講義内容の順番を変更するなどの臨機応変な対応 ・教材のカスタマイズ <業務詳細> ■研修運営準備(報酬は発生しませんのでご了承ください) ・4月開始前に30hの準備時間が発生する想定です。 -研修で使用する教材(自社プロダクト)などのキャッチアップ -講師としてのふるまい方についてのレクチャー -非同期の作業と併せて、キックオフや1on1、講師同士のmtgなどの同期の作業が5hくらい発生 ■研修運営 ・各種カリキュラムの運営 ■顧客へのレポーティング ・進捗/勤怠/素行不良などの研修生の報告 ・長期間にわたる研修の場合、顧客との運営定例会への出席 / 会議準備
【作業内容】 「DXエンジニア人材の育成」の領域で、独自のHRプラットフォームを活用した、新入社員向け研修のメイン講師を募集しております。 今回は主に組み込み系をメインで教えていただける方を探しております。 一方的に講義を行う集合研修スタイルではなく、研修生1人1人の習熟度に応じたアダプティブラーニングを取り入れて運営していただきます。(プロダクト使用) <業務内容> ・研修準備 ・朝礼/夕礼の参加 ・クライアント向けの振り返り資料の作成(スライドで1,2ページ程度) ・受講生との1on1 ・講義 ・研修全体のハンドリング ・全体向けの講義 ・進捗度合いにより、講義内容の順番を変更するなどの臨機応変な対応 ・教材のカスタマイズ <業務詳細> ■研修運営準備(報酬は発生しませんのでご了承ください) ・4月開始前に30hの準備時間が発生する想定です。 -研修で使用する教材(自社プロダクト)などのキャッチアップ -講師としてのふるまい方についてのレクチャー -非同期の作業と併せて、キックオフや1on1、講師同士のmtgなどの同期の作業が5hくらい発生 ■研修運営 ・各種カリキュラムの運営 ■顧客へのレポーティング ・進捗/勤怠/素行不良などの研修生の報告 ・長期間にわたる研修の場合、顧客との運営定例会への出席 / 会議準備
【作業内容】 ・サービスECプラットフォーム運営企業においてプロダクトエンジニアとしてご参画いただきます。 ・プロダクト戦略に基づき、ニーズの特定や探索から機能の設計、実装まで一気通貫でご担当いただきます。 ・プロダクトのニーズに対するソリューション立案及び実現性の最適化を行っていただきます。 ・実装・自動テストの作成・レビュー・検証・リリースなどプロダクト開発を行っていただきます。 ・チームに紐付いている機能群の改善や負債解消等のメンテナンスを行っていただきます。 ・仕様確認、不具合調査などの問い合わせ対応やシステムアラートの対応を行っていただきます。 ・チームの仮説検証サイクルの最速化に向けての改善を行っていただきます。 【開発環境】 ・言語:TypeScript, Python ・フレームワーク:Laravel, Gin, React, Flutter ・インフラ:AWS ・ミドルウェア:MySQL, Apache, Nginx, Redis ・その他:Terraform, Cloudflare, Figma, GitLab, GitLab CI, Test Cafe, CloudFormation, Mackerel, Datadog, Confluence, JIRA, Slack
【作業内容】 ・サービスECプラットフォーム運営企業においてプロダクトエンジニアとしてご参画いただきます。 ・プロダクト戦略に基づき、ニーズの特定や探索から機能の設計、実装まで一気通貫でご担当いただきます。 ・プロダクトのニーズに対するソリューション立案及び実現性の最適化を行っていただきます。 ・実装・自動テストの作成・レビュー・検証・リリースなどプロダクト開発を行っていただきます。 ・チームに紐付いている機能群の改善や負債解消等のメンテナンスを行っていただきます。 ・仕様確認、不具合調査などの問い合わせ対応やシステムアラートの対応を行っていただきます。 ・チームの仮説検証サイクルの最速化に向けての改善を行っていただきます。 【開発環境】 ・言語:TypeScript, Python ・フレームワーク:Laravel, Gin, React, Flutter ・インフラ:AWS ・ミドルウェア:MySQL, Apache, Nginx, Redis ・その他:Terraform, Cloudflare, Figma, GitLab, GitLab CI, Test Cafe, CloudFormation, Mackerel, Datadog, Confluence, JIRA, Slack
【作業内容】 ・開発関連: 実装・テストコード追加・検証・リリース ・問い合わせ対応: 仕様確認、不具合調査など ・仕様検討: PdM、TechRead、フロントエンドエンジニアなどと連携し、挑戦いただくことが可能です。 ・プロジェクト進行: ・各種スクラムイベントの進行・改善を通してチームとしてプロジェクト進行に取り組んでいただきます。 ・フロントエンドエンジニアやQAなど、他領域のエンジニアとのコミュニケーション、連携が重要なポジションです。 【ポジションの魅力】 ・モダンな技術スタック(Python + Django、AWS環境)を使用しています。
【作業内容】 ・開発関連: 実装・テストコード追加・検証・リリース ・問い合わせ対応: 仕様確認、不具合調査など ・仕様検討: PdM、TechRead、フロントエンドエンジニアなどと連携し、挑戦いただくことが可能です。 ・プロジェクト進行: ・各種スクラムイベントの進行・改善を通してチームとしてプロジェクト進行に取り組んでいただきます。 ・フロントエンドエンジニアやQAなど、他領域のエンジニアとのコミュニケーション、連携が重要なポジションです。 【ポジションの魅力】 ・モダンな技術スタック(Python + Django、AWS環境)を使用しています。
【作業内容】 現行の2システムを1つのシステムに統合しカスタマイズを行うプロジェクトで、契約管理(画面、帳票、データ連携用バッチ、保険料計算機能など)の開発を担当します。 要件定義から本番移行まで対応していただきます(本番リリースは2027年12月予定です)。 【ポジションの魅力】 このプロジェクトでは2つのシステムを統合するという重要な役割を担うことができ、幅広い技術と経験を積むことができます。 【開発環境】 - 開発言語: Python(画面/バッチ)、Java(帳票) 、SQL、シェルスクリプト - DB: MySQL - OS: Linux - FW: Django、PDFBox - その他: AWS、JP1、Adobe Acrobat Pro、CI/CD
【作業内容】 現行の2システムを1つのシステムに統合しカスタマイズを行うプロジェクトで、契約管理(画面、帳票、データ連携用バッチ、保険料計算機能など)の開発を担当します。 要件定義から本番移行まで対応していただきます(本番リリースは2027年12月予定です)。 【ポジションの魅力】 このプロジェクトでは2つのシステムを統合するという重要な役割を担うことができ、幅広い技術と経験を積むことができます。 【開発環境】 - 開発言語: Python(画面/バッチ)、Java(帳票) 、SQL、シェルスクリプト - DB: MySQL - OS: Linux - FW: Django、PDFBox - その他: AWS、JP1、Adobe Acrobat Pro、CI/CD
【作業内容】 ・他システムから受け取ったデータをDBに登録後、BIツールが参照するデータマートを作成して頂きます。 ・AWS環境にて要件定義の対応をお願いします。 ・S3に格納したデータをRDSに連携・加工し、Qlik Senseで可視化する構成になります。 ・インフラ環境の構築は別チームが実施します。 ・S3に送られたファイルをDBへ登録して頂きます。(10本+α) ・BIで表示したいグラフが2種類程度のため、それに必要なデータマートの作成をして頂きます。 ・4~5月では要件定義が中心となり、6月以降は設計・構築を実施して頂きます。
【作業内容】 ・他システムから受け取ったデータをDBに登録後、BIツールが参照するデータマートを作成して頂きます。 ・AWS環境にて要件定義の対応をお願いします。 ・S3に格納したデータをRDSに連携・加工し、Qlik Senseで可視化する構成になります。 ・インフラ環境の構築は別チームが実施します。 ・S3に送られたファイルをDBへ登録して頂きます。(10本+α) ・BIで表示したいグラフが2種類程度のため、それに必要なデータマートの作成をして頂きます。 ・4~5月では要件定義が中心となり、6月以降は設計・構築を実施して頂きます。
【作業内容】 マーケティングプロダクト(SFA/CRM)のバックエンド開発をご担当いただきます。 ・クライアント向けカスタマイズの要件定義、基本設計、実装、ソースコードのレビューやチーム内の進捗管理 ・新規機能のバックエンド開発 【開発環境】 ・開発言語:Python, TypeScript, React ・インフラ:AWS ・ツール:Slack, Confluence, Jira, Google Workspace, GitHub など
【作業内容】 マーケティングプロダクト(SFA/CRM)のバックエンド開発をご担当いただきます。 ・クライアント向けカスタマイズの要件定義、基本設計、実装、ソースコードのレビューやチーム内の進捗管理 ・新規機能のバックエンド開発 【開発環境】 ・開発言語:Python, TypeScript, React ・インフラ:AWS ・ツール:Slack, Confluence, Jira, Google Workspace, GitHub など