【PL/SQL】データ分析業務
- ■必須スキル:
- ・SQLクエリ ・データ分析基盤の設計・構築
- ■歓迎スキル:
- ・BI系のツール、DBT利用経験 ・Pandasやscikitlearnでデータ分析経験
更新日: 2025/07/24
315件中 1〜30件を表示
・お客様システムや製品から出力されるログデータを収集し、加工、集計、可視化、分析を行います。 ・データ収集から分析まではGCP上で実施します。 ・お客様製品はGCP上に構築されたWebシステムとモバイルアプリです。
更新日: 2025/07/24
・お客様システムや製品から出力されるログデータを収集し、加工、集計、可視化、分析を行います。 ・データ収集から分析まではGCP上で実施します。 ・お客様製品はGCP上に構築されたWebシステムとモバイルアプリです。
更新日: 2025/07/24
・SQLを利用してデータを抽出いたします。 ・データカタログ等の仕様書を参照し、自立してSQLクエリの作成・実行を行います。 ・複数テーブルの結合やサブクエリを利用し、実務レベルのクエリを作成いたします。 ・大規模データの利用時には、システム負荷を軽減するためのクエリチューニングを行います。
更新日: 2025/12/03
・SQLを利用してデータを抽出いたします。 ・データカタログ等の仕様書を参照し、自立してSQLクエリの作成・実行を行います。 ・複数テーブルの結合やサブクエリを利用し、実務レベルのクエリを作成いたします。 ・大規模データの利用時には、システム負荷を軽減するためのクエリチューニングを行います。
更新日: 2025/12/03
データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集します。 ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方
更新日: 2025/12/03
データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集します。 ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方
更新日: 2025/12/03
・顧客データエコシステムにおけるデータマート作成およびBIツールによる可視化の支援を行います。 ・要求分析・要件整理から結合試験、保守運用までを担当します。
更新日: 2025/12/03
・顧客データエコシステムにおけるデータマート作成およびBIツールによる可視化の支援を行います。 ・要求分析・要件整理から結合試験、保守運用までを担当します。
更新日: 2025/12/03
・データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集しています。 ・ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方を求めています。 ・特にSnowflakeの知見が豊富で、技術リードをしつつ、他のメンバーへの始動もできる方を募集しております。
更新日: 2025/12/03
・データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集しています。 ・ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方を求めています。 ・特にSnowflakeの知見が豊富で、技術リードをしつつ、他のメンバーへの始動もできる方を募集しております。
更新日: 2025/12/03
【作業内容】 データ基盤のリニューアルを実施します。サービスベンダーの情シス要員として、Databricksアーキテクチャを活用した検討から実装までをご対応頂きます。
更新日: 2025/12/03
【作業内容】 データ基盤のリニューアルを実施します。サービスベンダーの情シス要員として、Databricksアーキテクチャを活用した検討から実装までをご対応頂きます。
更新日: 2025/12/03
・元売系販売管理システムの刷新を行います。 ・既存の販売システムから抽出したデータをBiz販売へ移行する作業です。 ・Biz会計の環境にBiz販売をプラスアルファで構築していきます。 ・移行本番時期は週末作業がありますが、振休は取得できるように調整します。
更新日: 2025/12/03
・元売系販売管理システムの刷新を行います。 ・既存の販売システムから抽出したデータをBiz販売へ移行する作業です。 ・Biz会計の環境にBiz販売をプラスアルファで構築していきます。 ・移行本番時期は週末作業がありますが、振休は取得できるように調整します。
更新日: 2025/12/03
・データマート作成およびBIツールによる可視化の支援を主にご担当頂きます。 ・要求分析・要件整理~結合試験、保守運用です。
更新日: 2025/12/03
・データマート作成およびBIツールによる可視化の支援を主にご担当頂きます。 ・要求分析・要件整理~結合試験、保守運用です。
更新日: 2025/12/03
【組織・チームのミッション】 データアナリティクスグループのミッションは、膨大なデータを活用してユーザー体験とビジネス成長を最大化することです。 【作業内容】 プロダクト戦略・改善のためのデータ分析・インサイト抽出、分析結果に基づいたプロダクトとマーケティング改善・新規施策の推進、テクノロジーマネジメントやピープルマネジメントなどを行い、データ活用を通じてサービスの成長を支えていただきます。 【求める人物像】 事業成長を自分ごととして捉え、主体的に課題解決に取り組める方。会社のVISION・MISSIONに共感し、ユーザーの視点に立って、ユーザー価値を最優先に考えられる方。 【ポジションの魅力】 希少なドメインで自ら仮説を立て、分析・施策提案・効果検証を一気通貫で対応できること。経営層との距離が近くチャレンジングな環境です。 【開発環境】 データベースやBIツールを活用し、データドリブンな意思決定を推進します。
更新日: 2025/12/03
【組織・チームのミッション】 データアナリティクスグループのミッションは、膨大なデータを活用してユーザー体験とビジネス成長を最大化することです。 【作業内容】 プロダクト戦略・改善のためのデータ分析・インサイト抽出、分析結果に基づいたプロダクトとマーケティング改善・新規施策の推進、テクノロジーマネジメントやピープルマネジメントなどを行い、データ活用を通じてサービスの成長を支えていただきます。 【求める人物像】 事業成長を自分ごととして捉え、主体的に課題解決に取り組める方。会社のVISION・MISSIONに共感し、ユーザーの視点に立って、ユーザー価値を最優先に考えられる方。 【ポジションの魅力】 希少なドメインで自ら仮説を立て、分析・施策提案・効果検証を一気通貫で対応できること。経営層との距離が近くチャレンジングな環境です。 【開発環境】 データベースやBIツールを活用し、データドリブンな意思決定を推進します。
更新日: 2025/12/03
【作業内容】 ①SQLのレビュー・品質チェック業務(80%) - チームメンバーが作成したSQLが要件に適合しているかの確認 - データ正確性・パフォーマンス・可読性などの確認 - エンドユーザー向けのデータを扱うため、高い精度でのレビューが求められます ②BIツール(DOMO)を活用したデータ分析基盤の構築・運用(20%) - DOMOのダッシュボード/レポートの設計・開発・運用 - BIツールにデータを取り込むためのSQLの記述(データ抽出・集計・加工) - Pythonを用いたデータ処理作業(データ処理の実行・ログ確認など)
更新日: 2025/12/03
【作業内容】 ①SQLのレビュー・品質チェック業務(80%) - チームメンバーが作成したSQLが要件に適合しているかの確認 - データ正確性・パフォーマンス・可読性などの確認 - エンドユーザー向けのデータを扱うため、高い精度でのレビューが求められます ②BIツール(DOMO)を活用したデータ分析基盤の構築・運用(20%) - DOMOのダッシュボード/レポートの設計・開発・運用 - BIツールにデータを取り込むためのSQLの記述(データ抽出・集計・加工) - Pythonを用いたデータ処理作業(データ処理の実行・ログ確認など)
更新日: 2025/12/03
【作業内容】 データ活用POCを通じて、AWSのマネージドサービスを組み合わせたデータ活用基盤を構築します。BIツール(Tableau)を利用したデータ分析業務を行います。 【ポジションの魅力】 最先端のAWSサービスを駆使したデータ基盤構築プロジェクトに携わることができ、データ分析のスキルを深められるポジションです。
更新日: 5日前
【作業内容】 データ活用POCを通じて、AWSのマネージドサービスを組み合わせたデータ活用基盤を構築します。BIツール(Tableau)を利用したデータ分析業務を行います。 【ポジションの魅力】 最先端のAWSサービスを駆使したデータ基盤構築プロジェクトに携わることができ、データ分析のスキルを深められるポジションです。
更新日: 5日前
【作業内容】 データ分析システムの設計・開発を行っている部署において以下のいずれかを支援いただきます。 ・Azure Databrikcs環境上でのAIエージェント作成(PythonでLangGraph等のライブラリ使用を想定) ・Pythonでのデータパイプライン構築(ETL設計・開発)
更新日: 2025/12/03
【作業内容】 データ分析システムの設計・開発を行っている部署において以下のいずれかを支援いただきます。 ・Azure Databrikcs環境上でのAIエージェント作成(PythonでLangGraph等のライブラリ使用を想定) ・Pythonでのデータパイプライン構築(ETL設計・開発)
更新日: 2025/12/03
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。
更新日: 2025/12/03
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。
更新日: 2025/12/03
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・9月よりデータ整備・データマートの概要設計等を実施し、性能要件がありその点を踏まえた検討も実施します。 ・10月以降はデータ収集・加工プログラムの開発やダッシュボード開発を予定しています。
更新日: 2025/12/03
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・9月よりデータ整備・データマートの概要設計等を実施し、性能要件がありその点を踏まえた検討も実施します。 ・10月以降はデータ収集・加工プログラムの開発やダッシュボード開発を予定しています。
更新日: 2025/12/03
【募集背景】 【作業内容】 ・2,000万人近いアクティブユーザーを抱える化粧品サイト運営企業においてデータエンジニアとしてご稼働いただきます。 ・現在データ分析基盤のリプレイスプロジェクトを進めており、開発を進めていく上でdbtを用いたデータモデリング要員としてご参画いただきます。 【ポジションの魅力】 ・フルリモート案件ですので、リラックスした状態で勤務することができます。 ・弊社からも複数名参画させていただいており、参画中の技術者様からも稼働が安定していて働きやすいとお話を伺っております。 【開発環境】 - BigQuery - Docker - dbt - Composer - GitHub
更新日: 2025/12/03
【募集背景】 【作業内容】 ・2,000万人近いアクティブユーザーを抱える化粧品サイト運営企業においてデータエンジニアとしてご稼働いただきます。 ・現在データ分析基盤のリプレイスプロジェクトを進めており、開発を進めていく上でdbtを用いたデータモデリング要員としてご参画いただきます。 【ポジションの魅力】 ・フルリモート案件ですので、リラックスした状態で勤務することができます。 ・弊社からも複数名参画させていただいており、参画中の技術者様からも稼働が安定していて働きやすいとお話を伺っております。 【開発環境】 - BigQuery - Docker - dbt - Composer - GitHub
更新日: 2025/12/03
【作業内容】 ガスや電気などのエネルギー事業者やクレジット会社向けに、データ利活用のコンサルティング支援を行います。データ分析基盤構築やデータ分析、ダッシュボードの構築をはじめとし、経験がある方にはPJマネジメント業務も対応いただきます。
更新日: 2025/12/03
【作業内容】 ガスや電気などのエネルギー事業者やクレジット会社向けに、データ利活用のコンサルティング支援を行います。データ分析基盤構築やデータ分析、ダッシュボードの構築をはじめとし、経験がある方にはPJマネジメント業務も対応いただきます。
更新日: 2025/12/03
【作業内容】 現行のデータ分析基盤の再構築プロジェクトで、Microsoft Fabricへの統合を行います。基幹システムはSAPとなり、そこからのデータ抽出からレポーティングまでの再構築を担当していただきます。 【募集背景】 その他 【ポジションの魅力】 最新のMicrosoft技術環境での基盤再構築プロジェクトに参加できます。
更新日: 2025/12/03
【作業内容】 現行のデータ分析基盤の再構築プロジェクトで、Microsoft Fabricへの統合を行います。基幹システムはSAPとなり、そこからのデータ抽出からレポーティングまでの再構築を担当していただきます。 【募集背景】 その他 【ポジションの魅力】 最新のMicrosoft技術環境での基盤再構築プロジェクトに参加できます。
更新日: 2025/12/03
【作業内容】 広告配信データを分析し、インサイトを導出するAI分析機能の開発を担当します。データ処理や分析ロジックの実装、AIエージェントとの統合を組み合わせたシステムの設計・実装を行います。 データ分析基盤の開発 - BigQuery、ClickHouseを用いた広告配信データの集計・加工処理 - Pythonによる分析アルゴリズムの実装 - 分析ロジックのAIエージェントへの統合 AIエージェント機能の開発 - 社内独自のAIエージェントフレームワークを用いた新機能開発 - プロンプトエンジニアリングと分析ワークフローの設計 - マルチエージェントシステムによる複雑な分析処理の実装 API・システム統合 - OpenAI API, Anthropic Claude APIとの統合 - GCP上でのサービス開発 - パフォーマンスとメンテナンスを考慮した設計・実装 【開発環境】 ・開発言語:Python(AIエージェント・データ処理)、TypeScript、Next.js、React(フロント) ・LLM統合: GPT-4, Anthropic Claude (API経由) ・データ基盤: BigQuery, ClickHouse ・インフラ:GCP、Docker
更新日: 2025/12/03
【作業内容】 広告配信データを分析し、インサイトを導出するAI分析機能の開発を担当します。データ処理や分析ロジックの実装、AIエージェントとの統合を組み合わせたシステムの設計・実装を行います。 データ分析基盤の開発 - BigQuery、ClickHouseを用いた広告配信データの集計・加工処理 - Pythonによる分析アルゴリズムの実装 - 分析ロジックのAIエージェントへの統合 AIエージェント機能の開発 - 社内独自のAIエージェントフレームワークを用いた新機能開発 - プロンプトエンジニアリングと分析ワークフローの設計 - マルチエージェントシステムによる複雑な分析処理の実装 API・システム統合 - OpenAI API, Anthropic Claude APIとの統合 - GCP上でのサービス開発 - パフォーマンスとメンテナンスを考慮した設計・実装 【開発環境】 ・開発言語:Python(AIエージェント・データ処理)、TypeScript、Next.js、React(フロント) ・LLM統合: GPT-4, Anthropic Claude (API経由) ・データ基盤: BigQuery, ClickHouse ・インフラ:GCP、Docker
更新日: 2025/12/03
・電子契約サービスにおける開発と維持管理としてPHPエンジニアとして参画をしていただきます。 ・また、今後はGo・Reactを用いた開発にシフトしていく予定となっております。 ・具体的には、既存サービスの柔軟性を広げる開発や、PQC対応版への変化に向けた維持管理、発展開発に携わっていただきます。
更新日: 2025/07/24
・電子契約サービスにおける開発と維持管理としてPHPエンジニアとして参画をしていただきます。 ・また、今後はGo・Reactを用いた開発にシフトしていく予定となっております。 ・具体的には、既存サービスの柔軟性を広げる開発や、PQC対応版への変化に向けた維持管理、発展開発に携わっていただきます。
更新日: 2025/07/24
・SAS Enterprise Guideで作成されている分析モデルについて、パラメータの調整や機能追加対応を行います。 ・予測結果リストをExcel VBAを用いてレポート化します。
更新日: 2025/07/24
・SAS Enterprise Guideで作成されている分析モデルについて、パラメータの調整や機能追加対応を行います。 ・予測結果リストをExcel VBAを用いてレポート化します。
更新日: 2025/07/24
・需要予測システムから出力されたデータを抽出・変換し、DWHからデータマートに登録するETL設計・開発業務を行います。 ・一度Python Shellで実装されたETLが性能要件を満たさず、VisualETLおよびPySparkでの再構築を実施予定です。 ・DWH・データマートはAmazon Redshiftを使用します。
更新日: 2025/07/24
・需要予測システムから出力されたデータを抽出・変換し、DWHからデータマートに登録するETL設計・開発業務を行います。 ・一度Python Shellで実装されたETLが性能要件を満たさず、VisualETLおよびPySparkでの再構築を実施予定です。 ・DWH・データマートはAmazon Redshiftを使用します。
更新日: 2025/07/24
案件名:SAS Viya移行支援 内 容:SAS9環境からSAS Viyaへの移行プロジェクトにおいて、Viya周辺の設定作業および、 SAS9で作成された資産のViya環境への移行開発を担当。
更新日: 2025/07/24
案件名:SAS Viya移行支援 内 容:SAS9環境からSAS Viyaへの移行プロジェクトにおいて、Viya周辺の設定作業および、 SAS9で作成された資産のViya環境への移行開発を担当。
更新日: 2025/07/24
・現行他基盤からTableauCloudへの移行を行います。 ・また、ダッシュボードの作成を行います。 ・TableauCloudへのデータソース追加も担当いただきます。
更新日: 2025/07/30
・現行他基盤からTableauCloudへの移行を行います。 ・また、ダッシュボードの作成を行います。 ・TableauCloudへのデータソース追加も担当いただきます。
更新日: 2025/07/30
エンドユーザーやシステム担当者、当部署のBI担当メンバー等と協力し、要件定義からレポート提供、 レポート提供後の保守運用、ユーザーサポートまでの全工程を実施する。 ・要件定義、設計、開発、テスト、リリース作業 (ユーザとコミュニケーションをとりながら、ユーザに必要な要件を確定する) ・開発/保守にかかわるドキュメント作成 ・既存レポートのリファクタリングなど(データ調査、修正など) ・基幹システム担当者とのコミュニケーション(情報共有、調整作業等) ・週2~3で丸の内に出社
更新日: 2025/12/03
エンドユーザーやシステム担当者、当部署のBI担当メンバー等と協力し、要件定義からレポート提供、 レポート提供後の保守運用、ユーザーサポートまでの全工程を実施する。 ・要件定義、設計、開発、テスト、リリース作業 (ユーザとコミュニケーションをとりながら、ユーザに必要な要件を確定する) ・開発/保守にかかわるドキュメント作成 ・既存レポートのリファクタリングなど(データ調査、修正など) ・基幹システム担当者とのコミュニケーション(情報共有、調整作業等) ・週2~3で丸の内に出社
更新日: 2025/12/03
・電力会社向け電力消費量予測モデルを構築します。 ・PoCフェーズが完了し、本番運用と同量のモデルを構築するフェーズです。 ・元となるデータ加工・モデル構築・精度算出のソースコードはあるので、それを流用しつつ、PoC対象外のモデル構築・精度検証・誤差分析を想定しています。 ・学習用モデルデータ作成を行います。 ・予測モデル(LightGBM)の構築、精度検証を行います。 ・上記をSagemakerジョブにて並列実行する仕組みを構築します。 ・精度検証結果より、乖離要因の分析・レポート出力を行います。
更新日: 2025/12/03
・電力会社向け電力消費量予測モデルを構築します。 ・PoCフェーズが完了し、本番運用と同量のモデルを構築するフェーズです。 ・元となるデータ加工・モデル構築・精度算出のソースコードはあるので、それを流用しつつ、PoC対象外のモデル構築・精度検証・誤差分析を想定しています。 ・学習用モデルデータ作成を行います。 ・予測モデル(LightGBM)の構築、精度検証を行います。 ・上記をSagemakerジョブにて並列実行する仕組みを構築します。 ・精度検証結果より、乖離要因の分析・レポート出力を行います。
更新日: 2025/12/03