【PL/SQL/リモート可】ダッシュボード設計・構築
- ■必須スキル:
- ・バックエンドの開発経験(SQL開発問題ない方) ・アジャイル開発経験(開発チームの開発プロセスの課題感に関する解像度が高い必要があります) ・BiqQueryの使用経験
- ■歓迎スキル:
- ・BIツールでダッシュボードの設計・構築経験 ・FourKeysなどの開発メトリクスの知見 ・TroccoなどのELT、ETLツールの使用経験 ・PjM経験
332件中 301〜330件を表示
・お客様と一緒にダッシュボードの設計・構築を進めていただきます。 ・開発チームとの調整業務、BigQueryを活用したデータ収集やBIツールの設定作業を行います。 ・仮説・検証を繰り返し、アジャイル開発で進めていきます。
・お客様と一緒にダッシュボードの設計・構築を進めていただきます。 ・開発チームとの調整業務、BigQueryを活用したデータ収集やBIツールの設定作業を行います。 ・仮説・検証を繰り返し、アジャイル開発で進めていきます。
・システム間データ連携の設計、開発ベンダーへの仕様提示+受入テスト ・データ連携の運用保守(定期確認、障害対応)ユーザー&開発ベンダー対応 ・帳票(Crystal Reports + Oracle)開発の事前技術調査、設計、開発、テスト
・システム間データ連携の設計、開発ベンダーへの仕様提示+受入テスト ・データ連携の運用保守(定期確認、障害対応)ユーザー&開発ベンダー対応 ・帳票(Crystal Reports + Oracle)開発の事前技術調査、設計、開発、テスト
・TreasureDataを用いたデータ基盤の設計・構築を行います。 ・クライアントとの要件定義および集計設計を担当します。 ・既存データ基盤の運用・保守、コードや定義書の解析、追加・修正作業を行います。
・TreasureDataを用いたデータ基盤の設計・構築を行います。 ・クライアントとの要件定義および集計設計を担当します。 ・既存データ基盤の運用・保守、コードや定義書の解析、追加・修正作業を行います。
・データ分析基盤の再構築を行います。 ・S3をデータソースとしてSnowflakeで集計し、データマート出力を行います。 ・Google Lookerで構築された既存環境をdbtへ移行・集約します。 ・Google LookerまたはTableauによる可視化設計を行います。 ・アーキテクチャ設計と課題解決の推進を担当します。
・データ分析基盤の再構築を行います。 ・S3をデータソースとしてSnowflakeで集計し、データマート出力を行います。 ・Google Lookerで構築された既存環境をdbtへ移行・集約します。 ・Google LookerまたはTableauによる可視化設計を行います。 ・アーキテクチャ設計と課題解決の推進を担当します。
・新システムへのデータ移行に向け、既存データの調査と課題確認 ・確認用DBへのファイルアップロード ・SQLを用いた機械的チェック(件数、NULL値、最大/最小値、パターンなど) ・目視による異常値チェック ・次フェーズ以降では移行データ整備の設計・開発を予定(延長の可能性あり)
・新システムへのデータ移行に向け、既存データの調査と課題確認 ・確認用DBへのファイルアップロード ・SQLを用いた機械的チェック(件数、NULL値、最大/最小値、パターンなど) ・目視による異常値チェック ・次フェーズ以降では移行データ整備の設計・開発を予定(延長の可能性あり)
・BIツールを使用してデータ分析を行います。 ・データ分析案件の経験を活かし、WEBサービス向けの分析業務を担当します。 ・顧客要求への理解を深め、必要に応じてBIツールを使用し結果を共有します。
・BIツールを使用してデータ分析を行います。 ・データ分析案件の経験を活かし、WEBサービス向けの分析業務を担当します。 ・顧客要求への理解を深め、必要に応じてBIツールを使用し結果を共有します。
・上位クライアントが運営する大手HR事業における開発案件です。 ・現在KIというツールで作成されている各種レポートをPower BIへ移行する作業です。 ・データの目的や背景を理解し、より効果的なビジュアライゼーションを自ら提案していただくことを期待しています。 ・移行に伴うデータマートの設計・開発やETL処理の構築などの作業が発生する可能性もございます。
・上位クライアントが運営する大手HR事業における開発案件です。 ・現在KIというツールで作成されている各種レポートをPower BIへ移行する作業です。 ・データの目的や背景を理解し、より効果的なビジュアライゼーションを自ら提案していただくことを期待しています。 ・移行に伴うデータマートの設計・開発やETL処理の構築などの作業が発生する可能性もございます。
・RedShift×tableauのBI環境において発生する維持保守および各種改修を行います。 ・チームでの活動となりますが、1人称で能動的に動ける技術者を希望しています。
・RedShift×tableauのBI環境において発生する維持保守および各種改修を行います。 ・チームでの活動となりますが、1人称で能動的に動ける技術者を希望しています。
・お客様システムや製品から出力されるログデータを収集し、加工、集計、可視化、分析を行います。 ・データ収集から分析まではGCP上で実施します。 ・お客様製品はGCP上に構築されたWebシステムとモバイルアプリです。
・お客様システムや製品から出力されるログデータを収集し、加工、集計、可視化、分析を行います。 ・データ収集から分析まではGCP上で実施します。 ・お客様製品はGCP上に構築されたWebシステムとモバイルアプリです。
・電子契約サービスにおける開発と維持管理としてPHPエンジニアとして参画をしていただきます。 ・また、今後はGo・Reactを用いた開発にシフトしていく予定となっております。 ・具体的には、既存サービスの柔軟性を広げる開発や、PQC対応版への変化に向けた維持管理、発展開発に携わっていただきます。
・電子契約サービスにおける開発と維持管理としてPHPエンジニアとして参画をしていただきます。 ・また、今後はGo・Reactを用いた開発にシフトしていく予定となっております。 ・具体的には、既存サービスの柔軟性を広げる開発や、PQC対応版への変化に向けた維持管理、発展開発に携わっていただきます。
案件名:SAS Viya移行支援 内 容:SAS9環境からSAS Viyaへの移行プロジェクトにおいて、Viya周辺の設定作業および、 SAS9で作成された資産のViya環境への移行開発を担当。
案件名:SAS Viya移行支援 内 容:SAS9環境からSAS Viyaへの移行プロジェクトにおいて、Viya周辺の設定作業および、 SAS9で作成された資産のViya環境への移行開発を担当。
【作業内容】 データ基盤のリニューアルを実施します。サービスベンダーの情シス要員として、Databricksアーキテクチャを活用した検討から実装までをご対応頂きます。
【作業内容】 データ基盤のリニューアルを実施します。サービスベンダーの情シス要員として、Databricksアーキテクチャを活用した検討から実装までをご対応頂きます。
データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集します。 ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方
データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集します。 ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方
・SAS Enterprise Guideで作成されている分析モデルについて、パラメータの調整や機能追加対応を行います。 ・予測結果リストをExcel VBAを用いてレポート化します。
・SAS Enterprise Guideで作成されている分析モデルについて、パラメータの調整や機能追加対応を行います。 ・予測結果リストをExcel VBAを用いてレポート化します。
【作業内容】 広告配信データを分析し、インサイトを導出するAI分析機能の開発を担当します。データ処理や分析ロジックの実装、AIエージェントとの統合を組み合わせたシステムの設計・実装を行います。 データ分析基盤の開発 - BigQuery、ClickHouseを用いた広告配信データの集計・加工処理 - Pythonによる分析アルゴリズムの実装 - 分析ロジックのAIエージェントへの統合 AIエージェント機能の開発 - 社内独自のAIエージェントフレームワークを用いた新機能開発 - プロンプトエンジニアリングと分析ワークフローの設計 - マルチエージェントシステムによる複雑な分析処理の実装 API・システム統合 - OpenAI API, Anthropic Claude APIとの統合 - GCP上でのサービス開発 - パフォーマンスとメンテナンスを考慮した設計・実装 【開発環境】 ・開発言語:Python(AIエージェント・データ処理)、TypeScript、Next.js、React(フロント) ・LLM統合: GPT-4, Anthropic Claude (API経由) ・データ基盤: BigQuery, ClickHouse ・インフラ:GCP、Docker
【作業内容】 広告配信データを分析し、インサイトを導出するAI分析機能の開発を担当します。データ処理や分析ロジックの実装、AIエージェントとの統合を組み合わせたシステムの設計・実装を行います。 データ分析基盤の開発 - BigQuery、ClickHouseを用いた広告配信データの集計・加工処理 - Pythonによる分析アルゴリズムの実装 - 分析ロジックのAIエージェントへの統合 AIエージェント機能の開発 - 社内独自のAIエージェントフレームワークを用いた新機能開発 - プロンプトエンジニアリングと分析ワークフローの設計 - マルチエージェントシステムによる複雑な分析処理の実装 API・システム統合 - OpenAI API, Anthropic Claude APIとの統合 - GCP上でのサービス開発 - パフォーマンスとメンテナンスを考慮した設計・実装 【開発環境】 ・開発言語:Python(AIエージェント・データ処理)、TypeScript、Next.js、React(フロント) ・LLM統合: GPT-4, Anthropic Claude (API経由) ・データ基盤: BigQuery, ClickHouse ・インフラ:GCP、Docker
・現行他基盤からTableauCloudへの移行を行います。 ・また、ダッシュボードの作成を行います。 ・TableauCloudへのデータソース追加も担当いただきます。
・現行他基盤からTableauCloudへの移行を行います。 ・また、ダッシュボードの作成を行います。 ・TableauCloudへのデータソース追加も担当いただきます。
・需要予測システムから出力されたデータを抽出・変換し、DWHからデータマートに登録するETL設計・開発業務を行います。 ・一度Python Shellで実装されたETLが性能要件を満たさず、VisualETLおよびPySparkでの再構築を実施予定です。 ・DWH・データマートはAmazon Redshiftを使用します。
・需要予測システムから出力されたデータを抽出・変換し、DWHからデータマートに登録するETL設計・開発業務を行います。 ・一度Python Shellで実装されたETLが性能要件を満たさず、VisualETLおよびPySparkでの再構築を実施予定です。 ・DWH・データマートはAmazon Redshiftを使用します。
・SQLを利用してデータを抽出いたします。 ・データカタログ等の仕様書を参照し、自立してSQLクエリの作成・実行を行います。 ・複数テーブルの結合やサブクエリを利用し、実務レベルのクエリを作成いたします。 ・大規模データの利用時には、システム負荷を軽減するためのクエリチューニングを行います。
・SQLを利用してデータを抽出いたします。 ・データカタログ等の仕様書を参照し、自立してSQLクエリの作成・実行を行います。 ・複数テーブルの結合やサブクエリを利用し、実務レベルのクエリを作成いたします。 ・大規模データの利用時には、システム負荷を軽減するためのクエリチューニングを行います。
・データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集しています。 ・ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方を求めています。 ・特にSnowflakeの知見が豊富で、技術リードをしつつ、他のメンバーへの始動もできる方を募集しております。
・データパイプラインの構築やデータ処理の開発を担当するデータエンジニアを募集しています。 ・ETL、DWH、データマート、BIなどのスキルと実務経験を持ち、データアーキテクチャに基づいたデータ処理の開発ができる方を求めています。 ・特にSnowflakeの知見が豊富で、技術リードをしつつ、他のメンバーへの始動もできる方を募集しております。
・電力会社向け電力消費量予測モデルを構築します。 ・PoCフェーズが完了し、本番運用と同量のモデルを構築するフェーズです。 ・元となるデータ加工・モデル構築・精度算出のソースコードはあるので、それを流用しつつ、PoC対象外のモデル構築・精度検証・誤差分析を想定しています。 ・学習用モデルデータ作成を行います。 ・予測モデル(LightGBM)の構築、精度検証を行います。 ・上記をSagemakerジョブにて並列実行する仕組みを構築します。 ・精度検証結果より、乖離要因の分析・レポート出力を行います。
・電力会社向け電力消費量予測モデルを構築します。 ・PoCフェーズが完了し、本番運用と同量のモデルを構築するフェーズです。 ・元となるデータ加工・モデル構築・精度算出のソースコードはあるので、それを流用しつつ、PoC対象外のモデル構築・精度検証・誤差分析を想定しています。 ・学習用モデルデータ作成を行います。 ・予測モデル(LightGBM)の構築、精度検証を行います。 ・上記をSagemakerジョブにて並列実行する仕組みを構築します。 ・精度検証結果より、乖離要因の分析・レポート出力を行います。
・元売系販売管理システムの刷新を行います。 ・既存の販売システムから抽出したデータをBiz販売へ移行する作業です。 ・Biz会計の環境にBiz販売をプラスアルファで構築していきます。 ・移行本番時期は週末作業がありますが、振休は取得できるように調整します。
・元売系販売管理システムの刷新を行います。 ・既存の販売システムから抽出したデータをBiz販売へ移行する作業です。 ・Biz会計の環境にBiz販売をプラスアルファで構築していきます。 ・移行本番時期は週末作業がありますが、振休は取得できるように調整します。
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・9月よりデータ整備・データマートの概要設計等を実施し、性能要件がありその点を踏まえた検討も実施します。 ・10月以降はデータ収集・加工プログラムの開発やダッシュボード開発を予定しています。
・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・9月よりデータ整備・データマートの概要設計等を実施し、性能要件がありその点を踏まえた検討も実施します。 ・10月以降はデータ収集・加工プログラムの開発やダッシュボード開発を予定しています。
・顧客データエコシステムにおけるデータマート作成およびBIツールによる可視化の支援を行います。 ・要求分析・要件整理から結合試験、保守運用までを担当します。
・顧客データエコシステムにおけるデータマート作成およびBIツールによる可視化の支援を行います。 ・要求分析・要件整理から結合試験、保守運用までを担当します。