大数据ETL工程师 7-12K元/月
每周双休年假年终奖标准工时优质企业社会保险环境优雅餐补晋升快全勤奖加班费年底双薪...

立即开聊
投递简历
  • 基本信息

  • 职位描述

    职位描述:
    作为数据ETL工程师,您将负责数据清洗、转换、加载以及完成SQL编写等工作。您将与数据分析师、产品经理、软件开发团队紧密合作,确保数据的准确性和完整性,以支持业务决策和数据驱动的解决方案。

    岗位职责:
    ? 负责大数据平台的ETL流程设计、开发和维护,确保数据准确性和时效性。
    ? 使用Hive SQL、Dataworks、Maxcompute、SLS日志服务、Hologres等技术栈进行数据处理和分析。
    ? 利用Python进行数据清洗、转换和加载,优化数据处理流程。
    ? 使用Quick BI、FineBI等工具进行数据可视化和报表制作。
    ? 参与数据仓库的设计和优化,提升数据存储和查询效率。
    ? 跟踪行业动态,持续学习和应用新技术,提升数据处理能力。
    任职要求:
    ? 大专及以上学历,1-3年大数据ETL相关工作经验,有电商公司背景者优先。
    ? 熟练掌握Python编程,有良好的编程习惯和代码质量意识。
    ? 熟悉Hadoop、Spark、Flink、kafka等大数据组件,有过数据仓库开发经验。
    ? 熟悉数据仓库分层,能独立完成ETL开发工作。
    ? 熟悉主流BI工具,如Quick BI、FineBI等,能够进行数据分析和可视化。
    ? 具备良好的数据敏感度和逻辑思维能力,能够快速定位和解决数据问题。
    ? 良好的团队合作精神,能够在快节奏的工作环境中保持高效和专注。
    我们提供:
    ? 竞争力的薪资和福利待遇。
    ? 广阔的职业发展空间和晋升机会。
    ? 正常双休、提供餐补、节假日按照法定时间。

    加分项:
    - 熟悉大数据技术栈,如Hadoop、Spark、Kafka等;
    - 有阿里云dataworks、sls日志服务使用经验优先考虑;
    - 有数据仓库和数据湖的设计和建设经验;
    - 有云计算平台(如AWS、Azure、GCP、Dataworks)上的数据ETL经验;
    - 有Quick BI,Power BI、Tableau、FineBI等可视化经验;
    联系我时,请说是在澄海招聘网上看到的,谢谢!
  • 竞争力分析
    你的竞争力超过了
    的求职者
    查看完整个人竞争力>>

  • 联系方式

    温馨提示:以任何形式向劳动者收取定金、保证金(物)的行为均违反《中华人民共和国劳动法》,请求职者提起注意并加以甄别。
  • 热门搜索
  • 热门职位
  • 热门城市
  • 其他区域
×
完善简历提醒
你当前的在线简历填写不完整,现在投递求职成功率不高, 建议先完善后再投递,不能浪费任何一个机会哦~
去完善
暂不投递