← 返回 谁在招聘 Who Is Hiring
【远程】web3大数据工程师(BI方向)
谁在招聘 Who Is Hiring · Issue #1133 · 最近更新时间:
公司
-
职位
【远程】web3大数据工程师(BI方向)
地点
远程
薪资
范围:20K-30K/月
雇佣类型
-
时区
-
远程
是
职责描述
- 负责金融行业大数据平台的架构设计、开发和优化,保障平台高效、稳定、安全运行。
- 负责数据仓库建设,基于数据驱动构建企业级数据模型并开发各层级数据模型。
- 跟进大数据相关技术演进,开展新技术专项课题研究,完成大数据产品相关全栈技术的架构设计与技术选型。
- 负责大数据应用设计和研发,解决实时和离线计算流程中的性能、功能问题,打造高性能、高可用、可扩展的系统,支撑多项目多场景的通用接入。
- 指导团队成员开展数据仓库建设,提升团队的大数据技术能力。
- 参与重点项目的评审,参与企业数据管理体系建设,推动企业数据文化的发展。
任职要求
- 统招本科及以上学历,双一流院校优先,计算机相关专业。
1-2年及以上数据仓库领域经验,熟悉数据仓库模型设计与ETL开发流程,具备海量数据加工处理(ETL)相关经验,有数据模型和数据架构基础。
熟悉Hadoop生态圈的主流技术及产品,精通Flink、Spark、HDFS、HBase、Hive、ES、Kafka、StarRocks等大数据组件的原理和开发调优。
精通SQL,有丰富的SQL性能调优实战经验,熟悉GCP者优先。
具有团队管理经验,具备良好的组织能力、沟通协调能力及项目管理能力。
具有较好的文字功底及语言表达能力,能够快速、准确地理解需求。
具有专研、快速学习和创新精神,具备独立分析问题和解决问题的能力。
具有责任心,时间观念强,工作独立性强,有良好的团队合作精神和抗压能力。
岗位信息
工作模式:远程办公,数据仓库 StarRocks/Clickhouse/Doris 中,优先 StarRocks,重点具备大数据实时项目经验
薪资范围:20K-30K/月
发薪方式:以USDT形式结算
项目叙述
3. 熟悉Hadoop生态圈的主流技术及产品,精通Flink、Spark、HDFS、HBase、Hive、ES、Kafka、StarRocks等大数据组件的原理和开发调优。
完整度元数据
缺失字段:company, employment_type
薄弱字段:salary
风险标记:company-missing
仅评论补充字段:无
评分明细
- title:10/10 · 来源:title
- company:0/14 · 来源:none
- location:9/9 · 来源:body
- salary:8/14 · 来源:derived
- responsibilities:11/11 · 来源:body
- requirements:9/9 · 来源:body
- work_mode:5/5 · 来源:derived
- employment_type:0/4 · 来源:none
- contact_channels:15/15 · 来源:body
- credibility:5/9
标签:无
查看原始 GitHub Issue
免责声明:Rebase 社区的所有招聘信息均由招聘方自行发布,平台仅负责排版与编辑,不对其合法性与真实性承担责任,请注意甄别。
来源仓库:rebase-network/who-is-hiring