原创 PowerData一笔墨 PowerData
想要参与内推的同学可关注上方公众号点击“加入我们”,加入社区后可获取对应岗位推荐人的联系方式。
以下内推岗位皆为PowerData成员提供,在此也感谢PowerData一笔墨对社区内推信息的登记与维护。
岗位名称: 大数据开发工程师 公司名称: 东方财富信息股份有限公司 工作地点: 上海 学历要求: 本科 薪资范围: 面议 任职资格: 1、本科及以上学历,计算机相关专业优先; 2、具备3年以上Java或Scala编程经验; 3、具备1年以上大数据相关应用开发经验; 4、精通流行的大数据编程框架:MapReduce、Spark、Flink等; 5、精通大数据生态圈常用技术如:Kafka、ZooKeeper等; 6、熟悉Linux系统的各类常用命令、熟悉数据仓库技术; 7、熟悉Doris、Clickhouse等OLAP组件,熟悉数据湖技术; 8、熟悉常用调度工具Azkaban、DolphinScheduler等; 工作职责: 1、负责大数据平台实时计算框架搭建,高并发海量应用开发(如实时风控系统等); 2、负责大数据平台下多维分析产品的开发和性能优化,包括OLAP性能调优; 3、负责大数据平台机器学习项目的算法工程化,及机器学习平台的开发; 4、负责大数据平台作业调度平台开发; 5、完成公司交办的其他工作。
岗位名称: 高级研发工程师 公司名称: 北京飞轮数据科技有限公司 工作地点: 北京、西安、成都、杭州、上海、深圳、广州、新加坡 、硅谷、remote 学历要求: 本科 薪资范围: 20-40 * 16薪、满额五险一金、12%比例缴纳公积金 任职资格: 1、熟悉C/C++/Java/Python/Golang/Rust等任意一门编程语言,熟悉数据结构和算法等基础知识; 2、熟悉系统结构原理和编程(多线程编程、网络编程、高并发高性能调优); 3、有较强的责任心,良好的沟通协作能力,较强的学习能力; 加分项: 1、 熟悉大数据分析平台原理和源代码(包括但不限于hadoop, spark, flink, doris, clickhouse, impala, presto, greenplum, snowflake, redshift, druid, hive, iceberg等); 2、熟悉关系型数据库原理和源代码 (包含但不限于 mysql, postgresql, oracle, sql server等); 3、 熟悉存储系统原理和源代码(包括但不限于 hbase, kudu, rocksdb, parquet, ceph,对象存储, 云磁盘等); 工作职责: 1、负责大数据平台实时计算框架搭建,高并发海量应用开发(如实时风控系统等); 2、负责大数据平台下多维分析产品的开发和性能优化,包括OLAP性能调优; 3、负责大数据平台机器学习项目的算法工程化,及机器学习平台的开发; 4、负责大数据平台作业调度平台开发; 5、完成公司交办的其他工作。
岗位名称: 生态研发工程师 公司名称: 北京飞轮数据科技有限公司 工作地点: 北京、西安、成都、杭州、上海、深圳、广州、新加坡 、硅谷、remote 学历要求: 本科 薪资范围: 20-40 * 16薪、满额五险一金、12%比例缴纳公积金 任职资格: 1、 大学本科及以上学历,有使用大数据平台构建业务数据流的经验者优先; 2、深入理解大数据开发流程,在某个业务领域有深入的数据分析视野和实施经验; 3、 良好的语言表达和客户沟通能力,能快速理解用户的需求,积极负责,并能拆解推动任务落地; 加分项: 1、 熟悉 Doris、Clickhouse、Greenplum、CDH、Impala、Presto 、Druid、Kylin等数据分析平台者优先; 2、 对技术分享布道有浓厚兴趣,有对外技术分享经历者优先; 工作职责: 1、负责数据仓库用户选型和架构应用指导以及问题答疑; 2、 负责开发数据仓库周边生态工具,与Flink/Spark等等打通; 3、 开源社区用户及商业用户的产品问题支持和解决; 4、 调研各类大数据工具,并分享最新技术和最佳实践;
岗位名称: ETL中高级工程师 公司名称: 上海哥瑞利软件有限公司 工作地点: 西安 / 上海 / 武汉 / 成都 / 深圳 / 合肥 学历要求: 本科 薪资范围: 15-20k 注意事项: 本岗位需要短期出差 岗位描述: 1、本科学历,特别优秀可放宽到专科; 2、5年工作经验,特别优秀可放宽到3年; 3、熟悉Oracle数据库基本管理,存储过程开发,SQL调优; 4、熟悉常见ETL工具如 Informatica,datax,kettle等; 5、熟悉常用调度工具,具备基本的开发规范意识;
岗位名称: 大数据开发工程师(偏数仓) 公司名称: 浙江融象科技有限公司 工作地点: 杭州 学历要求: 本科 薪资范围: 面议 任职资格: 1、 计算机相关专业,本科及以上学历,三年以上相关工作经验; 2、熟悉hadoop、hbase、elastic search、mysql等,具有独立调优和辅助运维的能力; 3、熟悉Kettle、dataworks等ETL工具,熟悉linux系统,熟悉shell、java、python等不少于两种语言,并具有独立实施的能力; 4、熟悉数据库、数仓等基础理论,能够与实践较好的结合; 5、熟悉neo4j, janusgraph等图数据库优先; 6、有较大规模大数据平台及数仓实施案例优 工作职责: 1、 负责数据仓库ETL设计、规划、建设和管理; 2、负责数据仓库平台相关管理工作,如研发规范、质量规范等制定; 3、负责与数据分析、数据产品和数据治理小组协作沟通; 4、负责Hadoop、hbase、ElasticSearch和JanusGarph等基础平台运维;5、负责ETL和平台运维的技术指导和团队培训
岗位名称: 大数据运维工程师 公司名称: 文思海辉技术有限公司 工作地点: 无锡 学历要求: 本科 薪资范围: 18K 注意事项: 五险一金是薪资30%基数,不是驻场,几乎不加班。 岗位描述: 负责大数据组件的运维工作 1、至少三年相关工作经验; 2、需要hadoop生态运维相关,最好有资源监控经验
岗位名称: 大数据开发工程师 公司名称: 平安银行 工作地点: 深圳 学历要求: 本科 薪资范围: 面议 任职资格: 1、计算机相关专业,本科及以上学历; 2、从事数据仓库领域工作至少5年以上。精通数仓模型设计方法论,并有实际的模型设计经验; 3、熟练掌握一种或多个开发语言(JAVA/PYTHON/SHELL); 4、熟悉Hadoop生态相关技术并有相关实践经验,包括但不限于Hive/Spark/Flink/Kafka/Presto/Clickhouse等,具备海量数据加工处理相关经验; 5、精通数仓分层和治理,包括但不限于:元数据管理、数据质量、主数据管理等 工作职责: 1、 负责金融市场交易数据模型体系构建及数据主题开发,负责离线/实时的ETL工作,为业务提供定制化的数据支持,并优化计算任务性能; 2、数据中台平台建设工作,开发数据处理相关工具,提高数据处理效率及准确性,面向关联方提供体验良好的万亿规模的交互式产品; 3、确保数据质量,包括正确性,一致性,完备性,有效性,时效性等; 4、对大数据开发新技术进行调研和学习,开展技术分享,促进团队整体技能提升; 5、负责核心技术问题攻关
岗位名称: 数据开发工程师 公司名称: 友邦科技 工作地点: 上海 学历要求: 本科 薪资范围: 面议 任职资格: 1、计算机、统计学、数学等相关专业,硕士研究生学历,3年以上工作经验,具有国有大型银行总行监管报送集市开发工作经验优先; 2、精通主流数据库(Oracle/SQL Server/MySQL等)开发语言,精通SQL性能调优; 3、具有一定的数据模型和数据架构基础,精通TeraData金融数据模型; 4、熟练使用PowerDesigner等建模工具,有ETL脚本开发经验,熟悉Kettle等ETL工具; 5、熟练使用Linux操作系统,能够编写简单的Shell脚本、脚本调试,能够通过Shell脚本调用Python脚本,能够进行软件系统日常运维。 6、了解Java或者Python开发语言,能够使用java/Python语言对数据进行简单清洗、数据二次处理、分析等。 7、了解Scala语言,能够进行spark、Flink简单编程,对数据进行简单清洗、数据二次处理。 8、具由良好的团队协作和沟通协调能力 工作职责: 1、负责监管报送集市架构设计,保障平台稳定性与可扩展性; 2、深入理解监管报送需求,对数据有较高敏感性,完成监管报送集市业务模型到数据模型的设计与开发; 3、负责监管集市层的设计和优化迭代工作; 4、与数据治理团队紧密开展合作,提升数据的易用性和数据质量; 5、完成领导交办的其他工作任务
岗位名称: 大数据开发工程师 公司名称: 中汇信息技术(上海)有限公司 工作地点: 上海 学历要求: 硕士 薪资范围: 面议 任职资格: 1、硕士及以上,35周岁以下,计算机及相关专业,CET4; 2、具有较强的问题抽象能力、系统化思维能力、文字表达能力和组织协调能力; 3、熟悉greenplum/hadoop/spark/hive/flink等大数据平台架构,有过系统开发、维护经验的优先; 4、至少熟练掌握一门开发语言(java/python/go/scala/c++/shell等); 5、3年及以上大数据开发相关工作经验; 6、精通高性能SQL开发和SQL性能调优者优先; 7、具备良好的自主学习能力、沟通能力和规划能力,积极乐观向上,具备阅读官方文献资料等解决问题的能力; 8、精通Java,SQL,对开源框架有一些解决问题的能力,能及时发现问题,对中间件运用自如 工作职责: 1、负责数据中台数据应用相关设计、编码开发及生产运维支持; 2、负责大数据研发工具研究与选型; 3、数据中台当前已有的Hadoop、spark、hive、BDM等大数据框架的运维与问题排查; 4、参与数据中台数据集成框架的信创改造工作
岗位名称: 数据分析师 公司名称: 中汇信息技术(上海)有限公司 工作地点: 上海 学历要求: 本科 薪资范围: 面议 任职资格: 1、本科及以上,35岁以下,计算机、软件工程、统计学或相关专业,人员能力突出,可以适当放宽学历要求,CET4; 2、良好的沟通协调、发现问题与解决问题能力; 3、熟练掌握Python和SQL,并拥有不低于3年相关开发经验; 4、熟练掌握多种统计和挖掘方法,熟练掌握Tableau等至少一种可视化工具; 5、具有数仓或数据中台相关模型设计或数据分析相关经验者优先;6、较强的数据敏感度,逻辑分析能力和文档写作能力; 7、做事积极主动,具备良好的沟通能力、协调能力,有较强的学习能力和抗压能力; 8、有相关经验优先,有大型金融机构相关工作经验者优先 工作职责: 1、通过数据分析支持产品改进及新模式的探索; 2、构建数据指标体系,尤其是业务层面数据分析体系,参与设计各项业务数据指标; 3、定期进行用户数据分析,通过监控及分析,推动产品改进,运营调整; 4、构建业务层面的数据模型,定期与业务讨论归纳可提炼的中台功能,支撑业务前台的快速迭代
岗位名称: 数据技术专家 公司名称: 蚂蚁集团-网商银行部 工作地点: 杭州 学历要求: 本科 薪资范围: 面议 任职资格: 1、数据仓库领域至少5年以上经验,有丰富的数据仓库模型设计与ETL、实时数据研发经验 ,掌握常用的数仓建模方法,具备大数据处理经验和相关项目经验。能独立完成复杂数据架构/模型的设计并推动落地; 2、精通常用关系型数据库Oracle、Teradata、DB2、Mysql等开发;精通hadoop/hive/hbase等大数据研发体系,且了解其底层实现原理;有实时数据研发经验,精通RocketMq/Kafka(任一)等中间件,Blink/Flink/SparkStreaming(任一)等流计算引擎开发;有数据质量管理与数据治理经验;具有超大规模数据研发项目经验更佳; 3、熟练掌握一门或多门编程语言,Java、Python、Perl等,有数据挖掘/分析能力更佳; 4、对信贷风控领域的数据建模有一定了解,对数据驱动业务有深刻理解; 5、良好的语言表达能力和自我驱动力,以及优秀的沟通协调能力 工作职责: 1、负责网商银行风险管理部数据应用集市的设计与研发,包含离线和实时,支持风控策略和模型部署,稳定运行。助力万亿级规模的信贷业务高速且稳健的发展; 2、负责网商银行风险管理部核心数据资产的设计与研发,包括架构和内容设计,项目计划,开发测试部署等。构建行业标杆级的信贷风控领域核心数据资产池; 3、负责数据平台产品的设计与建设,赋能风控和业务,提高团队整体效能。
岗位名称: 大数据测试工程师(高级) 公司名称: 北京滴普科技有限公司 工作地点: 杭州 学历要求: 本科 薪资范围: 面议 任职资格: 1、统招本科及以上学历,计算机或相关专业毕业,至少有2年以上大数据测试经验; 2、熟练掌握SQL语法和进行调优,熟悉Java、Python语言。 3、掌握MySQL、Posgressql、TiDB等关系型数据库得测试方法; 4、熟练掌握海量多维数据构造方法,熟悉数据链路异常检测与监控机制; 5、精通Hive、Kafka、Flink等大数据组件、Trino、Doris、ADB等分析型数据库测试方法。 6、有较强的责任感和自驱力,学习能力强,分析能力强,具备较强合作精神。 7、对技术有强烈的追求,针对问题可快速找出处理方案并落地实践 工作职责: 1、做好数据测试业务逻辑和测试方法总结沉淀; 2、构建自动化测试工具和框架。能够进行功能测试、性能测试,压力测试、高可用测试; 3、根据需求文档、设计文档分析测试点、针对性设计测试场景、编写环境测试用例,测试脚本、并执行; 4、负责数据平台测试工作,负责数据平台测试脚本建设,调试和执行、海量数据构造,保证各环境数据流向准确性、完整性及合理性; 5、工作态度积极主动,勇于承担。对测试中或客户生产发现的问题能进行分析和定位,与开发人员、产品人员积极有效沟通推动问题解决
岗位名称: 大数据开发工程师(主任) 公司名称: 隆基绿能.智能技术中心 工作地点: 西安 学历要求: 本科 薪资范围: 面议 任职资格: 1、本科以上学历,至少5年以上企业级数据仓库开发经验,具有丰富的数据建模能力; 2、具备3年以上工业大数据方向数据仓库开发经验或5年以上电信、电力等行业大数据平台数据仓库开发经验,有大型财务多维OLAP分析项目经验优先; 3、至少精通2种以上OLAP平台的开发能力,精通OLAP理论知识; 4、精通大数据平台数据处理能力,熟练但不限于Spark,Flink、Hive、Kudu、Kafka、Kylin、Durid、Data Lake等大数据技术; 5、完整处理过从数据采集、数据计算、数据存储、数据可视化等全流程开发任务; 6、有Spark Structured Streaming或Flink流式开发经验; 7、精通Scala、Java、Python等开发的语言 工作职责: 1、根据岗位不同有针对性负责公司财务或证据链相关数据仓库建设、包括业务建模、数据建模、ETL开发、数据可视化等; 2、负责离线场景及实时场景的数据开发; 3、负责所开发模块的维护及日常数据核查,辅助业务部门进行数据分析; 4、确保所开发的数据功能质量可靠,数据可服用; 5、重点针对工业制造环节中供应链、产品溯源等业务开展数据开发工作
想要参与内推或登记内推岗位,可扫描下方二维码加入社区。
我们是由一群数据从业人员,因为热爱凝聚在一起,以开源精神为基础,组成的PowerData数据之力社区。
可关注下方公众号后点击“加入我们”,与PowerData一起成长
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。